MX2008000906A - Metodo y aparato para la prediccion ponderada para la codificacion escalable de video. - Google Patents

Metodo y aparato para la prediccion ponderada para la codificacion escalable de video.

Info

Publication number
MX2008000906A
MX2008000906A MX2008000906A MX2008000906A MX2008000906A MX 2008000906 A MX2008000906 A MX 2008000906A MX 2008000906 A MX2008000906 A MX 2008000906A MX 2008000906 A MX2008000906 A MX 2008000906A MX 2008000906 A MX2008000906 A MX 2008000906A
Authority
MX
Mexico
Prior art keywords
layer
reference image
lower layer
image
improvement
Prior art date
Application number
MX2008000906A
Other languages
English (en)
Inventor
Jill Macdonald Boyce
Peng Yin
Purvin Bibhas Pandit
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=36969701&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=MX2008000906(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of MX2008000906A publication Critical patent/MX2008000906A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Se proporcionan codificadores y decodificadores escalables de video, y metodo para la codificacion y decodificacion escalable de video correspondientes. Un codificador escalable de video incluye un codificador (100) para codificar un bloque en una capa de mejora de una imagen al aplicar un mismo parametro de ponderacion en una imagen de referencia de la capa de mejora como el aplicado en una imagen de referencia de la capa inferior utilizada para codificar un bloque en la capa inferior de la imagen. En bloque en la capa de mejora corresponde al bloque en la capa inferior, y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior. El decodificador escalable de video incluye un decodificador (200) para decodificar un bloque en la capa de mejora de una imagen al aplicar el mismo parametro de ponderacion en una imagen de referencia de la capa de mejora como el aplicado en la imagen de referencia de la capa inferior utilizada para decodificar un bloque en la capa inferior de la imagen. El bloque en la capa de mejora corresponde al bloque en la capa inferior y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior.

Description

MÉTODO Y APARATO PARA LA PREDICCIÓN PONDERADA PARA LA CODIFICACIÓN ESCALABLE DE VIDEO Referencia Cruzada de Solicitudes Relacionadas Esta solicitud reclama el beneficio de la Solicitud Provisional de Estados Unidos No. de Serie 60/701,464, presentada el 21 de julio de 2005 y titulada "METHOD AND APPARATUS FOR WEIGHTED PREDICTION FOR SCALABLE VIDEO CODING (MÉTODO Y APARATO PARA LA PREDICCIÓN PONDERADA DE CODIFICACIÓN ESCABLE DE VIDEO), la cual se incorpora aquí como referencia en su totalidad.
Campo de la Invención La presente invención se relaciona en general con la codificación y decodificación de video y más en particular, con métodos y aparatos para la predicción ponderada de codificación y decodificación escalable de video.
Antecedentes de la Invención La norma de International Organization for Standarization/lnternational Electrotechnical Commission (ISO/IEC) Moving Pictures Experts Group-4 (MPEG-4), Parte 10 y la norma H.264 de ISO/IEC MPEG-4 Part 10/Internacional Telecommunication Union, Telecommunication Sector (ITU-T) (de aquí en adelante llamada "norma H.264"), es la primera norma internacional de codificación de video que incluye una herram ienta de Pred icción Ponderada (WP) La Predicción Ponderada se adoptó para mejorar la eficiencia de codificación La norma de codificación escalable de video (SVC) desarrollada como una enmienda para la norma H 264, también adopta la predicción ponderada Sin embargo, la norma SVC no especifica expl ícitamente la relación de las ponderaciones entre una capa base y sus capas de mejora La predicción ponderada está basada en los perfiles principa l , extend ido y alto de la norma H 264 El uso de WP se ind ica en el aj uste de parámetro de secuencia para las rebanadas P y SP con el uso del campo ponderada_pred_et?queta y para las rebanadas B con el uso del campo ponderada_b?pred_?dc Existen dos modos de WP, un modo expl ícito y u n modo im pl ícito El modo expl ícito está sustentado en las rebanadas P, SP y B El modo im pl ícito está sustentado solamente en las rebanadas B U n solo factor y desplazamiento de ponderación están asociados con cada índice de la imagen de referencia para cada componente de color en cada rebanada En el modo expl ícito, estos parámetros WP se pueden cod ificar en el encabezado de rebanada En el modo im pl ícito, estos parámetros se derivan con base en la distancia relativa de la imagen actual y sus imágenes de referencia Para cada macrobloq ue o división de macrobloque, los parámetros de ponderación apl icados se basan en el índice de la imagen de referencia (o índices en el caso de una bi-predicción) del macrobloq ue o de la división de macrobloque actual Los índices de la imagen de referencia se codifican en la corriente de bits o se pueden derivar, por ejem plo, de los macrobloques de modo directo o saltados. El uso del índice de la imagen de referencia para señalar los parámetros de ponderación a ser aplicados es eficiente en la velocidad de bits, comparados con requerir un índice de parámetro de ponderación en la corriente de bits, ya que el índice de la imagen de referencia ya está disponible con base en los otros campos de corriente de bits requerida. Se han estudiado y estandarizado muchos métodos diferentes para el escalamiento incluyendo el escalamiento SNR; el escalamiento espacial, el escalamiento temporal y el escalamiento de grano fino, en perfiles de escalamiento de las normas MPEG-2 y H.264, o se desarrollan actualmente como una enmienda de la norma H.264. Para el escalamiento espacial y de SNR, se incorpora un alto grado de predicción entre capas. Los intra e inter macrobloques se pueden pronosticar con el uso de señales correspondientes de las capas previas. Además, la descripción de movimiento de cada capa puede utilizarse para una predicción de la descripción del movimiento para las siguientes capas de mejora. Estas técnicas se encuentran en tres categorías: la predicción de intra textura entre capas, la predicción de movimiento entre capas, y la predicción de residuo entre capas. En la Junta del Modelo de Video Escalable (JSVM) 2.0, la predicción puede aprovechar la predicción entre capas con el uso de los datos de movimiento de la capa base escalada, con el uso de "BASE_CAPA_MODO" o de "QPEL_REFINACIÓN_MODO0 como en el caso del escalamiento espacial de dos capas. Cuando se utiliza la predicción de movimiento entre capas, el vector de movimiento (incluyendo su índice de imagen de referencia y sus parámetros de ponderación asociados) del M B correspondiente (m uestreado) en la capa previa se utiliza para la pred icción de movimiento. Cuando la capa de mejora y su capa previa tiene va lores diferentes de pred_ponderación_tabla() , se necesitan almacenar diferentes g rupos de parámetros de ponderación para la misma imagen de referencia en la capa de mejora .
Breve Descripción de la Invención Estos y otras desventajas de la presente invención se solucionan con la presente i nvención , la cual está dirigida a métodos y aparatos para la predicción ponderada para la codificación y decodificación escalable de video. De conform idad con un aspecto de la presente i nvención , se proporciona un codificador escalable de video. El codificador escalable de video incluye un codificador para codificar un bloq ue en la capa de mejora de una imagen al aplicar el mismo parámetro de ponderación en una i magen de referencia de la capa de mejora como el apl icado a la imagen de referencia de la capa inferior, utilizada para cod ificar un bloq ue en la capa i nferior de la imagen. El bloque en la capa de mejora corresponde a l bloque en la capa i nferior y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior. De conformidad con otro aspecto de la presente invención , se proporciona un método para la cod ificación escalable de video. El método incluye codificar un bloque en una capa de mejora de una imagen al apl icar el m ismo parámetro de ponderación en u na imagen de referencia de la imagen de mejora , como el aplicado a la imagen de referencia de ca pa inferior uti lizada para codificar un bloque en una capa inferior de la imagen El bloque en la capa de mejora corresponde al bloq ue en la capa inferior y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior De conform idad con otro aspecto de la presente i nvención , se proporciona una estructura de señal de video para la codificación escalable de video q ue incluye un bloq ue codificado en una capa de mejora de u na im agen generada al aplicar el mismo parámetro de ponderación en una imagen de referencia de la capa de mejora como el aplicado a la imagen de referencia de la capa inferior utilizada para cod ificar un bloque en una capa inferior de la imagen El bloque en la capa de mejora corresponde al bloque en la capa inferior y la imagen de referencia de la capa de mejora corresponde a la capa de referencia de la capa inferior Estos y otros aspectos, características y ventajas de la presente i nvención serán evidentes a partir de la siguiente descripción detallada de las modalidades ejemplificativas, q ue se debe leer j unto con los dibujos anexos Breve Descri pc ió n de los Di bu jos La presente invención se comprenderá mejor de conformidad con las siguientes Figuras ejemp ficativas, en las cuales La Figura 1 muestra un diagrama en bloque para un codificador Joint Scalable Video Model (JSVM) 20 al cual se pueden aplicar los principios de la presente invención La Figura 2 muestra un diagrama en bloque para un decodificador ejemplificativo en el cual se pueden aplicar los principios de la presente invención La Figura 3 muestra un diagrama de flujo para un método ejemp ficativo para la codificación escalable de video de un bloque de imagen con el uso de la predicción ponderación de conformidad con los presentes principios La Figura 4 muestra un diagrama de flujo para un método ejemp ficativo para la decodificación escalable de video de un bloque de imagen con el uso de la predicción ponderada de conformidad con una modalidad ejemplificativa de los presentes principios La Figura 5 muestra un diagrama de flujo para un método ejemp ficativo para decodificar las sintaxis nive dc y perf ?l_?dc de conformidad con los presentes principios, y La Figura 6 muestra un diagrama de flujo para un método ejemplificativo de una restricción de predicción ponderada para una capa de mejora de conformidad con la modalidad ejemplificativa de los presentes principios Descripción Detallada de la Invención La presente invención está dirigida a métodos y aparatos para la predicción ponderada para la codificación y decodificación escalable de video. De conformidad con los presentes principios de la presente invención, los métodos y aparatos aquí descritos re-utilizan los parámetros de ponderación de capa base para la predicción ponderada de la caja de mejora. Con ventaja, las modalidades de conformidad con los presentes principios puede ahorrar memoria y/o complejidad para el codificador y el decodificador. Además, las modalidades de conformidad con los presentes principios pueden también ahorrar bits a velocidades muy bajas de bits. La presente descripción ¡lustra los principios de la presente invención. Las personas experimentadas en la técnica podrán apreciar que varios arreglos que aunque no se describen o muestran explícitamente, incorporan los principios de la invención y están incluidos dentro de su espíritu y su alcance. Todos los ejemplos y el lenguaje condicionado utilizados aquí tienen la intención de ser ilustrativos para ayudar al lector a entender los principios de la invención y los conceptos proporcionados por el inventor para mejorar la técnica, y se deben considerar sin limitación para los ejemplos y condiciones descritos específicamente. Además, todas las declaraciones que describen principios, aspectos y modalidades de la invención, así como los ejemplos específicos de la misma, tienen la intención de abarcar los equivalentes estructurales o funcionales de la misma. Además, se tiene la intención de que tales equivalentes incluyan los equivalentes conocidos actualmente así como los equivalentes desarrollados en el futuro, es decir, cualquier elemento desarrollado que realiza la misma función, sin importar su estructura. De este modo, por ejemplo, las personas experimentadas en la técnica podrán apreciar que los diagramas en bloque presentados aquí representan vistas conceptuales de la circuitería ilustrativa que incorpora los principios de la invención. De manera similar, se debe apreciar que cualquier diagrama de flujo, diagramas de transición de estado, pseudocódigos y sus similares representan varios procesos que se pueden representar esencialmente en un medio legible por computadora y ejecutarse por una computadora o un procesador, ya sea que la computadora o procesador sea o no mostrado explícitamente. Las funciones de los diferentes elementos mostrados en las Figuras pueden ser provistas con el uso de un hardware dedicado así como con un hardware con la ejecutar un software asociado con un software apropiado. Cuando es provisto por un procesador, las funciones pueden ser proporcionadas por un único procesador dedicado, mediante un procesador compartido o por una pluralidad de procesadores individuales, algunos de los cuales pueden estar compartidos. Además, el uso explícito del término "procesador" o "controlador" no se debe considerar como refiriéndose exclusivamente a un hardware con la capacidad de ejecutar software y pueden implícitamente incluir, sin limitación, un hardware procesador de señal digital ("DSP"), una memoria de solamente lectura ("ROM") para almacenar el software, una memoria de acceso aleatorio ("RAM"), y un almacenamiento no volátil. También se puede incluir otro hardware convencional y/o acostumbrado. De manera similar, los conmutadores mostrados en las Figuras son únicamente conceptuales. Su función se puede llevar a cabo a través de la operación de un lógico de programa, a través de un lógico dedicado, a través de la interacción de un control de programa y un lógico dedicado o incluso en forma manual, cuando la técnica particular seleccionada por el desarrollador es más específica para el contexto. En las reivindicaciones aquí descritas, cualquier elemento expresado como un medio para llevar a cabo una función específica tiene la intención de abarcar cualquier forma para llevar a cabo esa función, incluyendo por ejemplo A) una combinación de elementos de circuito que llevan a cabo esa función; B) software en cualquier forma, incluyendo, por lo tanto, firmware, microcódigos o sus similares, combinados con la circuitería apropiada para ejecutar el software para llevar a cabo la función. La invención, como se define por las reivindicaciones reside en el hecho de que las funcionalidades provistas por los diferentes medios descritos están combinadas y se pueden alcanzar en la forma en que lo describen las reivindicaciones. Se considera que cualquier medio que pueda proporcionar estas funciones, será equivalente de los mostrados aquí. De conformidad con los presentes principios, se proporcionan un método y un aparato que re-utilizan los parámetros de ponderación de la capa base para la capa de mejora. Ya que la base de mejora es una versión muestreada en descendente de la capa de mejora, será benéfico que la capa de mejora y la capa base tengan el mismo grupo de parámetros de ponderación para la misma imagen de referencia. Además, otras ventajas/características son provistas por los presentes principios. Una característica/ventaja es que solamente se necesita almacenar un grupo de parámetros de ponderación para cada capa de mejora, lo cual puede ahorrar uso de memoria. Además, cuando se utiliza la predicción de movimiento entre capas, el decodificador necesita conocer el grupo de parámetros de ponderación que se utiliza. Una tabla de consulta se puede utilizar para almacenar la información necesaria. Otra característica/ventaja es la reducción en la complejidad del codificador y del decodificador. En el decodificador, las modalidades de los presentes principios pueden reducir la complejidad de analizar y una tabla de consulta para localizar el grupo correcto de parámetros de ponderación. En el codificador, las modalidades de los presentes principios pueden reducir la complejidad de utilizar diferentes algoritmos, y así tomar decisiones para el cálculo de parámetros de ponderación. Cuando se utiliza un paso de actualización y las ponderaciones de predicción se toman en cuenta, tener múltiples parámetros de ponderación para el mismo índice de imagen de referencia hará la derivación de la información de movimiento en el paso de actualización invertido en el decodificador y el paso de actualización en el codificador más complicados. Otra característica/ventaja es que a muy bajas velocidades de bits, las modalidades de los presentes principios también pueden contar con la ventaja de eficiencia de codificación, la ya que los parámetros de ponderación no se transmiten explícitamente en el encabezado de rebanada para la capa de mejora. Con referencia a la Figura 1, un codificador ejemplificativo de Joint Scalable Video Model Versión 20 (de aquí en adelante "JSVM20"), en el cual se puede aplicar la presente invención se indica por lo general con el número 100 de referencia El codificador 100 JSVM20 utiliza tres capas espaciales y la filtración temporal compensada de movimiento El codificador 100 JSVM incluye un decimador 104 bi-dimensional (2D), y un módulo 108 de filtración temporal compensada de movimiento (MCTF), cada uno con una entrada para recibir los datos 102 de señal de video Una salida del decimador 106 2D se conecta en comunicación de señal con una entrada de un módulo 110 MCTF Una primera salida del módulo 110 MCTF se conecta en comunicación de señal con una entrada de un codificador 112 de movimiento y una segunda salida del módulo 110 MCTF se conecta en comunicación de señal con una entrada de un módulo 116 de predicción Una primera salida del codificador 112 de movimiento se conecta en comunicación de señal con una primera entrada de un multiplexor 114 Una segunda salida del codificador 112 de movimiento se conecta en comunicación de señal con una primera entrada de un codificador 124 de movimiento Una primera salida del módulo 116 de predicción se conecta en comunicación de señal con una entrada de un transformador 118 espacial Una salida del transformador 118 espacial se conecta en comunicación de señal con una segunda entrada del multiplexor 114 Una segunda salida del módulo 116 de predicción se conecta en comunicación de señal con una entrada de un interpolador 120 Una salida del interpolador se conecta en comunicación de señal con una primera entrada de un módulo 122 de predicción Una primera salida del módulo 122 de predicción se conecta en comunicación de señal con una entrada de un transformador 126 espacial. Una salida del transformador 126 espacial se conecta en comunicación de señal con la segunda entrada del multiplexor 114. Una segunda salida del módulo 122 de predicción se conecta en comunicación de señal con una entrada del interpolador 130. Una salida del interpolador 130 se conecta en comunicación de señal con una primera entrada de un módulo 134 de predicción. Una salida del módulo 134 de predicción se conecta en comunicación de señal con un transformador 136 espacial. Una salida del transformador espacial se conecta en comunicación de señal con la segunda entrada del multiplexor 114. Una salida del decimador 104 2D se conecta en comunicación de señal con una entrada de un módulo 128 MCTF. Una primera salida del módulo 128 MCTF se conecta en comunicación de señal con una segunda entrada de un codificador 124 de movimiento. Una primera salida del codificador 124 de movimiento se conecta en comunicación de señal con la primera entrada del multiplexor 114. Una segunda salida del codificador 124 de movimiento se conecta en comunicación de señal con una primera entrada de un codificador 132 de movimiento. Una segunda salida del módulo 128 MCTF se conecta en comunicación de señal con una segunda entrada del módulo 122 de predicción. Una primera salida del módulo 108 MCTF se conecta en comunicación de señal con una segunda entrada del codificador 132 de movimiento. Una salida del codificador 132 de movimiento se conecta en comunicación de señal con la primera entrada del multiplexor 114. Una segunda salida del módulo 108 MCTF se conecta en comunicación de señal con una segunda entrada del módulo 134 de predicción. Una salida del multiplexor 114 proporciona una corriente de bits 138 de salida. Para cada capa espacial, se realiza una descomposición temporal compensada de movimiento. La descomposición proporciona el escalamiento temporal. La información de movimiento desde las capas espaciales inferiores se puede utilizar para la predicción de movimiento en las capas más altas. Para la codificación de textura, la predicción espacial entre las capas espaciales sucesivas se puede aplicar para remover la redundancia. La señal residual resultante de la intra predicción o de la intra predicción compensada de movimiento se codifica con transformación. Un residuo de capa base de calidad proporciona la mínima calidad de reconstrucción en cada capa espacial. Esta capa base de calidad se puede codificar en una corriente compatible con la norma H.264 cuando no se aplica la predicción entre capas. Para el escalamiento de calidad, las capas de mejora de calidad se codifican adicionalmente. Estas capas de mejora se puede seleccionar para proporcionar un escalamiento de calidad de grano fino o grueso (SNR). Con referencia a la Figura 2, un decodificador escalable de video ejemplificativo en el cual se puede aplicar la presente invención, se indica por lo general, con el número de referencia 200. Una entrada del demultiplexor 202 está disponible como una entrada del decodificador 200 escalable de video para recibir la corriente de bits escalable. Una primera salida del demultiplexor 202 se conecta en comunicación de señal con una entrada de un decodificador 204 de entropía escalable SNR de transformación inversa espacial. Una primera salida del decodificador 204 de entropía escalable SNR de transformación inversa, espacial se conecta en comunicación de señal con una primera entrada de un módulo 206 de predicción Una salida del módulo 206 de predicción se conecta en comunicación de señal con una primera entrada del módulo 208 MCTF inverso. Una segunda salida del decodificador 204 de entropía escalable SNR de transformación inversa, espacial se conecta en comunicación de señal con una primera entrada de un decodificador 210 de vector de movimiento (MV). Una salida del decodificador 210 MV se conecta en comunicación de señal con una segunda entrada del módulo 208 MCTF inverso. Una segunda salida del demultiplexor 202 se conecta en comunicación de señal con una entrada de un decodificador 212 de entropía escalable SNR de transformación inversa, espacial. Una primera salida del decodificador 212 de entropía escalable SNR de transformación inversa, espacial se conecta en comunicación de señal con una primera entrada de un módulo 214 de predicción. Una primera salida del módulo 214 de predicción se conecta en comunicación de señal con una entrada de un módulo 216 de interpolación. Una salida del módulo 216 de interpolación se conecta en comunicación de señal con una segunda entrada del módulo 206 de predicción. Una segunda salida del módulo 214 de predicción se conecta en comunicación de señal con una primera entrada del módulo 218 MCTF inverso. Una segunda salida del decodificador 212 de entropía escalable SNR de transformación inversa, espacial se conecta en comunicación de señal con una primera entrada de un decodificador 220 MV. Una primera salida del decodificador 220 MV se conecta en comunicación de señal con una segunda entrada del decodificador 210 MV Una segunda salida del decodificador 220 MV se conecta en comunicación de señal con una segunda entrada del módulo 218 MCTF inverso Una tercera salida del demultiplexor 202 se conecta en comunicación de señal con una entrada de un decodificador 222 de entropía escalable, SNR de transformación inversa, espacial Una primera salida del decodificador 222 de entropía escalable SNR, de transformación inversa, espacial se conecta en comunicación de señal con una entrada de un módulo 224 de predicción Una primera salida del módulo 224 de predicción se conecta en comunicación de señal con un módulo 226 de interpolación Una salida del módulo 226 de interpolación se conecta en comunicación de señal con una segunda entrada del módulo 214 de predicción Una segunda salida del módulo 224 de predicción se conecta en comunicación de señal con una primera entrada de un módulo 228 MCTF inverso Una segunda salida del decodificador 222 de entropía escalable SNR de transformación inversa, espacial se conecta en comunicación de señal con una entrada del decodificador 230 MV Una primera salida del decodificador 230 MV se conecta en comunicación de señal con una segunda entrada del decodificador 220 MV Una segunda salida del decodificador 230 MV se conecta en comunicación de señal con una segunda entrada del módulo 228 MCTF inverso Una salida del módulo 228 MCTF inverso está disponible como una salida del decodificador 220, para emitir una señal de capa 0 Una salida 218 del módulo MCTF inverso está disponible como una salida del decodificador 200, para emitir una señal de capa 1 Una salida del módulo 208 MCTF inverso está disponible como una salida del decodificador 200, para emitir una señal de capa 2 En una primera modalidad ejemplificativa de conformidad con los presentes principios, no se utiliza una nueva sintaxis En esta primera modalidad ejemplificativa, la capa de mejora re-utiliza las ponderaciones de la capa base La primera modalidad ejemp ficativa se puede implementar, por ejemplo, como un perfil o una restricción de nivel El requerimiento también se puede indicar en las secuencia o en los grupos de parámetros de imagen En la segunda modalidad ejemplificativa de conformidad con los presentes principios, se introduce un elemento de sintaxis, base_pred_ponderac?ón_tabla_et?queta en la sintaxis del encabezado de rebanada en la extensión escalable, como se muestra en la Tabla 1, para que el codificador puede seleccionar en forma adaptable el modo a ser utilizado para la predicción ponderada con base en rebanada Cuando base_pred_ponderac?ón_tabla_et?queta no está presente, base_pred_ponderac?ón_tabla_et?queta será inferida como igual a 1 Cuando base_pred_ponderac?ón_tabla_et?queta es igual a 1, esto indica que la capa de mejora re-utiliza pred_ponderac?ón_tabla() de su capa previa La tabla 1 ilustra la sintaxis para la predicción ponderada para la codificación escalable de video TABLA 1 En el decod ificador, cuando la capa de mejora va a re-util izar las ponderaciones de la capa base, se realiza una re-asociación de pred_ponderac?ón_tabla () desde la capa base (o previa) para pred_ponderac?ón_tabla() en la capa de mejora actual Este proceso se uti liza para los sig uientes casos en el primer caso, el mismo índ ice de la imagen de referencia en la capa base y en la capa de mejora ind ica una imagen de referencia d iferente , o en un segundo caso, la imagen de referencia uti lizada en la capa de mejora no tiene una coi ncidencia correspond iente en la capa base Para el primer caso, el número de cuenta del orden de imagen (POC) se util iza para asociar los parámetros de ponderación desde la capa base con el índice correcto de la imagen de referencia en la capa de mejora. Cuando se utilizan múltiples parámetros de ponderación en la capa base, los parámetros de ponderación con el menor índice de imagen de referencia, de preferencia, se asocian primero, mas no necesariamente. Para el segundo caso, se presume que base_pred_ponderación_tabla_etiqueta se ajusta en 0 para la imagen de referencia que no está disponible en la capa de mejora. La re-asociación de pred_ponderación_tabla() desde la capa base (o previa) para pred_ponderación_tabla() en la capa de mejora actual se deriva como sigue. El proceso es llamado como proceso hereditario para pred_ponderación_tabla(). En particular, este proceso de herencia se solicita cuando base_pred_ponderación_tabla_etiqueta es ¡gual a 1. Las salidas de este proceso son como sigue: luma_ponderación_LX[] (con X que es 0 ó 1) - luma_desplazamiento_LX[] (con X que es 0 ó 1) croma_ponderación_LX[] (con X que es 0 ó 1) luma_desplazamiento_LX[] (con X que es 0 ó 1) luma_reg2_ponderación_denom croma_reg2_ponderación_denom El proceso de derivación para las imágenes de base se solicita con basePic como salida. Para X a ser reemplazada por 0 ó 1, aplica lo siguiente: Dejemos que base_luma_ponderación_LX[] sea el valor del elemento de sintaxis del valor de luma_ponderación_LX[] de basePic de la imagen de base.
Dejemos que base_luma_desplazamiento_LX[] sea el valor del elemento de sintaxis del valor de luma_desplazamiento_LX[] de base Pic de la imagen de base. Dejemos q ue base_croma_ponderación_LX[] sea el valor del elemento de sintaxis del valor de croma_ponderación_LX[] de basePic de la imagen de base. Dejemos que base_croma_desplazam iento_LX[] sea el valor del elemento de sintaxis del valor de croma_desplazamiento_LX[] de base Pic de la imagen de base. - Dejemos que base_luma_reg2_ponderación_denom sea el valor del elemento de sintaxis del valor de luma_reg2_ponderación_denom de basePic de la imagen de base.
Dejemos q ue base_croma_reg2_ponderación_denom sea el valor del elemento de sintaxis del valor de croma_reg2_ponderación_denom de basePic de la imagen de base . Dejemos que BaseRefPicListX sea RefPicListX del índice de referencia de basePic de la imagen de base. Para cada índ ice de referencia refldxLX en RefPicListX de la l ista de índice de referencia de rebanada actual (salto de 0 a num_ref_idx_IX_activo_menos 1 ) , sus parámetros de ponderación asociados en la rebanada actual se heredan como sig ue: Dejemos q ue refPic sea la imagen que es referenciada por refl dxLX. - Dejemos q ue refPicBase, la imagen de referencia de la capa base correspondiente, sea considerada como existente cuando hay una i magen para la cual todas las siguientes cond iciones son verdaderas La dependenc?a_?d del elemento de sintaxis para refPicBase de la imagen es igual a la variable DependenciaBase de la imagen refPic La cal ?dad_n?vel del elemento de sintaxis para refPI cBase de la imagen es ig ual a la variable Ca dad NivelBase de la refPic de la imagen El frag mento_orden de elemento de sintaxis para refPicBase de la i m agen es igual a la variable FragmentoOrden Base de refPic de la imagen El valor de P?cOrdenCuenta(refP?c) es igual al valor de P?cOrdenCnt(refP?cBase) Hay u n índ ice baseRefldxLX igual al índ ice de referencia disponible con el menor valor en la lista BaseRefPicListX del índice de referencia de la capa base correspondiente, el cual hace referencia a refPicBase Cuando se encuentra que existe u na refPicBase , aplica lo siguiente baseRefldxLX se marca como no disponible para los pasos posteriores del proceso luma_reg2_ponderac?ón_denom = base_luma_reg2_ponderac?ón_denom ( 1 ) croma_reg2_ponderac?ón_denom = base_croma_reg2_ponderación_denom (2) luma_ponderación_LX(refl dxLX) = base_luma_ponderación_LX(baseRefldxLX) (3) luma_desplazamiento_LX(refldxLX) = base_luma_desplazamiento_LX(base RefldxLX) (4) croma_ponderación_LX(refldxLX)(0) = base_croma_ponderación_LX(baseRefldxLX)(0) (5) croma_desplazam iento_LX(refldxLX)(0) = base_croma_desplazamiento_LX(baseRefl xLX)(0) (6) - croma_ponderación_LX(refl dxLX)( 1 ) = base_croma_ponderación_LX(baseRefldxLX)( 1 ) (7) croma_desplazam iento_LX(refldxLX)( 1 ) = base_croma_desplazamiento_LX(baseRefldxLX)( 1 ) (8) otra forma: luma_reg2_ponderación_denom = base_luma_reg2_ponderación_denom (9) - croma_reg2_ponderación_denom = base_croma_reg2_ponderación_denom (10) luma_ponderación_LX(refldxLX) = 1 <<luma_reg2_ponderación_denom (11) luma_desplazamiento_LX(refldxLX) = 0 (12) croma_ponderación_LX(refldxLX)(0) = 1<< croma_reg2_ponderación_denom (13) croma_desplazamiento_LX(refldxLX)(0) = 0 (14) croma_ponderación_LX(refldxLX)(1) = 1<<croma_reg2_ponderación_denom (15) croma_desplazamiento_LX(refldxLX)(1) = 0 (16) El siguiente es un método ejemplificativo para implementar el proceso hereditario: Para(baseRefldxLX = 0; baseRefldxLX < = base_num_ref_idx_IX_activo_menos1 ; baseRefldxLX++) base_ref_dispon_(baseRefldxLX) = 1 para(refldxLX =0; baseRefldxLX< = base_num_ref_idx_IX_activo_menos1 ; baseRefldxLX+ + ){ base_ponderaciones_dispon_etiqueta(refldxLX) = 0 para(baseRefldxLX=0; baseRefldxLX< = base_num_ref_idx_IX_activo_menos1 ; baseRefldxLX + + ){ cua ndo(base_ref_dis pon (baseRefldxLX) && (PicOrdenCnt(refPicListX(refldxLX)) PlcOrdenCnt(BaseRefPicListX(baseRefldxLX)))){ aplicar ecuaciones (1) a (8); base_ref_dispon(baseRefldxLX)=0 base_ponderaciones_dispon_etiqueta(refldxLX) = 1 fraccionar; } } Cuando (base_ponderaciones_dispon_et¡queta(refldxLX) = = 0){ Aplicar ecuaciones (9) a la (16) } } (17) Cuando la imagen de la capa de mejora y la imagen de la capa base tienen la misma división de rebanada, la re-asociación de pred_ponderación_tabla() de la capa base (o inferior) para pred_ponderación_tabla() en la capa de mejora actual se puede llevar a cabo en base a una rebanada. Sin embargo, cuando la capa de mejora y la capa base tienen una división diferente de rebanada, la re-asociación de pred_ponderación_tabla() de la capa base (o i nferior) para pred_ponderación_tabla() en la capa de mejora actual , necesita llevarse a cabo en base de macrobloq ue. Por ejemplo, cuando la capa base y la capa de mejora tienen las mismas dos divisiones de rebanada, el proceso hered itario puede llamarse una vez por rebanada. Por el contrario, cuando la capa base tiene dos divisiones y la capa de mejora tiene tres divisiones, entonces el proceso hered itario se llama en una base de macrobloque . Con referencia a la Figura 3 , un método ejemplificativo para la cod ificación escalable de video de un bloque de imagen con el uso de predicción ponderada se indica por lo general con el número 300 de referencia . Un bloque 305 de inicio empieza a codificar la imagen (E L) de la capa de mejora actual y pasa el control a un bloq ue 31 0 de decisión . El bloque 310 de decisión determina si la imagen (BL) de capa base está presente para la imagen EL actual . Cuando no es as í, entonces el control se pasa a un bloq ue 350 de función . De otra forma , el control se pasa a un bloque 31 5 de función . El bloq ue 31 5 de función obtiene las ponderaciones para la imagen BL y pasa el control a un bloque 320 de función . El bloque 320 de función re-asocia pred_ponderación_tabla() de la BL con pred_ponderación_tabla() de la ca pa de mejora y pasa el control a un bloque 325 de función . El bloq ue 325 de función ajusta base_pred_ponderación_tabla_etiqueta igual a verdadero y pasa el control a un bloq ue 330 de función . El bloque 330 de función pondera la imagen de referencia con las ponderaciones obten idas y pasa el control a un bloq ue 335 de función . El bloque 335 de función escribe base_pred_ponderación_tabla_etiqueta en el encabezado de rebanada y pasa el control a un bloque 340 de decisión. El bloque 340 de decisión determina si base_pred_ponderación_tabla_etiqueta es igual a verdadero. Cuando es así, el control se pasa a un bloque 345 de función. De otra forma, el control se pasa a un bloque 360 de función. El bloque 350 de función calcula las ponderaciones para la imagen EL, y pasa el control a un bloque 355 de función. El bloque 355 de función ajusta base_pred_ponderación_tabla_etiqueta igual a falso y pasa el control a un bloque de función 330. El bloque 345 de función codifica la imagen EL con el uso de la imagen de referencia ponderada y pasa el control a un bloque 365 de fin. El bloque 360 de función escribe las ponderaciones en el encabezado de rebanada y pasa el control a un bloque 345 de función. Con referencia a la Figura 4, un método ejemplificativo para la decodificación escalable de video de un bloque de imagen con el uso de una predicción ponderada se indica por lo general con el número 400 de referencia. Un bloque 405 de inicio empieza la decodificación de una imagen (EL) de la capa de mejora actual y pasa el control a un bloque 410 de función. El bloque 410 de función analiza base_pred_ponderación_tabla_etiqueta en el encabezado de rebanada, y pasa el control a un bloque 415 de decisión. El bloque 415 de decisión determina si base_pred_ponderación_tabla_etiqueta es ¡gual a uno. Cuando es así, el control se pasa a un bloque 420 de función. De otra forma, el control se pasa a un bloque 435 de función.
El bloque 420 de función copia las ponderaciones desde la imagen de la capa base (BL) correspondiente a la imagen EL y pasa el control a un bloque 425 de función. El bloque 425 de función re-asocia pred_ponderación_tabla() de la imagen BL con pred_ponderación_tabla() de la imagen EL y pasa el control a un bloque 430 de función. El bloque 430 de función decodifica la imagen y pasa el control a un bloque 430 de función. El bloque 430 de función decodifica la imagen EL con las ponderaciones obtenidas y pasa el control a un bloque 440 de fin. El bloque 435 de función analiza los parámetros de ponderación y pasa el control a un bloque 430 de función. Con referencia a la Figura 5, un método ejemplificativo para decodificar las sintaxis de niveMdc y de perf il_idc se indica por lo general con el número 500 de referencia. Un bloque 505 de inicio pasa el control a un bloque 510 de función. El bloque 510 de función analiza las sintaxis niveMdc y perfiMdc y pasa el control a un bloque 515 de función. El bloque 515 de función determina la restricción de la predicción ponderada para la capa de mejora con base en el análisis realizado por el bloque 510 de función y pasa el control a un bloque 520 de fin. Con referencia a la Figura 6, un método ejemplificativo para decodificar la restricción de la predicción ponderada para la capa de mejora se indica por lo general con el número 600 de referencia. Un bloque 605 de inicio pasa el control a un bloque 610 de función. El bloque 610 de función analiza la sintaxis para la predicción ponderada para la capa de mejora y pasa el control a un bloque 615 de fin.
Ahora se ofrece u na descripción de algunas ventajas/características de la presente invención , algu nas de las cuales ya han sido mencionadas. Por ejem plo, una ventaja/característica de es un codificador escala ble de video q ue incl uye un codificador para codificar un bloq ue en una capa de mejora de una imagen al aplicar un mismo parámetro de ponderación para u na imagen de referencia de la capa de mejora q ue se apl ica en una imagen de referencia de la capa inferior particular, utilizada para cod ificar un bloque en una capa inferior de la imagen , en donde el bloq ue en la capa de mejora corresponde al bloq ue en la capa inferior, en donde la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior particular. Otra característica/ventaja es u n cod ificador escalable de video, como se describe antes, en donde el cod ificador cod ifica el bloque en la capa de mejora al seleccionar entre un modo expl ícito de parámetro de ponderación y un modo im pl ícito de parámetro de ponderación . Otra característica/ventaja es el codificador escalable de video como se descri be antes, en donde el codificador impone una restricción de que el m ismo parámetro de ponderación se aplica siempre en la imagen de referencia de la capa de mejora , como el aplicado a la imagen de referencia de la capa inferior particular, cuando el bloq ue en la capa de mejora corresponde al bloq ue en la capa inferior, y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de capa i nferior particu lar. Además, otra característica/ventaja es el codificador escalable de video que tiene la restricción como la descrita antes , en donde la restricción se define como u n perfil o una restricción del nivel o se señala en el g rupo de parámetro de imagen de secuencia También , otra característica/ventaja es el cod ificador escalable de video como se describe antes, en donde el cod ificador añade la sintaxis en un encabezado de rebanada, para una rebanada en la capa de mejora para apl icar, en forma selectiva el m ismo parámetro de ponderación en la imagen de referencia de la capa de mejora o un parámetro de ponderación diferente También , otra característica/ventaja es el codificador escalable de video, como se describe antes , en donde el codificador real iza una re-asociación de la sintaxis de pred_ponderac?ón_tabla() desde la capa inferior con una sintaxis de pred_ponderac?ón_tabla() para la capa de mejora Además, otra característica/ventaja es el cod ificador escalable de video con la re-asociación antes descrita , en donde el cod ificador utiliza una cuenta de orden de imagen para re-asociar los parámetros de ponderación desde la capa i nferior con un índ ice de imagen de referencia correspond iente en la capa de mejora Además, otra característica/ventaja es el codificador escalable de video con la re-asociación q ue utiliza la cuenta de orden de imagen , como se describe antes, en donde los parámetros de ponderación con el menor índ ice de imagen de referencia se re-asocian pri mero Además , otra característica/ventaja es el cod ificador escalable de video con la re-asociación antes descrita , en donde el cod ificador ajusta u n cam po de ponderac?ón_pred?cc?ón_et?queta en cero para una imagen de referencia utilizado en la capa de mejora como no dispon ible en la capa inferior También , otra característica/ventaja es el cod ificador escalable de video con la re-asociación antes descrita , en donde el codificador envía en un encabezado de rebanada, los parámetros de ponderación para un índice de imagen de referencia correspondiente a una imagen de referencia uti lizada en la capa de mejora, cuando la imagen de referencia uti lizada en la capa de mejora no tiene una coincidencia en la capa inferior También , otra característica/ventaja es el codificador escalable de video con la re-asociación antes descrita, en donde el cod ificador realiza la re-asociación con base en rebanada cuando la imagen tiene la m isma división de rebanada en la capa de mejora y en la capa i nferior y el codificador real iza la re-asociación con base en macrobloque cuando la imagen tiene una división de rebanada diferente en la capa de mejora con respecto a la capa inferior Además, otra característica/ventaja es el codificador escalable de video como se describe antes , en donde el codificador realiza una re-asociación de la sintaxis pred_ponderac?ón_tabla() desde la capa i nferior con una sintaxis pred_ponderac?ón_tabla() para la capa de mejora, cuando el cod ificador apl ica el m ismo parámetro de ponderación en la imagen de referencia de la capa de mejora al apl icado en la imagen de referencia de la capa i nferior particu lar Otra característica/ventaja es el codificador escalable de video como se descri be antes , en donde el codificador se salta el paso de llevar a cabo el cálculo de parámetros de ponderación , cuando el codificador apl ica el m ismo parámetro de ponderación en la imagen de referencia de la capa de mejora como el aplicado en la imagen de referencia de capa i nferior particular Además, otra característica/ventaja es el codificador esca lable de video, como se describe antes, en donde el codificador almacena solamente un grupo de parámetros de ponderación para cada índice de la imagen de referencia , cuando el cod ificador aplica el m ismo parámetro de ponderación en la imagen de referencia de la capa de mejora como el apl icado en la imagen de referencia de la capa inferior particular Además, otra característica/ventaja es el codificador escalable de video como se describe antes, en donde el codificador calcula los parámetros de ponderación , cuando el cod ificador aplica un parámetro de ponderación diferente o la capa de mejora no tiene la capa inferior Estas y otras características y ventajas de la presente invención pueden alcanzarse fácilmente por las personas experimentadas en la técnica con base en las enseñanzas de la m isma Se debe entender que los principios de la presente invención se pueden im plementar en diferentes formas de hardware, software, firmware o procesadores de propósitos especiales o combinaciones de los m ismos De preferencia, los principios de la presente invención se pueden implementar en una combi nación de hardware y software Además , el software puede implementarse como un programa de aplicación incorporado ta ngiblemente en una u nidad de almacenamiento de programa El programa de aplicación se puede cargar, ejecutar por una máq uina q ue com prenda la arq uitectura apropiada La máq uina se puede im plementar en una plataforma de com putadora con un hardware como una o más unidades de procesamiento central ("CPU") , una memoria de acceso aleatorio (" RAM") , e mterfaces de salida y entrada (" l/O") La plataforma de com putadora tam bién puede incluir un sistema operativo y un código de m icromstrucciones Los diferentes procesos y funciones descritos aq u í pueden ser parte del código de microinstrucción o parte del programa de apl icación o una combinación de los m ismos, los cuales se pueden ejecutar con una CPU Además , se pueden conectar otras unidades periféricas con la plataforma de com putadora como u na unidad de almacenam iento de datos adicional y una unidad de impresión . También , se debe entender que debido a q ue algunos componentes y métodos del sistema il ustrados en los dibujos acompañantes de preferencia , se im plementan en un software , las conexiones reales entre los componentes del sistema o los bloques de función del proceso pueden diferir dependiendo de la manera en que se programe la presente invención . Habiendo proporcionado los princi pios de la misma , las personas experimentadas en la técn ica podrán contem plar estas y otras implementaciones o configuraciones sim i lares de la presente invención sin apartarse del espíritu y alcance de la presente invención . Au nque se han descrito las modalidades ilustrativas con referencia a los d ibujos acompañantes, se debe entender que la presente invención no está limitada a estas modalidades, y que se pueden efectuar varios cam bios y modificaciones por las personas experimentadas en la técnica sin apartarse del alcance y espíritu de la presente i nvención . Todos los cambios y modificaciones tienen la intención de estar inclu idos dentro del alcance de la presente invención , como se establece en las reivind icaciones anexas.

Claims (1)

  1. REIVINDICACIONES 1 Un aparato caracterizado porque comprende un codificador (100) para codificar un bloque en una capa de mejora de una imagen al aplicar el mismo parámetro de ponderación en la imagen de referencia de la capa de mejora como el aplicado en la imagen de referencia de la imagen inferior utilizada para codificar un bloque en una capa inferior de la imagen, en donde el bloque en la capa de mejora corresponde al bloque en la capa inferior, y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior 2 El aparato de conformidad con la reivindicación 1, caracterizado porque el codificador (100) codifica el bloque en la capa de mejora al seleccionar entre un modo explícito de parámetro de ponderación y un modo implícito del parámetro de ponderación 3 El aparato de conformidad con la reivindicación 1, caracterizado porque el codificador (100) impone una restricción de que el mismo parámetro de ponderación siempre se aplica con la imagen de referencia de la capa de mejora como el aplicado en la imagen de referencia de la capa inferior, cuando el bloque en la capa de mejora corresponde al bloque en la capa inferior, y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior 4 El aparato de conformidad con la reivindicación 3, caracterizado porque la restricción se define como un perfil y/o una restricción de nivel, y/o se señala en un grupo de parámetro de imagen de secuencia 5 El aparato de conformidad con la reivindicación 1 , caracterizado porque el codificador ( 1 00) añade una sintaxis en un encabezado de rebanada, para una rebanada en la capa de mejora , para aplicar en forma selectiva el m ismo parámetro de ponderación en la imagen de referencia de la capa de mejora o un parámetro de ponderación diferente 6 El aparato de conformidad con la reivindicación 1 , caracterizado porq ue el codificador ( 1 00) lleva a cabo u na re-asociación de una si ntaxis pred_ponderac?ón_tabla() desde la capa inferior en una sintaxis pred_ponderac?ón_tabla() para la capa de mejora 7 El aparato de conform idad con la reivindicación 6 , caracterizado porque el codificador ( 1 00) utiliza una cuenta de orden de i magen para re-asociar los parámetros de ponderación desde la capa inferior con un índice de imagen de referencia correspondiente en la capa de mejora 8 El aparato de conformidad con la reivind icación 7 , caracterizado porq ue los parámetros de ponderación con el menor índice de i magen de referencia se re-asocian primero 9 El aparato de conformidad con la reivindicación 6 , caracterizado porque el codificador ( 1 00) ajusta un campo de ponderac?ón_pred?cc?ón_et?queta en cero para una imagen de referencia uti lizada en la capa de mejora como no d ispon ible en la capa inferior 1 0 El aparato de conformidad con la reivind icación 6, caracterizado porque el codificador ( 1 00) envía en un encabezado de rebanada, los parámetros de ponderación de un índice de imagen de referencia correspondiente a una imagen de referencia utilizada en la capa de mejora, cuando la imagen de referencia utilizada en la capa de mejora no tiene una coincidencia en la capa inferior 11 El aparato de conformidad con la reivindicación 6, caracterizado porque el codificador (100) lleva a cabo la re-asociación en base a una rebanada cuando la imagen tiene la misma división de rebanada tanto en la capa de mejora como en la capa inferior, y el codificador lleva a cabo la re-asociación en una base de macrobloque cuando la imagen tiene una división de rebanada diferente en la capa de mejora con respecto a la capa inferior 12 El aparato de conformidad con la reivindicación 1, caracterizado porque el codificador (100) lleva a cabo una re-asociación de una sintaxis pred_ponderac?ón_tabla() desde la capa inferior con una sintaxis pred_ponderac?ón_tabla() para la capa de mejora, cuando el codificador aplica el mismo parámetro de ponderación en la imagen de referencia de la capa de mejora como el aplicado en la imagen de referencia de la capa inferior 13 El aparato de conformidad con la reivindicación 1, caracterizado porque el codificador (100) se salta llevar a cabo el cálculo de parámetros de ponderación, cuando el codificador aplica el mismo parámetro de ponderación en la imagen de referencia de la capa de mejora como el aplicado en la imagen de referencia de la capa inferior 14 El aparato de conformidad con la reivindicación 1, caracterizado porque el codificador (100) solamente almacena un grupo de parámetros de ponderación para cada índice de imagen de referencia, cuando el codificador aplica el mismo parámetro de ponderación en la imagen de referencia de la capa de mejora que el aplicado en la imagen de referencia de la capa inferior 15 El aparato de conformidad con la reivindicación 1, caracterizado porque el codificador (100) calcula los parámetros de ponderación, cuando el codificador aplica un parámetro de ponderación diferente o la capa de mejora no tiene la capa inferior 16 Un método para la codificación escalable de video, caracterizado porque comprende codificar (315) un bloque en una capa de mejora de una imagen al aplicar el mismo parámetro de ponderación en la imagen de referencia de la capa de mejora al aplicado en una imagen de referencia de la capa inferior utilizada para codificar un bloque en una capa inferior de la imagen, en donde el bloque en la capa de mejora corresponde al bloque en la capa inferior, y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior 17 El método de conformidad con la reivindicación 16, caracterizado porque el paso de codificar (315) codifica el bloque en la capa de mejora al seleccionar entre un modo explícito de parámetro de ponderación y un modo implícito del parámetro de ponderación. 18 El método de conformidad con la reivindicación 16, caracterizado porque el paso de codificar comprende imponer (310) una restricción de que el mismo parámetro de ponderación siempre se aplica con la imagen de referencia de la capa de mejora como al aplicado en la i magen de referencia de la capa inferior, cuando el bloque en la capa de mejora corresponde al bloq ue en la capa inferior, y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior. 1 9. El método de conformidad con la reivindicación 1 8, caracterizado porque la restricción se define como un perfil y/o una restricción de n ivel , y/o se señala en un grupo de parámetro de imagen de secuencia (51 0) . 20. El método de conformidad con la reivindicación 1 6, caracterizado porque el paso de codificar añade (335) una sintaxis en u n encabezado de rebanada, para una reba nada en la capa de mejora , para aplicar en forma selectiva el m ismo parámetro de ponderación en la imagen de referencia de la capa de mejora o un parámetro de ponderación diferente. 21 . El método de conformidad con la reivindicación 1 6, caracterizado porque el paso de codificar lleva a cabo (320) una reasociación de una sintaxis pred_ponderación_tabla() desde la capa inferior en una sintaxis pred_ponderación_tabla() para la capa de mejora . 22. El método de conformidad con la reivindicación 21 , caracterizado porque el paso de llevar a cabo (320) utiliza una cuenta de orden de imagen para re-asociar los parámetros de ponderación desde la capa i nferior con un índice de imagen de referencia correspondiente en la capa de mejora . 23. El método de conformidad con la reivindicación 22 , caracterizado porq ue los parámetros de ponderación con el menor índice de imagen de referencia se re-asocian primero 24 El método de conform idad con la reivindicación 21 , caracterizado porque el paso de codificar comprende aj ustar un campo de ponderac?ón_pred ?cc?ón_et?queta en cero para una imagen de referencia utilizada en la capa de mejora como no disponible en la capa inferior 25 El método de conformidad con la reivindicación 21 , caracterizado porque el paso de codificar com prende enviar en un encabezado de rebanada , los parámetros de ponderación de un índice de imagen de referencia correspond iente a una imagen de referencia utilizada en la capa de mejora , cuando la imagen de referencia utilizada en la capa de mejora no tiene u na coincidencia en la capa inferior 26 El método de conform idad con la reivi ndicación 21 , caracterizado porque la re-asociación se lleva a cabo en base a una rebanada cuando la imagen tiene la m isma división de rebanada tanto en la capa de mejora como en la capa inferior, y el paso de re-asociación se lleva a ca bo en una base de macrobloque cuando la imagen tiene una división de rebanada diferente en la capa de mejora con respecto a la capa inferior 27 El método de conformidad con la reivindicación 1 6, caracterizado porque el paso de codificar com prende llevar a cabo u na re-asociación de una sintaxis pred_ponderac?ón_tabla() desde la capa inferior con una si ntaxis pred_ponderac?ón_ta bla() para la capa de mejora , cuando el paso de cod ificar aplica el m ismo parámetro de ponderación en la imagen de referencia de la capa de mejora como el aplicado en la imagen de referencia de la capa inferior 28. El método de conformidad con la reivindicación 1 6, caracterizado porque el paso de codificar comprende saltar (31 5) el cálcu lo de parámetros de ponderación , cuando el paso de codificar aplica el mismo parámetro de ponderación en la imagen de referencia de la capa de mejora como el a pl icado en la imagen de referencia de la capa inferior. 29. El método de conformidad con la reivindicación 1 6, caracterizado porq ue el paso de codificar comprende almacenar solamente u n g rupo de parámetros de ponderación para cada índice de imagen de referencia , cuando el cod ificador apl ica el mismo parámetro de ponderación en la imagen de referencia de la capa de mejora que el aplicado en la imagen de referencia de la capa inferior. 30. El método de conformidad con la reivindicación 1 6 , caracterizado porq ue el paso de codificar comprende calcular los parámetros de ponderación , cuando el codificador aplica u n parámetro de ponderación d iferente o la capa de mejora no tiene la capa inferior. 31 . U na estructu ra de señal de video para la cod ificación escalable de video, caracterizado porque comprende: un bloq ue codificado en una capa de mejora de u na imagen generada al aplicar el mismo parámetro de ponderación en una imagen de referencia de la capa de mejora como el apl icado en u na i magen de referencia de capa inferior utilizada para cod ificar un bloque en una capa i nferior de la imagen , en donde el bloque en la capa de mejora corresponde al bloq ue en la capa inferior, y la imagen de referencia de la capa de mejora corresponde a la imagen de referencia de la capa inferior.
MX2008000906A 2005-07-21 2006-05-19 Metodo y aparato para la prediccion ponderada para la codificacion escalable de video. MX2008000906A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US70146405P 2005-07-21 2005-07-21
PCT/US2006/019520 WO2007018670A1 (en) 2005-07-21 2006-05-19 Method and apparatus for weighted prediction for scalable video coding

Publications (1)

Publication Number Publication Date
MX2008000906A true MX2008000906A (es) 2008-03-18

Family

ID=36969701

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2008000906A MX2008000906A (es) 2005-07-21 2006-05-19 Metodo y aparato para la prediccion ponderada para la codificacion escalable de video.

Country Status (14)

Country Link
US (2) US20090207919A1 (es)
EP (2) EP1915871B1 (es)
JP (2) JP5484725B2 (es)
KR (2) KR101299848B1 (es)
CN (2) CN101228795B (es)
AU (2) AU2006277008B2 (es)
BR (2) BRPI0613659B1 (es)
HK (1) HK1118663A1 (es)
MX (1) MX2008000906A (es)
MY (2) MY149340A (es)
RU (2) RU2406253C2 (es)
TW (2) TWI325723B (es)
WO (2) WO2007018670A1 (es)
ZA (2) ZA200800244B (es)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340177B2 (en) 2004-07-12 2012-12-25 Microsoft Corporation Embedded base layer codec for 3D sub-band coding
KR20060070400A (ko) * 2004-12-20 2006-06-23 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
US8422546B2 (en) * 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
EP1806930A1 (en) * 2006-01-10 2007-07-11 Thomson Licensing Method and apparatus for constructing reference picture lists for scalable video
US8503536B2 (en) 2006-04-07 2013-08-06 Microsoft Corporation Quantization adjustments for DC shift artifacts
US8130828B2 (en) 2006-04-07 2012-03-06 Microsoft Corporation Adjusting quantization to preserve non-zero AC coefficients
US7995649B2 (en) 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
US8711925B2 (en) 2006-05-05 2014-04-29 Microsoft Corporation Flexible quantization
GB2440004A (en) * 2006-07-10 2008-01-16 Mitsubishi Electric Inf Tech Fine granularity scalability encoding using a prediction signal formed using a weighted combination of the base layer and difference data
JP4747975B2 (ja) * 2006-07-14 2011-08-17 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
US20080013623A1 (en) * 2006-07-17 2008-01-17 Nokia Corporation Scalable video coding and decoding
US8238424B2 (en) 2007-02-09 2012-08-07 Microsoft Corporation Complexity-based adaptive preprocessing for multiple-pass video compression
US8498335B2 (en) 2007-03-26 2013-07-30 Microsoft Corporation Adaptive deadzone size adjustment in quantization
US20080240257A1 (en) * 2007-03-26 2008-10-02 Microsoft Corporation Using quantization bias that accounts for relations between transform bins and quantization bins
US8243797B2 (en) 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
US8442337B2 (en) 2007-04-18 2013-05-14 Microsoft Corporation Encoding adjustments for animation content
US8331438B2 (en) * 2007-06-05 2012-12-11 Microsoft Corporation Adaptive selection of picture-level quantization parameters for predicted video pictures
CN101690237B (zh) * 2007-07-02 2012-03-21 日本电信电话株式会社 活动图像可分级编码方法及解码方法、其装置
RU2461978C2 (ru) * 2007-10-25 2012-09-20 Ниппон Телеграф Энд Телефон Корпорейшн Способ масштабируемого кодирования и способ масштабируемого декодирования видеоинформации, устройства для них, программы для них и носитель записи, на котором записаны программы
US8750390B2 (en) 2008-01-10 2014-06-10 Microsoft Corporation Filtering and dithering as pre-processing before encoding
US8160132B2 (en) 2008-02-15 2012-04-17 Microsoft Corporation Reducing key picture popping effects in video
US8953673B2 (en) 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
US8761253B2 (en) * 2008-05-28 2014-06-24 Nvidia Corporation Intra prediction mode search scheme
US8897359B2 (en) 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
KR101144539B1 (ko) * 2008-06-05 2012-05-14 한국전자통신연구원 스케일러블 비디오 코딩 비트스트림의 적응 변환 장치 및 그 방법
BRPI0915971A2 (pt) * 2008-07-25 2019-02-26 Sony Corp aparelho e método de processamento de imagem
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
BRPI0918619A2 (pt) * 2008-09-17 2019-09-03 Sharp Kk aparelho de decodificação de fluxo de vídeo escalonável e aparelho de geração de fluxo de vídeo escalonável
US20100098156A1 (en) 2008-10-16 2010-04-22 Qualcomm Incorporated Weighted prediction based on vectorized entropy coding
TWI440363B (zh) 2009-02-19 2014-06-01 Sony Corp Image processing apparatus and method
TWI463878B (zh) 2009-02-19 2014-12-01 Sony Corp Image processing apparatus and method
TWI468020B (zh) * 2009-02-19 2015-01-01 Sony Corp Image processing apparatus and method
JP5625342B2 (ja) * 2009-12-10 2014-11-19 ソニー株式会社 画像処理方法、画像処理装置、プログラム
KR101703327B1 (ko) 2010-01-14 2017-02-06 삼성전자 주식회사 계층적 데이터 단위의 패턴 정보를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
JP5428886B2 (ja) * 2010-01-19 2014-02-26 ソニー株式会社 情報処理装置、情報処理方法、及びそのプログラム
JP5718453B2 (ja) 2010-04-13 2015-05-13 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 復号化方法
ES2907203T3 (es) 2010-04-13 2022-04-22 Ge Video Compression Llc Codificación de vídeo que usa subdivisiones multiárbol de imágenes
CN106454370B (zh) 2010-04-13 2019-11-01 Ge视频压缩有限责任公司 解码器、重建数组的方法、编码器、编码方法及数据流
CN102939750B (zh) 2010-04-13 2016-07-06 Ge视频压缩有限责任公司 跨平面预测
JP5703781B2 (ja) 2010-09-03 2015-04-22 ソニー株式会社 画像処理装置および方法
US8965139B2 (en) * 2010-09-29 2015-02-24 Panasonic Intellectual Property Corporation Of America Image decoding method, image coding method, image decoding apparatus, image coding apparatus and integrated circuit for generating a code stream with a hierarchical code structure
US9749630B2 (en) 2010-09-30 2017-08-29 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
PT2704435T (pt) * 2011-04-25 2019-04-24 Lg Electronics Inc Processo de intra-predição, e codificador e descodificador utilizando o mesmo
JP5786478B2 (ja) * 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
US10034018B2 (en) 2011-09-23 2018-07-24 Velos Media, Llc Decoded picture buffer management
US10003817B2 (en) * 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
US9386309B2 (en) 2011-11-18 2016-07-05 Google Technology Holdings LLC Explicit way for signaling a collocated picture for high efficiency video coding (HEVC) using a single reference list
US9392235B2 (en) 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
TWI616087B (zh) * 2012-01-31 2018-02-21 Vid衡器股份有限公司 可縮放高效率視訊編碼(hevc)參考圖集(rps)傳訊
US9143781B2 (en) 2012-04-03 2015-09-22 Qualcomm Incorporated Weighted prediction parameter coding
US20150103898A1 (en) * 2012-04-09 2015-04-16 Vid Scale, Inc. Weighted prediction parameter signaling for video coding
US9549177B2 (en) 2012-04-11 2017-01-17 Google Technology Holdings LLC Evaluation of signaling of collocated reference picture for temporal prediction
EP2839660B1 (en) * 2012-04-16 2020-10-07 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10609394B2 (en) * 2012-04-24 2020-03-31 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and deriving parameters for coded multi-layer video sequences
US9532080B2 (en) 2012-05-31 2016-12-27 Sonic Ip, Inc. Systems and methods for the reuse of encoding information in encoding alternative streams of video data
US9253487B2 (en) 2012-05-31 2016-02-02 Qualcomm Incorporated Reference index for enhancement layer in scalable video coding
EP2868078A4 (en) * 2012-06-27 2016-07-27 Intel Corp PREDICTION OF RESIDUES BETWEEN LAYERS AND BETWEEN CHANNELS
US9319681B2 (en) 2012-07-18 2016-04-19 Google Technology Holdings LLC Signaling of temporal motion vector predictor (MVP) enable flag
US20140056356A1 (en) * 2012-08-21 2014-02-27 Motorola Mobility Llc Method and apparatus for efficient signaling of weighted prediction in advanced coding schemes
US9426462B2 (en) 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
CN104813663B (zh) 2012-09-28 2018-05-22 索尼公司 编码设备、编码方法、解码设备和解码方法
US9124899B2 (en) 2012-09-28 2015-09-01 Sharp Laboratories Of America, Inc. Motion derivation and coding for scaling video
US20140092971A1 (en) * 2012-09-28 2014-04-03 Kiran Mukesh Misra Picture processing in scalable video systems
US20140092972A1 (en) * 2012-09-29 2014-04-03 Kiran Mukesh Misra Picture processing in scalable video systems
US9313500B2 (en) 2012-09-30 2016-04-12 Microsoft Technology Licensing, Llc Conditional signalling of reference picture list modification information
EP2904803A1 (en) * 2012-10-01 2015-08-12 GE Video Compression, LLC Scalable video coding using derivation of subblock subdivision for prediction from base layer
KR20150079742A (ko) * 2012-12-28 2015-07-08 니폰 덴신 덴와 가부시끼가이샤 영상 부호화 장치 및 방법, 영상 복호 장치 및 방법, 및 그 프로그램
US9294777B2 (en) * 2012-12-30 2016-03-22 Qualcomm Incorporated Progressive refinement with temporal scalability support in video coding
US9357210B2 (en) 2013-02-28 2016-05-31 Sonic Ip, Inc. Systems and methods of encoding multiple video streams for adaptive bitrate streaming
BR112015004956A2 (pt) * 2013-07-12 2018-04-17 Sony Corp aparelhos de codificação e de decodificação de imagem, e, métodos de codificação e de decodificação de imagem.
US20150016502A1 (en) * 2013-07-15 2015-01-15 Qualcomm Incorporated Device and method for scalable coding of video information
CN106416250B (zh) * 2013-12-02 2020-12-04 诺基亚技术有限公司 视频编码和解码
US10764603B2 (en) 2018-12-31 2020-09-01 Alibaba Group Holding Limited Resolution-adaptive video coding

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
US6381349B1 (en) * 1997-11-12 2002-04-30 The University Of Utah Projector/backprojector with slice-to-slice blurring for efficient 3D scatter modeling
US6236878B1 (en) * 1998-05-22 2001-05-22 Charles A. Taylor Method for predictive modeling for planning medical interventions and simulating physiological conditions
US6310968B1 (en) * 1998-11-24 2001-10-30 Picker International, Inc. Source-assisted attenuation correction for emission computed tomography
US6392235B1 (en) * 1999-02-22 2002-05-21 The Arizona Board Of Regents On Behalf Of The University Of Arizona Coded-aperture system for planar imaging of volumetric sources
US6931060B1 (en) * 1999-12-07 2005-08-16 Intel Corporation Video processing of a quantized base layer and one or more enhancement layers
ATE297099T1 (de) * 2001-02-13 2005-06-15 Koninkl Philips Electronics Nv Verfahren zur codierung und decodierung von bewegungsschätzungen
US6895055B2 (en) * 2001-10-29 2005-05-17 Koninklijke Philips Electronics N.V. Bit-rate guided frequency weighting matrix selection
KR100508798B1 (ko) * 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
US7376186B2 (en) * 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
US7072394B2 (en) * 2002-08-27 2006-07-04 National Chiao Tung University Architecture and method for fine granularity scalable video coding
EP2603001A1 (en) * 2002-10-01 2013-06-12 Thomson Licensing Implicit weighting of reference pictures in a video encoder
KR100612849B1 (ko) * 2003-07-18 2006-08-14 삼성전자주식회사 영상 부호화 및 복호화 장치 및 방법
US7262417B2 (en) * 2004-03-26 2007-08-28 Board Of Regents, The University Of Texas System Method and system for improved image reconstruction and data collection for compton cameras
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
KR100763182B1 (ko) * 2005-05-02 2007-10-05 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100714696B1 (ko) * 2005-06-24 2007-05-04 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치

Also Published As

Publication number Publication date
KR20080031017A (ko) 2008-04-07
KR101299390B1 (ko) 2013-08-22
BRPI0613659A2 (pt) 2011-01-25
AU2006277007A1 (en) 2007-02-15
JP2009502099A (ja) 2009-01-22
MY149340A (en) 2013-08-30
RU2406253C2 (ru) 2010-12-10
EP1915870A1 (en) 2008-04-30
BRPI0613657B1 (pt) 2019-05-07
JP5484725B2 (ja) 2014-05-07
AU2006277008A1 (en) 2007-02-15
RU2008106629A (ru) 2009-08-27
BRPI0613659B1 (pt) 2019-06-04
EP1915871A1 (en) 2008-04-30
HK1118663A1 (en) 2009-02-13
RU2411686C2 (ru) 2011-02-10
ZA200800248B (en) 2009-08-26
BRPI0613657A2 (pt) 2011-01-25
CN101228795A (zh) 2008-07-23
US20090207919A1 (en) 2009-08-20
TW200723887A (en) 2007-06-16
AU2006277007B2 (en) 2011-10-27
JP2009502100A (ja) 2009-01-22
TWI325723B (en) 2010-06-01
EP1915871B1 (en) 2017-07-05
CN101228794A (zh) 2008-07-23
TW200723886A (en) 2007-06-16
RU2008106624A (ru) 2009-08-27
CN101228794B (zh) 2011-05-11
WO2007018670A1 (en) 2007-02-15
AU2006277008B2 (en) 2011-11-10
CN101228795B (zh) 2011-09-07
ZA200800244B (en) 2010-05-26
WO2007018669A1 (en) 2007-02-15
KR20080028945A (ko) 2008-04-02
MY147087A (en) 2012-10-31
US20090080535A1 (en) 2009-03-26
JP5535479B2 (ja) 2014-07-02
EP1915870B1 (en) 2017-03-08
KR101299848B1 (ko) 2013-08-23
TWI324887B (en) 2010-05-11

Similar Documents

Publication Publication Date Title
MX2008000906A (es) Metodo y aparato para la prediccion ponderada para la codificacion escalable de video.
US8311121B2 (en) Methods and apparatus for weighted prediction in scalable video encoding and decoding
US10057592B2 (en) Video encoding and decoding
US8867618B2 (en) Method and apparatus for weighted prediction for scalable video coding
MX2008000522A (es) Metodo y aparato para la prediccion adaptable de intra-textura entre capas de macrobloque.
GB2493755A (en) Parallel processing of motion predictor subsets
JP2018110428A (ja) 映像符号化及び復号化のためのdcイントラ予測モードのための方法及び装置
WO2021244496A1 (zh) 一种编解码方法、装置及其设备
CN112075078A (zh) 合成式预测及限制性合并
JP2017073598A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
GB2512828A (en) Method and apparatus for encoding or decoding an image with inter layer motion information prediction

Legal Events

Date Code Title Description
FG Grant or registration