MX2013001661A - Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen, programa, y circuito integrado. - Google Patents

Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen, programa, y circuito integrado.

Info

Publication number
MX2013001661A
MX2013001661A MX2013001661A MX2013001661A MX2013001661A MX 2013001661 A MX2013001661 A MX 2013001661A MX 2013001661 A MX2013001661 A MX 2013001661A MX 2013001661 A MX2013001661 A MX 2013001661A MX 2013001661 A MX2013001661 A MX 2013001661A
Authority
MX
Mexico
Prior art keywords
prediction mode
mode
prediction
estimated
information
Prior art date
Application number
MX2013001661A
Other languages
English (en)
Inventor
Takahiro Nishi
Virginie Drugeon
Hisao Sasai
Youji Shibahara
Toshiyasu Sugio
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of MX2013001661A publication Critical patent/MX2013001661A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Abstract

La presente invención se refiere a un método de decodificación de imagen que incluye: una etapa de restauración que restaura un modo de predicción seleccionado que es el modo de predicción usado en la predicción del tiempo de codificación; y una etapa de decodificación que genera un bloque decodificado decodificando un bloque objetivo de datos de imagen codificados de conformidad con la predicción basada en el modo de predicción seleccionado. La etapa de restauración incluye: una primera etapa de inferencia de modo de predicción que determina un primer modo de predicción inferido; una segunda etapa de inferencia de modo de predicción que determina un segundo modo de predicción inferido que difiere del primer modo de predicción inferido y una etapa de restauración de modo de predicción que restaura el modo de predicción seleccionado sobre la base de la información de modo, el primer modo de predicción inferido y el segundo modo de predicción inferido.

Description

METODO DE DECODIFICACION DE IMAGEN, METODO DE CODIFICACION DE IMAGEN, APARATO DE DECODIFICACION DE IMAGEN, APARATO DE CODIFICACION DE IMAGEN, PROGRAMA, Y CIRCUITO INTEGRADO Campo de la Invención La presente invención se refiere a un método de codificación de imagen para realizar codificación con compresión en datos de imagen o datos de vídeo con mayor eficiencia de codificación, un método de decodificación de imagen para decodificar datos de imagen codificados comprimidos o datos de vídeo codificados comprimidos, un aparato de codificación de imagen del mismo, un aparato de decodificación de imagen del mismo, un programa del mismo, y un circuito integrado del mismo.
Antecedentes de la Invención El número de aplicaciones usadas, por ejemplo, para servicio de tipo vídeo en demanda incluyendo videoconferencia, radiodifusión de vídeo digital, y transmisión de contenido de vídeo en tiempo real vía Internet continua incrementando. Estas aplicaciones son dependientes de la transmisión de datos de vídeo. Cuando los datos de vídeo se transmiten o graban, una cantidad significativa de datos se transmite a través de un canal de transmisión convencional que tiene un ancho de banda limitado o se graba en un medio de grabación convencional que tiene una capacidad Ref. 238658 limitada de datos. Para transmitir los datos de vídeo a través del canal de transmisión convencional o grabar los datos de vídeo en el medio de grabación convencional, es absolutamente esencial comprimir o reducir la cantidad de datos digitales.
Siendo esta la situación, se han desarrollado múltiples estándares de codificación de vídeo para la compresión de datos de vídeo. Los ejemplos de los estándares de codificación de vídeo incluyen los estándares del estándar del Sector de Estandarización de Telecomunicaciones de la Unión Internacional de Telecomunicaciones (ITU-T, por sus siglas eninglés) especificado por "H.26X" y la Organización de Estándares Internacionales/Comisión Internacional de Electrotécnica (ISO/IEC, por sus siglas en inglés) especificado por "MPEG-x" . Actualmente, el último y más avanzado estándar de codificación de vídeo se presentó por el estándar H.264/MPEG-4 AVC (ver Literatura No de Patente 1).
El procedimiento de codificación básico tomado por la mayoría de estos estándares se basa en la codificación predictiva que incluye las siguientes etapas principales [a] a [d] . [a] Para realizar la compresión de datos para cada uno de los cuadros de vídeo al nivel de bloque, el cuadro de vídeo se divide en bloques . [b] La redundancia temporal .y espacial se determina prediciendo un bloque individual de datos de vídeo previamente codificados. [c] La redundancia determinada se elimina reduciendo los datos predichos de los datos de vídeo. [d] El resto de los datos se comprime por la Transformada de Fourier, cuantificación, y codificación por entropía .
De acuerdo con el estándar de codificación de vídeo existente, un modo de predicción usado para predecir macrobloques es diferente para cada uno de los bloques. La mayoría de los estándares de codificación de vídeo emplean estimación de movimiento y compensación de movimiento para predecir datos de vídeo de un cuadro previamente codificado o decodificado (predicción inter-cuadro) . Alternativamente, los datos de bloque se pueden predecir de un bloque adyacente incluido en el mismo cuadro (predicción intra-cuadro) . El estánda H.264/AVC define algunos diferentes modos de predicción intra-cuadro para un píxel de referencia usado para predicción o para una dirección en la cual un píxel será extrapolado.
La FIG. 1A es un diagrama que muestra un ejemplo de una relación entre un bloque actual al cual se aplica la estimación intra predicción basada en el estándar H.264/AVC convencional y un píxel de referencia. La FIG. IB es un diagrama que muestra direcciones de predicción incluidas en un modo de intra predicción establecido con base en el estándar H.264/AVC convencional.
Como se muestra en la FIG. 1A, un bloque actual 10 que tiene el tamaño de 4 por 4 píxeles se predice extrapolando trece píxeles de referencia 20 ubicados inmediatamente arriba y a la izquierda del bloque actual 10. Por esta predicción, se genera un bloque predicho correspondiente al bloque actual 10. En este tiempo, para ejecutar la extrapolación, se selecciona una de las ocho direcciones de extrapolación posibles (direcciones intra-predicción) como se muestra en la FIG. IB. Para ser más específico, un modo de predicción de dirección se selecciona de entre ocho modos de predicción de dirección que indican las ocho direcciones de extrapolación respectivas . Alternativamente, se puede seleccionar un modo de predicción de corriente directa (DC, por sus siglas en inglés) . En el modo de predicción de DC, se usa un valor promedio de los píxeles de referencia 20 para predecir el bloque actual 10.
Como se describió, el modo de predicción usado para la predicción se selecciona de entre los múltiples modos de predicción para cada macrobloque. Luego, el bloque actual codificado se comprime por codificación por entropía y se transmite conjuntamente con la información relacionada con el modo de predicción seleccionado. De acuerdo con el estándar de codificación de vídeo existente, un valor estimado se predice como la información relacionada con el modo de predicción seleccionado, con base en una regla predeterminada por el estándar. Por ejemplo, como información que indica un modo de intra predicción definido por el H.264/AVC, el valor estimado del modo de intra predicción se determina como un pequeño número que indica el método de predicción entre los modos de intra predicción de los bloques colindantes previamente codificados.
Luego, cuando el valor de predicción estimado y la información con respecto al bloque actual a ser codificado concuerdan entre sí, solamente se transmite una marca que indica esta concordancia. Por otra parte, cuando el valor estimado y la información con respecto al bloque actual no concuerdan entre sí, se transmite la información con respecto al bloque actual. Por ejemplo, cuando el valor estimado del modo de intra predicción concuerda con el modo de predicción que se selecciona actualmente en un momento de codificación, solamente la marca se transmite. Por otra parte, cuando el valor estimado no concuerda con el modo de predicción seleccionado, se transmite la información usada para restaurar el modo de predicción seleccionado.
La FIG. 2 es un diagrama que muestra un ejemplo de una configuración detallada de una unidad de establecimiento 510, entre los componentes de un aparato de codificación de imagen basado en el estándar H.264/AVC convencional. La unidad de establecimiento 510 estima un modo de predicción y establece un valor codificado del modo de predicción. La FIG. 3 es un diagrama que muestra un ejemplo de una configuración detallada de una unidad de restauración 620, entre componentes de un aparato de decodificación de imagen basado en el estándar H.264/AVC convencional. La unidad de restauración 620 restaura el modo de predicción.
Como se muestra en la FIG. 2, la unidad de establecimiento 510 recibe la información de modo de codificación SMD que indica un modo de codificación (el modo de intra predicción o el modo de inter predicción) . Por ejemplo, cuando la codificación de predicción intra-imagen se selecciona como el modo de codificación, la información de modo de codificación SMD representa información IPM que indica el modo de intra predicción. Por otra parte, cuando la codificación de predicción inter- imagen se selecciona como el modo de codificación, la información de modo de codificación SMD representa información de ubicación (vector de movimiento) MV.
Una memoria de almacenamiento de modo de predicción 511 almacena la información de modo de codificación recibida SMD. Una unidad de estimación de modo de predicción 512 obtiene, usando un medio predeterminado, candidatos de valor de modo de predicción estimado de entre las piezas de información de modo de codificación previamente codificadas recibidas de la memoria de almacenamiento de modo de predicción 511.
Lo siguiente describe un ejemplo de un método por el cual las unidades de estimación de modo de predicción 512 y 624 basado en el estándar H.264/AVC estiman un valor de modo de predicción estimado MPM de un bloque de 4 por 4 píxeles, con referencia a la FIG. 1A.
En las etapas de codificación y decodificación, las unidades de estimación de modo de predicción 512 y 624 obtienen, para el bloque actual 10 que · tiene el tamaño de 4 por 4 píxeles, un modo de intra predicción IPM_A de un bloque colindante 30 que previamente se ha codificado (o decodificado) y un modo de intra predicción IPM_B de un bloque colindante 40 que previamente se ha codificado (o decodificado) . Luego, de acuerdo con la Expresión 1 descrita a continuación, uno de IPM_A e IPM_B que tiene un valor menor se establece como el valor de modo de predicción estimado MPM.
MPM = Min (PredModeA, PredModeB) .... Expresión 1 Aquí, cada uno de "PredModoA" y "PredModoB" indica un número de un índice que específica el modo de predicción usado en el bloque colindante. Además, "MinO" es una función que produce el índice que tiene el número menor.
La unidad de estimación de modo de predicción 512 determina el valor de modo de predicción estimado MPM de entre los candidatos de valor de modo de predicción estimado, y produce el valor de modo de predicción estimado determinado MPM.
Una unidad de generación de información de modo 515 compara el modo de codificación IPM del bloque actual que es codificado y el valor de modo de predicción estimado MPM. Cuando estos modos concuerdan entre sí, la unidad de generación de información de modo 515 establece una marca que indica la concordancia con el valor de modo de predicción estimado MPM con una señal relacionada con el modo de codificación de predicción SSMD. Por otra parte, cuando estos modos no concuerdan entre sí, la unidad de generación de información de modo 515 produce, como la señal relacionada con el modo de codificación de predicción SSMD, el índice de la señal de modo diferente del índice correspondiente. El método de establecimiento de la unidad de generación de información de modo 515 se representa por la Expresión 2.
[Mat. 1] si (MPM== IPM) { Prev_Intra_Pred_Mode_Flag = 1 } si no { Prev_Intra_Pred_Mode_Flag = 0 si (IPMcMPM) { Rem Intra Pred Mode = IPM } si no { Rem_Intra_Pred_Mode = IPM-1 } } .... Expresión 2 Como se indica por la Expresión 2, el modo de codificación IPM que es el índice del modo de codificación del bloque actual primero se compara con el valor de modo de predicción estimado MPM calculado por la Expresión 1. Cuando estos modos concuerdan entre sí, una marca Prev_Intra_Pred_Mode_Flag que indica si o no el modo de codificación IPM concuerda con el valor de modo de predicción estimado MPM se establece en "1". Entonces, esta marca se produce como la señal relacionada con el modo de codificación de predicción SSMD. Por otra parte, cuando el modo de codificación IPM que es el índice del modo de codificación del bloque actual no concuerda con el valor de modo de predicción estimado MPM calculado por la Expresión 1, la marca Prev_Intra_Pred_Mode_Flag se establece en "0" . Entonces, los tamaños de índices se comparan. Cuando el índice del modo de codificación del bloque actual es menor que el valor de modo de predicción estimado MPM, la información Rem_Intra_Pred_Mode que indica el modo de codificación del bloque actual se establece en el valor del modo de codificación IPM. Por otra parte, cuando el índice del modo de codificación del bloque actual es mayor que el valor de modo de predicción estimado MPM, la información Rem_Intra_Pred_Mode que indica el modo de codificación del bloque actual se establece en un valor obtenido sustrayendo 1 del valor del modo de codificación IPM. Luego, cada uno de Prev_Intra_Pred_Mode_Flag y Rem_Intra_Pred_Modo se produce como la señal SSMD.
Una unidad de codificación de longitud variable 520 realiza codificación por entropía en la señal relacionada con el modo de codificación de predicción SSMD, y produce la señal resultante como una corriente de bits .
Además, como se muestra en la FIG .3 , una unidad de decodificación de longitud variable 610 decodifica la corriente de bits recibida y luego produce un coeficiente de transformada de frecuencia cuantificada QT e información relacionada con el modo de codificación de predicción SSMD.
La unidad de restauración 620 recibe la señal relacionada con el modo de codificación de predicción SSMD, y produce la información de modo de codificación SMD (que incluye lo siguiente que se usa para la decodificación: un modo de codificación MD; y la información que indica el modo de intra predicción IPM o la información. de ubicación (vector de movimiento) MV, por sus siglas en inglés) . Para ser más específico, una unidad de determinación de señal 621 recibe la señal relacionada con el modo de codificación de predicción SSMD. Luego, cuando la marca que indica la concordancia con el valor de modo de predicción estimado MPM se incluye en la señal relacionada con el modo de codificación de predicción SSMD, la unidad de determinación de señal 621 produce el modo de intra predicción IPM como el valor de modo de predicción estimado MPM. De otra manera, la unidad de determinación de señal 621 establece el modo de intra predicción IPM de la información de índice adicionalmente incluida en la señal relacionada con el modo de codificación de predicción SSMD, y luego produce el modo de intra predicción IPM. El método de establecimiento usado por la unidad de determinación de señal 621 se representa por la Expresión 3.
[Mat. 2] Si (Prev_Intra_Pred_Mode_Flag ==1) { IPM=MPM } si no { si (Rem_Intra_Pred_Mode<MPM) { IPM=Rem_Intra_Pred_Mode } si no { IPM=Rem_Intra_Pred_Mode+l } } .... Expresión 3 Como se representa por la Expresión 3, se supone que la marca Prev_Intra_Pred_Mode_Flag que indica si o no el modo de intra predicción concuerda con el valor de modo de predicción estimado MPM se lee y esta marca se establece en 0. En este caso, la marca Prev_Intra_Pred_Mode_Flag se lee adicionalmente para restaurar el modo de intra predicción IPM.
Una memoria de almacenamiento de modo de predicción 623 almacena: el modo de codificación recibido MD; y la información que indica el modo de intra predicción IPM (tal como un tamaño de bloque de intra predicción y una dirección de intra predicción) o la información de ubicación (vector de movimiento) MV. La unidad de estimación de modo de predicción 624 obtiene, de la memoria de almacenamiento dé modo de predicción, múltiples candidatos de valor de modo de predicción estimado del modo de codificación previamente decodificado MD y una de la información previamente decodificada que indica el modo de intra predicción IPM y la información de ubicación previamente decodificada (vector de movimiento) MV, usando un medio predeterminado como representado por la Expresión 1.
La unidad de estimación de modo de predicción 624 determina el valor de modo de predicción estimado MPM de entre los múltiples candidatos de valor de modo de predicción estimado, y produce el valor de modo de predicción estimado determinado MPM.
Mientras tanto, un método de codificación de vídeo para comprimir datos de vídeo usando detección de borde también se ha propuesto, y la detección de borde se puede incluir en un aparato de codificación y un aparato de decodificación (ver Literatura No de Patente 2) .
Con este método, un bloque predicho correspondiente al bloque actual 10 se genera de la predicción hecha, además de la predicción de intra dirección basada en el estándar H.264/AVC, extrapolando los píxeles de referencia 20 sobre la base de un ángulo obtenido por la detección de borde. Además, en la Literatura No de Patente 2, si o no se usa la detección de borde se indica por el modo de predicción de DC que usa el valor promedio de los píxeles de referencia 20. Para ser más específico, los índices de los modos de intra predicción IPMs que indican la predicción de DC y predicción de borde son los mismos . Cuando el resultado de la detección de borde satisface una cierta condición, el bloque predicho se genera sobre la base del ángulo obtenido por la detección de borde. Cuando el resultado de la detección de borde no satisface la cierta condición, el bloque predicho se genera usando el valor promedio. Aquí, la cierta condición es si o no el tamaño del vector de borde detectado excede un cierto valor.
Lista de Citas Literatura No de Patente NPL 1 ISO/IEC 14496-10 "MPEG-4 Part 10, Advanced Video Coding" NPL 2 2008 IEEE Conferencia Internacional sobre Procesamiento de Imágenes "HIGH PRECISION EDGE PREDICTION FOR INTRA CODING" Breve Descripción de la Invención Problema Técnico La tecnología convencional mencionada antes, sin embargo, tiene el siguiente problema.
De acuerdo con la tecnología convencional mencionada antes, los índices del modo de predicción de dirección y el modo de predicción de DC son fijos. Por esta razón, cuando el modo de predicción de borde y el modo de predición DC serán expresados por un código único como en la Literatura No de Patente 2, la cantidad de datos a ser codificados se incrementa u ocurre distorsión en una imagen codificada. Una explicación más específica se da como sigue.
En el caso de la estimación de modo de intra predicción definida por el H.264/AVC convencional, un modo de predicción que es un candidato es un modo que se ha usado para codificar un bloque colindante del bloque actual. Cada una de las unidades de estimación de modo de predicción 512 y 624 selecciona, como el valor de modo de predicción estimado, un modo asignado con un número menor de entre los números de modo de los candidatos de modo de predicción (los números mostrados en la FIG. IB y el número "2" que indica la predicción basada en el valor promedio (es decir, el modo de predicción de DC) .
A causa de esto, el modo de predicción estimado del bloque actual 10 concuerda con uno de los modos de predicción de los bloques colindantes 30 y 40. Sin embargo, cuando el modo de predicción de borde y el modo de predicción de DC se expresan por un código como en la Literatura No de Patente 2, es imposible indicar si los modos de predicción de los bloques colindantes 30 y 40 se basan en la predicción de DC o la predicción de borde. Por consiguiente, cuando el modo de predicción del bloque actual 10 es el modo de predicción de borde, es menos probable que el modo de predicción concuerde con el modo de predicción estimado. En otras palabras, se incrementa la cantidad de datos codificados que indica el modo de predicción que será transmitido al lado del aparato de decodificación.
La presente invención es concebida en vista del problema establecido, y tiene un objeto de proporcionar un método de codificación de imagen para codificar datos de imagen y datos de vídeo con mayor eficiencia de codificación sin la necesidad de procesar una cantidad considerable de datos y un método de decodificación de imagen para decodificar los datos de imagen codificados y los datos de vídeo codificados.
Solución al Problema El método de decodificación de imagen en un aspecto de acuerdo con la presente invención es un método de decodificación de imagen para decodificar datos de imagen codificados generados por la codificación de datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción. Para ser más específico, el método de decodificación de imagen incluye: restaurar un modo de predicción seleccionado usado en la predicción en un momento de codificación, con base en la información de modo que indica un resultado de estimación del modo de predicción ejecutado en el momento de codificación; y decodificar un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado, en donde la restauración incluye: determinar uno de los modos de predicción como un primer modo de predicción estimado; determinar, como un segundo modo de predicción estimado, y otro de los modos de predicción que es diferente del primer modo de predicción estimado; y restaurar el modo de predicción seleccionado . basado en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado.
Con esto, cuando el modo de predicción seleccionado será restaurado, la información de modo se puede transmitir con una pequeña cantidad de datos codificados. Por lo tanto, la eficiencia de codificación se puede incrementar, y la distorsión de codificación se puede suprimir.
Además, la información de modo puede incluir al menos información de marca que indica un resultado de comparación entre el modo de predicción seleccionado y cada uno del primer modo de predicción estimado y el segundo modo de predicción estimado. En la restauración incluida en la restauración de un modo de predicción seleccionado, (i) el primer modo de predicción estimado se puede determinar como el modo de predicción seleccionado cuando la información de marca indica que el modo de predicción seleccionado concuerda con el primer modo de predicción estimado, (ii) el segundo modo de predicción estimado se puede determinar como el modo de predicción seleccionado cuando la información de marca indica que el modo de predicción seleccionado concuerda con el segundo modo de predicción estimado, y (iii) el modo de predicción seleccionado se puede restaurar con base en la información que adicionalmente se incluye en la información de modo y especifica el modo de predicción seleccionado, cuando la información de marca indica que el modo de predicción seleccionado no concuerda con cada uno del primer modo de predicción estimado y el segundo modo de predicción estimado.
Además, la información de modo indica: la información de marca indica que el modo de predicción usado para la predicción en el momento de la codificación concuerda con el 1 modo de predicción estimado en el momento de la codificación; o la información de marca y el modo de predicción usado para la predicción en el momento de la codificación. En la restauración, la primera información de marca correspondiente al primer modo de predicción estimado primero se decodifica. Cuando la primera información de marca indica que el modo de predicción usado para la predicción en el momento de la codificación concuerda con el modo de predicción estimado en el momento de la codificación, el primer modo de predicción estimado se determina como el modo de predicción seleccionado. Cuando la primera información de marca indica que el modo de predicción usado para la predicción en el momento de codificación no concuerda con el modo de predicción estimado en el momento de la codificación, la segunda información de marca correspondiente al segundo modo de predicción estimado se decodifica. Cuando la segunda información de marca indica qúe el modo, de predicción usado para la predicción en el momento de la codificación concuerda con el modo de predicción estimado en el momento de la codificación, el segundo modo de predicción estimado se determina como el modo de predicción seleccionado. Cuando la segunda información de marca indica que el modo de predicción usado para la predicción en el momento de la codificación no concuerda con el modo de predicción estimado en el momento de la codificación, la información de codificación de modo seleccionado se decodifica. Luego, con base en una comparación de tamaño hecha entre la información de codificación de modo seleccionado y el modo de predicción estimado, el modo de predicción seleccionado se puede restaurar.
Además, uno del primer modo de predicción estimado y el segundo modo de predicción estimado puede indicar predicción de DC/borde .
Además, en la determinación de un primer modo de predicción estimado, un modo de predicción asignado con un número de índice que es uno más pequeño de los números de índice asignados a los modos de predicción de bloques previamente decodificados adyacentes al bloque actual se puede determinar como el primer modo de predicción.
Además, en la determinación de un segundo modo de predicción estimado, (i) el segundo modo de predicción estimado se puede determinar como un modo de predicción de DC cuando el primer modo de predicción estimado indica un modo plano, y (ii) el segundo modo de predicción estimado se puede determinar como el modo plano cuando el primer modo de predicción estimado no indica el modo plano.
Además, la restauración puede incluir: detectar un borde en el bloque decodificado previamente generado; y determinar, con base en el borde detectado en la detección, si el modo de predicción de borde de DC indica la predicción de DC o predicción de borde .
Además, uno del primer modo de predicción estimado y el segundo modo de predicción estimado se puede estimar de acuerdo con una dirección de borde detectada, en la detección.
El método de decodificación de imagen en un aspecto de acuerdo con la presente invención es un método de codificación de datos de imagen para cada bloque. Para ser más específico, el método de decodificación de imagen incluye: codificar un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado seleccionado de entre candidatos de modo de predicción predeterminado; decodificar el bloque actual codificado para generar un bloque decodificado; determinar uno de los modos de predicción como un primer modo de predicción estimado; determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y producir el bloque actual codificado e información de modo que se usa para restaurar el modo de predicción seleccionado. Además, la producción incluye generar la información de modo con base en el primer modo de predicción estimado, el segundo modo de predicción estimado, y el modo de predicción seleccionado.
Además, en la generación de la información de modo, cuando el modo de predicción seleccionado concuerda con uno del primer modo de predicción estimado y el segundo modo de predicción estimado, la información de marca que indica si el modo de predicción seleccionado concuerda con el primer modo de predicción estimado o el segundo modo de predicción estimado se puede generar como la información de modo, y cuando el modo de predicción seleccionado no concuerda con cada uno del primer modo de . predicción estimado y el segundo modo de predicción estimado, la información de modo se . puede generar para incluir (i) información de marca que indica que el modo de predicción seleccionado no concuerda con cada uno del primer modo de predicción estimado y el segundo modo de predicción estimado y (ii) información que especifica el modo de predicción seleccionado.
Además, en la generación de la información de modo, el primer modo de predicción estimado y el modo de predicción seleccionado primero se comparan. Luego, la primera información de marca que indica si o no estos modos concuerdan entre sí se genera como la información de modo. Cuando el primer modo de predicción estimado y el modo de predicción seleccionado no concuerdan entre sí, el segundo modo de predicción estimado y el modo de predicción seleccionado luego se comparan. Luego, la segunda información de marca que indica si o no estos modos concuerdan entre sí se genera como la información de modo. Cuando el segundo modo de predicción estimado y el modo de predicción seleccionado no concuerdan entre sí, la información de modo de predicción seleccionado se puede generar como la información de modo, con base en el modo de predicción seleccionado y el modo de predicción estimado.
Además, uno del primer modo de predicción estimado y el segundo modo de predicción estimado puede indicar predicción de DC/borde .
Además , en la determinación de un primer modo de predicción estimado, un modo de predicción asignado con un número de índice que es uno más pequeño de números de índices asignados a modos de predicción de bloques previamente codificados adyacentes al bloque actual se puede determinar como el primer modo de predicción.
Además, en la determinación de un segundo modo de predicción estimado, (i) el segundo modo de predicción estimado se puede determinar como un modo de predicción de DC cuando el primer modo de predicción estimado indica un modo plano, y (ii) el segundo modo de predicción estimado se puede determinar como el modo plano cuando el primer modo de predicción estimado no indica el modo plano.
Además, la generación de la información de modo puede incluir: detectar un borde en el bloque decodificado previamente generado; y determinar, con base en el borde detectado en la detección, si el modo de predicción de DC-borde indica predicción de DC o predicción de borde.
Además, uno del primer modo de predicción estimado y el segundo modo de predicción estimado se puede estimar de acuerdo con una dirección de borde detectada en la detección.
El aparato de decodificación de imagen en un aspecto de acuerdo con la presente invención decodifica los datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción. Para ser más específico, el aparato de decodificación de imagen incluye: una unidad de restauración la cual restaura un modo de predicción seleccionado usado en la predicción en un momento de codificación, con base en la información de modo que indica un resultado de estimación del modó de predicción ejecutado en el momento de codificación; y una unidad de decodificación la cual decodifica un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado. Además, la unidad de restauración incluye: una primera unidad de estimación de modo de predicción la cual determina uno de los modos de predicción como un primer modo de predicción estimado una segunda unidad de estimación de modo de predicción la cual determina, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y una unidad de restauración de modo de predicción la cual restaura el modo de predicción seleccionado con base en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado.
El aparato de codificación de imagen en un aspecto de acuerdo con la presente invención codifica datos de imagen para cada bloque. Para ser más especifico, el aparato de codificación de imagen incluye: una unidad de codificación la cual codifica un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado, seleccionado de entre los candidatos de modo de predicción predeterminado; una unidad de decodificación la cual, decodifica el bloque actual codificado para generar un bloque decodificado; una primera unidad de estimación de modo de predicción la cual determina uno de los modos de predicción como un primer modo de predicción estimado; una segunda unidad de estimación de modo de predicción la cual determina, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y una unidad de salida la cual produce el bloque de corriente codificado e información de modo para ser usada para restaurar el modo de predicción seleccionado. Además, la unidad de salida incluye - una unidad de generación de información de modo la cual genera la información de modo con base en el primer modo de predicción estimado, el segundo modo de predicción estimado, y el modo de predicción seleccionado.
El programa en . un aspecto de acuerdo con la presente invención causa que una computadora decodifique los datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción. Para ser más específico, el programa causa que la computadora ejecute: la restauración de un modo de predicción seleccionado usado en la predicción en el momento de codificación, con base en la información de modo que indica un resultado de estimación del modo de predicción ejecutado en el momento de codificación; y la decodificación de un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado. Además, la restauración incluye: determinar uno de los modos de predicción como un primer modo de predicción estimado; determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y restaurar el modo de predicción seleccionado con base en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado.
El programa en otro aspecto de acuerdo con la presente invención causa que una computadora codifique datos de imagen para cada bloque. Para ser más específico, el programa causa que la computadora ejecute: la codificación de un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado, seleccionado de entre los candidatos de modo de predicción predeterminado; la decodificación del bloque actual codificado para generar un bloque decodificado; la determinación de uno de los modos de predicción como un primer modo de predicción estimado; la determinación, como un segundo modo de predicción estimado, de otro de los modos de predicción que es diferente del primer modo de predicción estimado; y la producción del bloque actual codificado e información de modo que se usa para restaurar el modo de predicción seleccionado. Además, la producción incluye generar la información de modo basada en el primer modo de predicción estimado, el segundo modo de predicción de estimado, y el modo de predicción seleccionado.
El circuito integrado en un aspecto de acuerdo con la presente invención decodifica datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción. Para ser más específico, el circuito integrado incluye: una unidad de restauración la cual restaura un modo de predicción seleccionado usado en la predicción en un momento de codificación, con base en la información de modo que indica un resultado de la estimación del modo de predicción ejecutado en el momento de codificación; y una unidad de decodificación la cual decodifica un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado. Además, la unidad de restauración incluye: una primera unidad de estimación de modo de predicción la cual determina uno de los modos de predicción como un primer modo de predicción estimado; una segunda unidad de estimación de modo de predicción la cual determina, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y una unidad de restauración de modo de predicción la cual restaura el modo de predicción seleccionado con base en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado.
El circuito integrado en otro aspecto de acuerdo con la presente invención codifica datos de imagen para cada bloque. Para ser más específico, el circuito integrado incluye: una unidad de codificación la cual codifica un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado, seleccionado de entre candidatos de modo de predicción predeterminado; una unidad de decodificación la cual decodifica el bloque actual codificado para generar un bloque decodificado; una primera unidad de estimación de modo de predicción la cual determina uno de los modos de predicción como un primer modo de predicción estimado; una segunda unidad de estimación de modo de predicción la cual determina, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y una unidad de salida la cual produce el bloque actual codificado e información de modo para ser usada para restaurar el modo de predicción seleccionado. Además, la unidad de salida incluye una unidad de generación de información de modo la cual genera la información de modo con base en el primer modo de predicción estimado, el segundo modo de predicción estimado, y el modo de predicción seleccionado.
Se debe señalar que la presente invención se puede implementar no solamente como un método de codificación de imagen y un método de decodificación de imagen, sino también como: un aparato de codificación de imagen y un aparato de decodificación de imagen que tiene, como unidades de procesamiento, etapas incluidas en el método de codificación de imagen y el método de decodificación de imagen. Además, la presente invención se puede implementar como un programa de computadora que causa que una computadora ejecute estas etapas. Además, la presente invención se puede implementar como: un medio de grabación leíble por computadora, tal como un Disco Compacto de Memoria de Solo Lectura (CD-ROM, por sus siglas en inglés) , que tiene el programa de. computadora grabado en este; e información, datos, o una señal que indica el programa de computadora. Debe ser obvio que el programa de computadora, la información, los datos, y la señal se pueden distribuir vía una red de comunicación tal como la Internet.
Algunos o todos los componentes del aparato de codificación de imagen y el aparato de decodificación de imagen se pueden configurar con una integración de escala grande de sistema único (sistema LSI por sus siglas en inglés) . El sistema LSI es un LSI super multifuncional manufacturado integrando una pluralidad de componentes en un chip único. Más específicamente, el sistema LSI es un sistema de computadora que incluye un microprocesador, una memoria de solo lectura (ROM por sus siglas en inglés) , y una memoria de acceso aleatorio (RAM por sus siglas en inglés) .
Efectos Ventajosos de la Invención De acuerdo con la presente invención, un valor de modo de predicción estimado se puede predecir más exactamente. Por lo tanto, la cantidad de datos que se codifica como el modo de predicción se puede reducir, y la eficiencia de codificación se puede incrementar por consiguiente .
Breve Descripción de las Figuras La FIG. 1A es un diagrama que muestra un ejemplo de una relación entre un bloque actual al cual se aplica la estimación de intra predicción basada en el estándar H.264/AVC convencional y un píxel de referencia.
La FIG. IB es un diagrama que muestra las direcciones de predicción incluidas en un modo de intra predicción establecido con base en el estándar H.264/AVC convencional .
La FIG. 2 es un diagrama que muestra un ejemplo de una configuración detallada de una unidad de establecimiento, entre componentes de un aparato de codificación de imagen basado en el estándar H.264/AVC convencional.
La FIG. 3 es un diagrama que muestra un ejemplo de una configuración detallada de una unidad de restauración, entre componentes de un aparato de decodificación de imagen basado en el estándar H.264/AVC convencional.
La FIG. 4 es un diagrama de bloque que muestra un ejemplo de una configuración de un aparato de codificación de imagen en la Modalidad 1.
La FIG. 5 es un diagrama de bloque que muestra un ejemplo de una configuración detallada de un aparato de codificación de imagen que realiza codificación híbrida en la Modalidad 1.
La FIG. 6A es un diagrama de bloque que muestra un ejemplo de una configuración detallada de una unidad de establecimiento incluida en el aparato de codificación de imagen en la Modalidad 1.
La FIG. 6B es un diagrama de bloque que muestra otro ejemplo de la configuración detallada de la unidad de establecimiento incluida en el aparato de codificación de imagen en la Modalidad 1.
La FIG. 7A es un diagrama de flu o que muestra un ejemplo de una operación realizada por la unidad de establecimiento incluida en el aparato de codificación de imagen en la Modalidad 1.
La FIG. 7B es un diagrama de flujo que muestra otro ejemplo de la operación realizada por la unidad de establecimiento incluida en el aparato de codificación de imagen en la Modalidad 1.
La FIG. 8 es un diagrama de flujo que muestra otro ejemplo de la operación realizada por la unidad de establecimiento incluida en el aparato de codificación de imagen en la Modalidad 1.
La FIG. 9 es un diagrama de bloque que muestra un ejemplo de una configuración de un aparato de decodificación de imagen en la Modalidad 2.
La FIG. 10 es un diagrama de bloque que muestra un ejemplo de una configuración detallada del aparato de decodificación de imagen en la Modalidad 2.
La FIG. 11A es un diagrama de bloque que muestra un ejemplo de una configuración detallada de una unidad de restauración incluida en el aparato de decodificación de imagen en la Modalidad 2.
La FIG. 11B es un diagrama de bloque que muestra otro ejemplo de la configuración detallada de la unidad de restauración incluida en el aparato de decodificación de imagen en la Modalidad 2.
La FIG. 12A es un diagrama de flujo que muestra un ejemplo de una operación realizada por la unidad de restauración incluida en el aparato de decodificación de imagen en la Modalidad 2.
La FIG. 12B es un diagrama de flujo que muestra otro ejemplo de la operación realizada por la unidad de restauración incluida en el aparato de decodificación de imagen en la Modalidad 2.
La FIG. 13 es un diagrama de flujo que muestra otro ejemplo de la operación realizada por la unidad de restauración incluida en el aparato de decodificación de imagen en la Modalidad 2.
La FIG. 14 es un diagrama de bloque que muestra un ejemplo de una configuración detallada de una unidad de establecimiento incluida en un aparato de codificación de imagen en la Modalidad 3.
La FIG. 15 es un diagrama de bloque que muestra un ejemplo de una configuración detallada de una unidad de restauración incluida en un aparato de decodificación de imagen en la Modalidad 3.
La FIG. 16 es un diagrama de flujo que muestra un ejemplo de una operación realizada por la unidad de establecimiento incluida en el aparato de codificación de imagen en la Modalidad 3.
La FIG. 17 es un diagrama de flujo que muestra un ejemplo de una operación realizada por la unidad de restauración incluida en el aparato de decodificación de imagen en la Modalidad 3.
La FIG. 18 es un diagrama esquemático que muestra un ejemplo en el cual la detección de borde será realizada en la Modalidad 3.
La FIG. 19 muestra una configuración total de un sistema proveedor de contenido para implementar servicios de distribución de contenido.
La FIG. 20 muestra una configuración total de un sistema de radiodifusión digital.
La FIG. 21 muestra un diagrama de bloque que ilustra un ejemplo de una configuración de una televisión.
La FIG. 22 muestra un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información desde y en un medio de grabación que es un disco óptico .
La FIG. 23 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico.
La FIG. 24 ilustra una estructura de datos multiplexados .
La FIG. 25 muestra esquemáticamente cómo cada corriente es multiplexada en datos multiplexados.
La FIG. 26 muestra cómo una corriente de video se almacena en una corriente de paquetes PES con más detalle.
La FIG. 27 muestra una estructura de paquetes TS y paquetes fuente en los datos multiplexados.
La FIG. 28 muestra una estructura de datos de un PMT ; La FIG. 29 muestra una estructura interna de información de datos multiplexados.
La FIG. 30 muestra una estructura interna de información de atributo de corriente.
La FIG. 31 muestra etapas para identificar datos de vídeo.
La FIG. 32 muestra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de imagen móvil y el método de decodificación de imagen móvil de acuerdo con cada una· de las modalidades.
La FIG. 33 muestra una configuración para conmutar entre las frecuencias de impulso.
La FIG. 34 muestra las etapas para identificar datos de vídeo y conmutar entre frecuencias de impulso.
La FIG. 35 muestra un ejemplo de una tabla de consulta en la cual los estándares de datos de vídeo se asocian con frecuencias de impulso.
La FIG. 36A es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal, y la FIG. 36B es un diagrama que muestra otro ejemplo de una configuración para compartir un módulo de la unidad de procesamiento de señal .
Descripción Detallada de la Invención Modalidad 1 Cuando se codifican datos de imagen o datos de vídeo, un aparato de codificación de imagen en la Modalidad 1 tiene: un modo de predicción de borde donde un borde incluido en un bloque colindante ubicado cerca de un bloque actual se detecta y la intra predicción se realiza con base en el borde detectado; y un modo de predicción de DC donde la intra predicción se realiza con base en un valor promedio de píxeles ubicados cerca del bloque actual. Cuando estos modos se expresan por una misma señal (es decir, un modo de predicción de DC/borde) , el aparato de codificación de imagen determina una pluralidad de modos de predicción estimados y codifica una señal de modo.
Para ser más específico, en la Modalidad 1, determinando los modos de predicción estimados y codificando el modo de predicción de DC/borde en un código corto, se puede suprimir la cantidad de datos codificados como el modo de predicción de DC/borde.
En primer lugar, se describe una configuración del aparato de codificación de imagen en la Modalidad 1.
La FIG. 4 es un diagrama de bloque que muestra un ejemplo de una configuración de un aparato de codificación de imagen 100 en la Modalidad 1.
El aparato de codificación de imagen 100 codifica datos de imagen de entrada o datos de vídeo de entrada, para cada bloque. Como se muestra en la FIG. 4, el aparato de codificación de imagen 100 incluye una unidad de codificación 110, una unidad de decodificación 120, una unidad de salida 130, y una unidad de establecimiento 140.
La unidad de codificación 110 codifica un bloque actual de acuerdo con la predicción basada en un modo de predicción seleccionado de entre una pluralidad de candidatos de modo de predicción. Aquí, el bloque actual es uno de los bloques incluidos en los datos de imagen o los datos de vídeo .
Los candidatos de modo de predicción se refieren a todos los modos de predicción posibles cada uno de los cuales se puede seleccionar cuando se hace la predicción. Por ejemplo, los candidatos de modo de predicción incluyen los ocho modos de predicción de dirección predefinidos (ver FIG. IB) , el modo de predicción de DC usa el valor promedio de los píxeles de referencia, y el modo de predicción de borde indica una dirección de un borde detectado en un bloque colindante. El modo de predicción se refiere a la información que indica un destino de referencia para referenciar una imagen predicha.
Se debe señalar que los candidatos de modo de predicción no se limitan a los ejemplos anteriores. Por ejemplo, los candidatos de modos de predicción pueden incluir 33 modos de predicción de dirección a lo máximo, el modo de predicción de DC, y un modo plano. Nótese que el número de modos de predicción de dirección puede ser variable de acuerdo con el tamaño del bloque actual. Por ejemplo, el número de modos de predicción de dirección puede ser: 18 cuando el tamaño del bloque actual es 4 por 4 píxeles; 33 cuando el tamaño del bloque actual es 8 por 8 píxeles a 32 por 32 píxeles; y 2 cuando el tamaño del bloque actual es 64 por 64 píxeles.
El modo plano se refiere a un modo para predecir cada píxel del bloque actual multiplicando cada valor de píxeles colindantes por una ponderación correspondiente de acuerdo con una distancia a un píxel que se predice y luego agregando los valores resultantes de los píxeles colindantes. Por ejemplo, cuando un valor de un píxel ubicado en la parte superior derecha del bloque 10 se predice usando un píxel ubicado en la parte superior derecha del bloque 30 y un píxel ubicado en la parte inferior derecha del bloque 40, una ponderación por la cual se multiplica un valor del píxel ubicado en la parte inferior derecha del bloque 40 se establece mayor que una ponderación por la cual se multiplica un valor del píxel ubicado en la parte superior derecha del bloque 30.
La unidad de decodificación 120 decodifica el bloque actual codificado por la unidad de codificación 110 y, como un resultado, genera un bloque decodificado .
La unidad de salida 130 produce, como una corriente de bits, información de modo conjuntamente con el bloque actual codificado por la unidad de codificación 110. La información de modo se usa para restaurar el modo de predicción seleccionado por la unidad de . codificación 110.
La unidad de establecimiento 140 determina la pluralidad de modos de predicción estimados y genera, con base en los modos de predicción estimados determinados, la información de modo con respecto al modo de predicción seleccionado usado para codificar el bloque actual. El presente ejemplo describe el caso donde la información de modo se genera con base en dos modos de predicción estimados.
Como se muestra en la FIG. 4, la unidad de establecimiento 140 incluye una primera unidad de estimación de modo de predicción 141, una segunda unidad de estimación de modo de predicción 142, y una unidad de generación de información de modo 143.
La primera unidad de estimación de modo de predicción 141 determina un modo de predicción estimado de los modos de predicción de los bloques colindantes que se han codificado previamente. Por ejemplo, el método representado por la Expresión 1 se puede usar.
La segunda unidad de estimación de modo de predicción 142 determina un modo de predicción estimado diferente del modo de predicción estimado determinado por la primera unidad de estimación de modo de predicción 141.
La unidad de generación de información de modo 143 genera la información de modo con base en los modos de predicción estimados establecidos por la primera unidad de estimación de modo de predicción 141 y la segunda unidad de estimación de modo de predicción 142 y el modo de predicción seleccionado, seleccionado por la unidad de codificación 110. Con esta configuración, el aparato de codificación de imagen 100 en la Modalidad 1 determina el modo de predicción estimado y actualiza, en un momento de codificación, el modo de predicción de DC/borde usando un código corto de acuerdo con el modo de predicción estimado.
Lo siguiente describe las configuraciones detalladas y operaciones de unidades de procesamiento incluidas en el aparato de codificación de imagen 100 en la Modalidad 1.
La FIG. 5 es un diagrama de bloque que muestra un ejemplo de una configuración detallada del aparato de codificación de imagen 100 en la Modalidad 1. El aparato de codificación de imagen 100 realiza la codificación híbrida.
Como se muestra en la FIG. 5, el aparato de codificación de imagen 100 incluye la unidad de codificación 110, la unidad de decodificación 120, la unidad de salida 130, la unidad de establecimiento 140, una memoria de cuadro 150, una memoria de imagen de referencia 160, y una unidad de control 170. Se debe señalar que los componentes idénticos a aquellos mostrados en la FIG. 4 son asignados con los mismos signos de referencia como se usan en la FIG. 4.
Además, como se muestra en la FIG. 5, la unidad de codificación 110 incluye una unidad de sustracción 111, una unidad de transformada de frecuencia 112, una unidad de cuantificación 113, una unidad de determinación de modo de intra predicción 114, una unidad de estimación de movimiento 115, una unidad de intra predicción 116, una unidad de compensación de movimiento 117, y conmutadores 118 y 119. La unidad de decodificación 120 incluye una unidad de cuantificación inversa 121, una unidad de transformada de frecuencia inversa 122, y una unidad de adición 123. La unidad de salida 113 incluye una unidad de codificación de longitud variable 131.
Una configuración detallada de la unidad de establecimiento 140 se describe más tarde con referencia a la FIG. 6A y FIG. 6B.
Lo siguiente describe los procesos realizados por las unidades de procesamiento, en línea con una operación realizada por el aparato de codificación de imagen 100 para codificar datos de vídeo de entrada que incluyen una pluralidad de cuadros.
Cada una de las imágenes incluidas en los datos de vídeo de entrada se almacena en la memoria de cuadro 150. Cada una de las imágenes se divide en una pluralidad de bloques y se produce por bloque (por ejemplo, por macrobloque que tiene 16 bloques horizontalmente y 16 píxeles verticalmente) de la memoria de cuadro 150. Se debe señalar que los datos de vídeo de entrada pueden ser ya sea progresivos o entrelazados.
Cada uno de los macrobloques se codifica de acuerdo con el modo de intra predicción o el modo de inter predicción. En primer lugar, se describe el caso donde un macrobloque actual se codifica de acuerdo con el modo de intra predicción.
En el modo de intra predicción (es decir, predicción intra cuadro) , el macrobloque producido de la memoria de cuadro 150 se introduce en la unidad de determinación de modo de intra predicción 114 (en este momento, el conmutador 118 se conecta a una terminal "a" por la unidad de control 170) .' La unidad de determinación de modo de intra predicción 114 determina cómo realiza la intra predicción en el macrobloque de entrada.
Para ser más específico, la unidad de determinación de modo de intra predicción 114 necesita determinar, como el modo de intra predicción (IPM, por sus siglas en inglés) , un tamaño de bloque de intra predicción (uno de los siguientes: 4 píxeles horizontalmente por 4 píxeles verticalmente ; 8 píxeles horizontalmente por 8 píxeles verticalmente; y 16 píxeles horizontalmente por 16 píxeles verticalmente) y una dirección de intra predicción. Por ejemplo, la unidad de determinación de modo de intra predicción 114 determina el tamaño de bloque de intra predicción y la dirección de intra predicción que permiten que la cantidad de datos codificados generados codificando el bloque actual sea menor que un umbral predeterminado. Más preferiblemente, la unidad de determinación de modo de intra predicción 114 determina el tamaño de bloque de intra predicción y la dirección de intra predicción que permiten que la cantidad de datos codificados generados esté al mínimo.
Por ejemplo, el bloque actual 10 (4 píxeles horizontalmente por 4 píxeles verticalmente) mostrado en la FIG. 1A se puede predecir usando los píxeles de referencia 20 de acuerdo con una de las ocho direcciones de intra predicción predefinidas. Aquí, los píxeles de referencia 20 (rectángulos diagonalmente sombreados en la FIG. 1A) usados en la intra predicción previamente se han codificado y decodificado, y se almacenan en la memoria de imagen de referencia 160. La información que indica el modo de intra predicción determinado IPM se envía a la unidad de intra predicción 116 y la unidad de establecimiento 140.
La unidad de intra predicción 116 obtiene un píxel de referencia (un píxel de intra referencia) que se usa en la intra predicción de la memoria de imagen de referencia 160, con base en el modo de intra predicción IPM determinado por la unidad de determinación de modo de intra predicción 114. Luego, la unidad de intra predicción 116 genera una imagen IP como un resultado de la intra predicción realizada usando el valor del píxel de referencia, y envía la imagen de intra predicción generada IP a la unidad de sustracción 111 (en este momento, el conmutador 119 se conecta a una terminal "a" por la unidad de control 170) .
La unidad de sustracción 111 recibe: el macrobloque (el macrobloque actual) de la imagen incluida en los datos de vídeo de entrada de la memoria de cuadro 150; y la imagen de intra predicción IP generada por la unidad de intra predicción 116. Luego, la unidad de sustracción 111 genera una imagen de referencia calculando una diferencia (también puede ser referida como un residuo de predicción) entre el macrobloque actual y la imagen de intra predicción IP, y envía la imagen de diferencia generada a la unidad de transformada de frecuencia 112.
La unidad de transformada de frecuencia 112 genera un coeficiente de transformada de frecuencia realizando la transformada de frecuencia, tal como transformada de coseno discreta, en la imagen de diferencia generada por la unidad de sustracción 111. Luego, la unidad de transformada de frecuencia 112 produce el coeficiente de transformada de frecuencia generado.
La unidad de cuantificación 113 cuantifica el coeficiente de transformada de frecuencia generado por la unidad de transformada de frecuencia 112, y produce un coeficiente de transformada de frecuencia cuantificado' QT, Aquí, la cuantificación es un proceso de dividir el coeficiente de transformada de frecuencia por un valor predeterminado (una etapa de cuantificación) . Nótese que esta etapa de cuantificación se da por la unidad de control 170 (la etapa de cuantificación se puede incluir en una señal de control CTL recibida por la unidad de control 170) . El coeficiente de transformada de frecuencia cuantificado QT se envía a la unidad de codificación de longitud variable 131 y la unidad de cuantificación inversa 121.
La unidad de cuantificación inversa 121 realiza la cuantificación inversa en el coeficiente de transformada de frecuencia cuantificado QT, y envía el coeficiente de transformada de frecuencia inversamente cuantificado a la unidad de transformada de frecuencia inversa 122. En este momento, una etapa de cuantificación que es la misma como la etapa de cuantificación usada en la cuantificación por la unidad de cuantificación 113 se ingresa a la unidad de cuantificación inversa 121 por la unidad de control 170.
La unidad de transformada de frecuencia inversa 122 realiza la transformada de frecuencia inversa en el coeficiente de transformada de frecuencia inversamente cuantificado para generar una imagen de diferencia decodificada LDD. La unidad de transformada de frecuencia inversa 122 envía la imagen de diferencia decodificada generada LDD a la unidad de adición 123.
La unidad de adición 123 genera una imagen decodificada LD agregando la imagen de diferencia decodificada LDD a la imagen de intra predicción IP (o una imagen de ínter predicción MP, descrita más tarde, en el caso del modo de ínter predicción) . La unidad de adición 123 almacena la imagen decodificada generada LD en la memoria de imagen de referencia 160. Aquí, la imagen decodificada LD almacenada en la memoria de imagen de referencia 160 se usa como una imagen de referencia en un proceso de codificación más tarde .
La unidad de codificación de longitud variable 131 realiza codificación de longitud variable en el coeficiente de transformada de frecuencia cuantificado QT recibido de la unidad de cuantificación 113. Además, la unidad de codificación de longitud variable 131 de manera similar procesa la información que indica el modo de intra predicción IPM recibido de la unidad de determinación de modo de intra predicción 114 vía la unidad de establecimiento 140, y produce la corriente de bits que también es referencia como una secuencia codificada. Como se mencionó anteriormente, la configuración detallada de la unidad de establecimiento 140 se describe más tarde con referencia a la FIG. 6A y FIG. 6B.
Los métodos de codificación de longitud variable que se usan por la unidad de codificación de longitud variable 131 incluyen un método de codificación aritmética de contexto adaptativo adoptado por el estándar H.264 internacional para codificar vídeo. El método de codificación aritmética de contexto adaptativo conmuta entre tablas de probabilidad usadas en la codificación aritmética, de acuerdo con los datos actuales que son codificados de longitud variable y los datos los cuales previamente se han codificado de longitud variable (contexto adaptativo) . En este caso, la unidad de codificación de longitud variable 131 incluye una memoria para contener las tablas de probabilidad.
Se debe señalar que la unidad de codificación de longitud variable 131 puede realizar la codificación de longitud variable en el coeficiente de transformada de frecuencia cuantificado QT usando el método de codificación de longitud variable de contexto adaptativo.
Luego, se describe el caso donde el macrobloque actual se codifica en el modo de ínter predicción.
En el modo de Ínter predicción (es decir, predicción de inter cuadro) , el macrobloque producido de la memoria de cuadro 150 se ingresa en la unidad de estimación de movimiento 115 (en este momento, el conmutador 118 se conecta a una terminal "b" por la unidad de control 170) . La unidad de estimación de movimiento 115 estima la información de movimiento (información de ubicación (vector de movimiento) ) con respecto a una imagen de referencia (una imagen reconstruida que se mantiene en la memoria de imagen de referencia 160 y es diferente de la imagen a ser codificada) del macrobloque de entrada.
En la estimación de movimiento, la siguiente información de ubicación (vector de movimiento) típicamente se estima como la información de movimiento: la información de ubicación (vector de movimiento) que incluye un valor de diferencia mínimo entre un bloque actual que se codifica y una imagen predicha y una suma mínima de ponderaciones de las cantidades de datos codificados como la información de ubicación (vectores de movimiento) . La información de ubicación estimada (vector de movimiento) se envía como la información de movimiento con respecto al bloque actual, a la unidad de compensación de movimiento 117 y la unidad de establecimiento 140.
Con base en la información de movimiento (la información de ubicación (vector de movimiento) ) estimada por la unidad de estimación de movimiento 115, la unidad de compensación de movimiento 117 obtiene, de la memori de imagen de referencia 160, un píxel de referencia (un píxel de ínter referencia) usado en la inter predicción. Luego, la unidad de compensación de movimiento 117 genera una imagen de inter predicción MP y envía la imagen de inter predicción generada MP a la. unidad de sustracción 111 (en este momento, el conmutador 119 se conecta a una terminal "b" por la unidad de control 170) .
Los procesos realizados por la unidad de sustracción 11, la unidad de transformada de frecuencia 112, la unidad de cuantificación 113, la unidad de cuantificación inversa 121-, la unidad de transformada de frecuencia inversa 122, y la unidad de adición 123 son los mismos como aquellos procesos explicados anteriormente en el cado de la intra predicción. Por lo tanto, las explicaciones acerca de estos procesos se omiten aquí.
La unidad de codificación de longitud variable 131 realiza la codificación de longitud variable en el coeficiente de transformada de frecuencia cuantificado QT recibido de la unidad de cuantificación 113. Además, la unidad de codificación de longitud variable 131 también realiza la codificación de longitud variable en la información de modo que se produce de la unidad de establecimiento 140 e incluye: información que indica un modo de codificación MD; e información que indica el modo de intra predicción IPM o la información de movimiento (información de ubicación (vector de movimiento) ) MV. Luego, la unidad de codificación de longitud variable 131 produce la corriente de bits. Como se mencionó anteriormente, la configuración detallada de la unidad de establecimiento 140 se describe más tarde con referencia a la FIG. 6A y FIG. 6B .
Aquí, cuando la codificación de la información de movimiento (información de ubicación vector de movimiento) ) MV de acuerdo con el método de codificación aritmética de contexto adaptativo, la unidad de codificación de longitud variable 131 incluye una memoria para contener las tablas de probabilidad.
La información de modo incluye un conjunto completo de información requerida por un aparato de decodificación para el lado de decodificación (tal como un aparato de decodificación de imagen 300 (ver FIG. 9) descrito más tarde) para reproducir la predicción hecha por el ' lado de codificación (tal como el aparato de codificación de imagen 100) cuando se codifican los datos de vídeo. Por lo tanto, la información de modo define el modo de codificación para cada macrobloque, es decir, define para cada macrobloque si se ha aplicado intra predicción o inter predicción. Además, la información de modo incluye información con respecto a cómo se subdivide el macrobloque.
De acuerdo con el estándar H.264/AVC, el macrobloque que tiene el tamaño de 16 por 16 pixeles se puede subdividir en sub-bloques cada uno teniendo el tamaño de 8 por 8 pixeles o 4 por 4 pixeles en el caso de intra predicción.
Teniendo una dependencia del modo de codificación, la información de modo adicionalmente incluye un conjunto de información de ubicación (información de ubicación (vector de movimiento) ) usado en la compensación de movimiento o información que especifica el modo de intra predicción aplicado para realizar la intra predicción en el bloque actual.
Se debe señalar que la unidad de control 170 selecciona el modo de codificación (el modo de intra predicción o el modo de inter predicción) .
Por ejemplo, la unidad de control 170 selecciona el modo de codificación comparando una imagen de bloque actual IMG con la imagen de inter predicción IP generada con base en el modo de intra predicción IPM y la imagen decodificada LD o la imagen de inter predicción MP generada con base en la información de ubicación (vector de movimiento) MV y la imagen decodificada LD. En general, la unidad de control 170 selecciona el modo de codificación donde una suma ponderada del número de bits generados y la distorsión de codificación está al mínimo.
Por ejemplo, la unidad de control 170 puede usar una función de costo para determinar un modo de predicción óptimo para codificar el bloque actual, la función de costo se basa en la tasa de bits y la distorsión de codificación de acuerdo con el estándar H.264. La imagen de diferencia se transforma ortogonalmente, se cuantifica, y se codifica de longitud variable, para cada modo de predicción. Luego, la tasa de bits y la distorsión de codificación se calculan para cada modo de predicción. Se debe señalar que una función de costo de Lagrange J presentada por la Expresión 4 por ejemplo, se usa como la función de costo.
J = D + ? · R .... Expresión 4 En la expresión 4, "R" representa la tasa de bits usada para codificar la imagen de referencia (también puede ser referida como el residuo de predicción) y la información de modo de predicción. Además, "D" representa la distorsión de codificación, y "?" representa un multiplicador de Lagrange calculado de acuerdo con un parámetro cuantificado QP seleccionado para la codificación. La unidad de control 170 selecciona el modo de predicción donde la función de costo J es la más baja, como el modo de predicción usado en la predicción del bloque actual.
Se debe señalar que la unidad de control 170 incluye una memoria que temporalmente almacena la función de costo J para seleccionar el modo de predicción óptimo.
Cada una de la FIG. 6A y FIG. 6B es un diagrama que muestra un ejemplo de una configuración detallada de la unidad de establecimiento 140 en la Modalidad 1. Como se muestra en los diagramas, la unidad de establecimiento 140 incluye la primera unidad de estimación de modo de predicción 141, la segunda unidad de estimación de modo de predicción 142, y la unidad de generación de información de modo 143. Nótese que los componentes idénticos a aquellos mostrados en la FIG. 4 son asignados con los mismos signos de referencia como se usan en la FIG. 4.
La primera unidad de estimación de modo de predicción 141 mostrada en la FIG. 6A incluye una memoria de almacenamiento de modo de predicción 211 y una primera unidad de derivación de estimación de modo de predicción 212.
Se debe señalar que la unidad de establecimiento 140 recibe información de modo de codificación SMD que indica el modo de codificación (el modo de intra predicción o el modo de inter predicción) seleccionado por la unidad de control 170. Por ejemplo, cuando la codificación de predicción de intra cuadro se selecciona como el modo de codificación, la información de modo de codificación SMD representa información que indica el modo de intra predicción IP (tal como el tamaño de bloque de intra predicción y la dirección de intra predicción) . Por otra parte, cuando se selecciona la codificación de predicción inter cuadro como el modo de codificación, la información de modo de codificación SMD representa la información de ubicación (vector de movimiento) MV.
La memoria de almacenamiento de modo de predicción 211 almacena la información de modo de codificación recibida SMD. La primera unidad de derivación de estimación de modo de predicción 212 deriva, de la información de modo de codificación previamente codificada almacenada en la unidad de almacenamiento de modo de predicción 211, un primer modo de predicción estimado MPM que es un resultado de la estimación del modo de predicción usando un medio predeterminado. Luego, la primera unidad de derivación de estimación de modo de predicción 212 envía el primer modo de predicción estimado MPM a la unidad de generación de información de modo 143.
Aquí, como un método para derivar el primer modo de predicción estimado MPM, el modo de predicción del bloque previamente codificado ubicado arriba y adyacente al bloque actual que se codifica se puede comparar con el modo de predicción del bloque previamente codificado ubicado a la izquierda y adyacente al bloque actual, y luego el modo de predicción asignado con el número de índice menor se puede usar como el primer modo de predicción estimado MPM, como se representa por la Expresión 1 anterior. Además, los modos de predicción de los bloques que se ubican en la parte superior izquierda y parte superior derecha y adyacentes al bloque actual se pueden referenciar adicionalmente . Luego, el modo de predicción que ocurre con la frecuencia más alta se puede derivar como el primer modo de predicción estimado MPM. El método para derivar el primer modo de predicción estimado MPM no se limita a los ejemplos anteriores, y puede ser un método diferente siempre y cuando el método diferente derive el modo de predicción que se estima que ocurra con la frecuencia más alta.
Se debe señalar que cuando el número de modos de predicción de dirección es diferente de acuerdo con el tamaño de bloque, el modo de predicción de dirección que está más cercano al modo de predicción estimado seleccionado por el método anterior se puede derivar como el primer modo de predicción estimado MPM fuera de los modos de predicción de dirección posibles que se seleccionan para el bloque actual.
La segunda unidad de estimación de modo de predicción 142 obtiene una señal de control de la unidad de generación de información de modo 143 y envía, a la unidad de generación de información de modo 143, un segundo modo de predicción estimado SPM que es un valor estimado del segundo modo de predicción establecido de acuerdo con un método predeterminado .
Aquí, permitiendo que el segundo modo de predicción estimado SPM indique la predicción de DC/borde, una pieza de información de modo que indica la pluralidad de modos de predicción se puede codificar y decodificar eficientemente.
La unidad de generación de información de modo 143 genera la información de modo con base en el primer modo de predicción estimado MPM, el segundo modo de predicción estimado SPM, y el modo de predicción seleccionado SMD seleccionado por la unidad de codificación 110. Luego, la unidad de generación de información de modo 143 envía la información de modo como una señal relacionada con el modo de codificación de predicción SSMD a la unidad de codificación de longitud variable 131. La unidad de codificación de longitud variable 131 realiza la codificación de longitud variable en la señal relacionada con el modo de codificación de predicción SSMD, y luego produce la señal como una corriente de bits.
La FIG. 7A es un diagrama de flujo qué muestra un ejemplo de una operación realizada por la primera unidad de estimación de modo de predicción 141, la segunda unidad de estimación de modo de predicción 142, y la unidad de establecimiento 143 que se muestran en la FIG. 6A. La generación de la información de modo por la unidad de generación de información de modo 143 se describe con más detalle con referencia a la FIG. 7A.
En primer lugar, la unidad de generación de información de modo 143 obtiene el primer modo de predicción estimado MPM derivado por la primera unidad de estimación de modo de predicción 141 (Etapa S701) . Cuando el modo de predicción seleccionado SMD concuerda con el primer modo de predicción estimado MPM (SI en la Etapa S702) , una primera marca de especificación de modo de predicción estimado se establece en "1 (indicando la concordancia)" (Etapa S703). Luego, la unidad de codificación de longitud variable 131 codifica la primera marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S704) .
Por otra parte, cuando el modo de predicción seleccionado SMD no concuerda con el primer modo de predicción estimado MPM (NO en la Etapa S702) , la primera marca de especificación de modo de predicción estimado se establece en "0 (indicando la no concordancia)" (Etapa S705) . Luego, la unidad de codificación de longitud variable 131 codifica la primera marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S706) .
Luego, cuando el primer modo de predicción estimado MPM indica la predicción de DC/borde (SI en la Etapa S707) , el modo de predicción seleccionado SMD se establece como la información de codificación de modo seleccionado la cual por consiguiente se agrega a la información de marca. Luego, la unidad de codificación de longitud variable 131 codifica la información de codificación de modo seleccionado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S708) .
Cuando el primer modo de predicción estimado MPM indica la predicción de DC/borde (NO en la Etapa S707) , la unidad de generación de información de modo 143 envía una señal de control a la segunda unidad de estimación de modo de predicción 142. Con esto, la segunda unidad de estimación de modo de predicción 142 establece el modo de predicción de DC/borde como el segundo modo de predicción estimado SPM y luego envía el segundo modo de predicción estimado SPM a la unidad de generación de información de modo 143 (Etapa S709) .
Luego, el modo de predicción seleccionado SMD concuerda con el segundo modo de predicción estimado SPM (SI en la Etapa S710) , una segunda marca de especificación de modo de predicción estimado se establece en "1 (indicando la concordancia)" (Etapa S711) . Luego, la unidad de codificación de longitud variable 131 codifica la segunda marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de predicción SS D (Etapa S712) .
Por otra parte, cuando el modo de predicción seleccionado SMD no concuerda con el segundo modo de predicción estimado SPM (NO en la Etapa S710) , la segunda marca de especificación de modo de predicción estimado se establece en "0 (indicando la no concordancia)" (Etapa S713) . Luego, la unidad de codificación de longitud variable 131 codifica la segunda marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S714) .
Además, el modo de predicción seleccionado SMD se establece como la información de codificación de modo seleccionado la cual por consiguiente se agrega a la información de marca. Luego, la unidad de codificación de longitud variable 131 codifica la información de codificación de modo seleccionado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S715) .
El presente ejemplo describe el caso donde, cuando el modo de predicción seleccionado SMD no concuerda con el primer modo de predicción estimado MPM o el segundo modo de predicción estimado SPM, el modo de predicción seleccionado SMD se codifica sin cambio en cuanto a la información de codificación de modo seleccionado. Sin embargo, se debe señalar que la presente invención no se limita a esto. Por ejemplo, cuando ningún número que concuerda con el modo de predicción estimado está presente y el número de índice del modo de predicción seleccionado SMD es más grande que el número de índice del modo de predicción estimado, como se representa por la Expresión 2, un valor obtenido sustrayendo el número de modos de predicción estimados (2 a - lo máximo en los ejemplos mostrados en la FIG. 6A y FIG. 7A) se puede codificar como la información de codificación de modo seleccionado. Con esto, la cantidad de datos codificados se puede reducir adicionalmente .
Suponiendo que: un número de índice del primer modo de predicción estimado MPM se representa por "MPM" ; un número de índice del modo de predicción seleccionado SMD se representa por "SMD" ; la primera marca de especificación de modo de predicción estimado se representa por "MPMF" ; la segunda marca de especificación de modo de predicción estimado se representa por "SPMF" ; un número de índice de predicción de DC/borde se representa por "DCEDGE" ; y la información de codificación de modo seleccionado se representa por "REM" . En este caso, el flujo mencionado antes se puede representar por la Expresión 5, por ejemplo.
[Mat. 3] si (MPM=SMD) { MPMF=1 } si no{ MPMF=0 Si ( PM==DCEDGE) { Si (SMD<MPM) { REM=SMD } si no{ REM=SMD-1 } i no{ si (SPM==SMD) { SPMF=1 } si no{ SPMF=O Si (MPM<SPM) { si (SMD<MPM) { REM=SMD } si no (SMD<SPM) { REM=SMD-1 } si no{ REM=SMD-2 } } si no{ Si (SMD<SPM) { REM=SMD } si no si (SMD<MPM) { REM=SMD-1 } si no{ REM=SMD-2 } } } } .... Expresión 5 Se debe señalar que el número de índice del modo de predicción de DC/borde puede ser "0" . En este caso, el número de índice del segundo modo de predicción estimado SPM es siempre "0" . Por consiguiente, cuando el número de índice del modo de predicción seleccionado SMD será codificado, un valor obtenido sustrayendo al menos 1 se puede codificar y, por lo tanto, la cantidad de datos codificados se puede reducir adicionalmente . Un ejemplo indicado en la anotación similar a aquella de la Expresión 5 se presenta como la Expresión 6 a continuación .
[Mat. 4] si (MPM==SMD) { MPMF=1 } si no{ MPMF=0 si (MPM==DCEDGE) { REM=SMD-1 } si no{ Si (SPM=SMD) { SPMF=1 } si no{ SPMF=0 si (SMD<MP ) { REM=SMD-1 } si no{ REM=SMD-2 } } .... Expresión 6 Además, las funciones se pueden cambiar entre la primera unidad de estimación de modo de predicción 141 y la segunda unidad de estimación de modo de predicción 142 diferente de la configuración mostrada en la FIG. 6A. La configuración cambiada se muestra en la FIG. 6B.
La segunda unidad de estimación de modo de predicción 142 mostrada en la FIG. 6B incluye la memoria de almacenamiento de modo de predicción 211 y una segunda unidad de derivación de estimación de modo de predicción 213.
A menos que se señale de otra manera, los componentes operan de la misma manera como en la FIG. 6A.
La primera unidad de estimación de modo de predicción 141 envía, a la unidad de generación de información de modo 143, el primer modo de predicción estimado MPM que es un valor estimado del primer modo de predicción establecido de acuerdo con un método predeterminado .
Aquí, permitiendo que el primer modo de predicción estimado MPM indique la predicción de DC/borde, una pieza de información de modo que indica la pluralidad de modos de predicción se puede codificar y decodificar eficientemente.
La segunda unidad de derivación de estimación de modo de predicción 142 recibe una señal de control de la unidad de generación de información de modo 143, y deriva, de la información de modo de codificación previamente codificada almacenada en la unidad de almacenamiento de modo de predicción 211, un segundo modo de predicción estimado SPM que es¦ un resultado de la estimación del modo de predicción usando un medio predeterminado. Luego, la segunda unidad de derivación de estimación de modo de predicción 142 envía el segundo modo de predicción estimado SPM a la unidad de generación de información de modo 143.
Aquí, el método para derivar el segundo modo de predicción estimado SPM es el mismo que el método para derivar el primer modo de predicción estimado MPM como en la FIG. 6A. Sin embargo, el primer modo de predicción estimado MPM se puede obtener, y el segundo modo de predicción estimado SPM diferente del primer modo de predicción estimado MPM se puede derivar. Por ejemplo, después de excluir el primer modo de predicción estimado MPM de los candidatos de modo, el segundo modo de predicción estimado SPM se puede determinar de acuerdo con un método predeterminado. Con esto, los candidatos pueden ser diferentes entre los primero y segundo modos de predicción estimados, y esto puede reducir la cantidad de datos codificados.
La unidad de generación de información de modo 143 genera la información de modo con base en el primer modo de predicción estimado MPM, el segundo modo de predicción estimado SPM, y el modo de predicción seleccionado SMD seleccionado por la unidad de codificación 110. Luego, la unidad de generación, de información de modo 143 envía la información de modo como una señal relacionada con el modo de codificación de predicción SSMD a la unidad de codificación de longitud variable 131. La unidad de codificación de longitud variable 131 realiza la codificación de longitud variable en la señal relacionada con el modo de codificación de predicción SSMD, y luego produce la señal como una corriente de bits.
La FIG. 7B es un diagrama de flujo que muestra un ejemplo de una operación realizada por la primera unidad de estimación de modo de predicción 141, la segunda unidad de estimación de modo de predicción 142, y la unidad de establecimiento 143 que se muestran en la FIG. 6B.
En primer lugar, la primera unidad de estimación de modo de predicción 141 establece el modo de predicción de DC/borde como el primer modo de predicción estimado MPM, y la unidad de generación de información de modo 143 obtiene el primer modo de predicción estimado establecido MPM (Etapa S801) . Cuando el modo de predicción seleccionado SMD concuerda con el primer modo de predicción estimado MPM (SI en la Etapa S802) , una primera marca de especificación de modo de predicción estimado se establece en "1 (indicando la concordancia)" (Etapa S803). Luego, la unidad de codificación de longitud variable 131 codifica la primera marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S804) .
Por otra parte, cuando el modo de predicción seleccionado SMD no concuerda con el primer modo de predicción estimado MPM (NO en la Etapa S802) , la primera marca de especificación de modo de predicción estimado se establece en "0 (indicando la no concordancia)" (Etapa S805) . Luego, la unidad de codificación de longitud variable 131 codifica la primera marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S806) .
Luego, la unidad de generación de información de modo 143 envía una señal de control a la segunda unidad de estimación de modo de predicción 142. Como un resultado, la segunda unidad de estimación de modo de predicción 142 deriva el segundo modo de predicción estimado SPM de acuerdo con un método predeterminado y envía el segundo modo de predicción estimado derivado SPM a la unidad de generación de información de modo 143 (Etapa S807) .
Luego, el modo de predicción seleccionado SMD concuerda con el segundo modo de predicción estimado SPM (SI en la Etapa S808) , una segunda marca de especificación de modo de predicción estimado se establece en "1 (indicando la concordancia)" (Etapa S809) . Luego, la unidad de codificación de longitud variable 131 codifica la segunda marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de. predicción SSMD (Etapa S810) .
Por otra parte, cuando el modo de predicción seleccionado SMD no concuerda con el segundo modo de predicción estimado SPM (NO en la Etapa S808) , la segunda marca de especificación de modo de predicción estimado se establece en "0 (indicando la no concordancia)" (Etapa S811) . Luego, la unidad de codificación de longitud variable 131 codifica la segunda marca de especificación de modo de predicción estimado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S812) .
Además, el modo de predicción seleccionado SMD se establece como la información de codificación de modo seleccionado la cual por consiguiente se agrega a la información de marca. Luego, la unidad de codificación de longitud variable 131 codifica la información de codificación de modo seleccionado como la señal relacionada con el modo de codificación de predicción SSMD (Etapa S813) .
El presente ejemplo describe el caso donde, cuando el modo de predicción seleccionado SMD no concuerda, con el primer modo de predicción estimado MPM o el segundo modo de predicción estimado SPM, el modo de predicción seleccionado SMD se codifica sin cambio como la información de codificación de modo seleccionado. Sin embargo, se debe señalar que la presente invención no se limita a esto. Por ejemplo, cuando ningún número que concuerda con el modo de predicción estimado está presente y el número de índice del modo de predicción seleccionado SMD es mayor que el número de índice del modo de predicción estimado, como se representa por la Expresión 2, un valor obtenido sustrayendo el número de modos de predicción estimados (2 a lo máximo en los ejemplos mostrados en la FIG. 6B y FIG. 7B) se puede codificar como la información de codificación de modo seleccionado. Con esto, la cantidad de datos codificados se puede reducir adicionalmente . Un ejemplo indicado en la anotación similar a aquella de las Expresiones 5 y 6 se presenta como la Expresión 7 a continuación.
[Mat. 5] si (MPM==SMD) { MPMF=1 } si no{ MPMF=0 si (SPM==SMD) { SPMF=1 } si no{ SPMF=0 Si (MPM<SPM) { Si (SMD<MP ) { REM=SMD } si no si(SMD<SPM){ REM=SMD-1 } si no{ REM=SMD-2 } } si no{ si(SMD<SPM){ REM=SMD } si no si(SMD<MPM){ REM=SMD-1 } si no{ REM=SMD-2 Se debe señalar que el número de índice del modo de predicción de DC/borde puede ser "0" como en el caso mostrado en la FIG. 7A. En este caso, el número de índice del' primer modo de predicción estimado SPM siempre es "0" . Por consiguiente, cuando el número de índice del modo de predicción seleccionado SMD será codificado, un valor obtenido sustrayendo al menos 1 se puede codificar y, por lo tanto, la cantidad de datos codificados se puede reducir adicionalmente . Un ejemplo indicado en la anotación similar a aquella de la Expresión 7 se presenta como Expresión 8 a continuación.
[Mat. 6] si (MPM==SMD) { . PMF=1 } si no{ MPMF=0 Si (SPM==SMD) { SPMF=1 } si no{ SPMF=0 Si (SMD<SPM) { REM=SMD- 1 } si no{ REM=SMD-2 } } } .... Expresión 8 Con la configuración descrita hasta ahora, la codificación se puede realizar eficientemente en la información de modo con respecto al modo de DC que es un modo de predicción para un área uniforme y el modo de predicción de borde que es un modo de predicción para un área que incluye un borde. Como un resultado, además de la reducción de la cantidad de datos codificados como el modo de predicción, la calidad de imagen se puede mejorar también debido a un incremento del desempeño de predicción.
Luego, se describe la modificación de los ejemplos mostrados en la FIG. 7A y FIG. 7B, con referencia a la FIG. 8. La FIG. 8 es un diagrama de flujo relacionado con la Modificación de la Modalidad 1. Se debe señalar que aunque lo siguiente describe un ejemplo donde la unidad de establecimiento 140 mostrada en la FIG. 6A realiza un proceso mostrado en la FIG. 8, la presente invención no se limita a esto .
Nótese que una "marca de concordancia de modo" descrita en el diagrama de flujo de la FIG. 8 es una marca de un- bit que indica que: el modo de predicción seleccionado concuerda con uno de los primero y segundo . modos de predicción estimados ("1" se establece en este caso) ; o el modo de predicción seleccionado no concuerda tanto con los primero como segundo modos de predicción estimados ("0" se establece en este caso) . Además, una "marca de especificación de modo de predicción" es una marca de un bit que indica que: el modo de predicción seleccionado concuerda con el primer modo de predicción estimado ("0" se establece en este caso); o el modo de predicción seleccionado concuerda con el segundo modo de predicción estimado ("1" se establece en este caso). Luego, la marca de concordancia de modo y la marca de especificación de modo de predicción se codifican como la señal relacionada con el modo de codificación de predicción SSMD.
En primer lugar, la primera unidad de estimación de modo de predicción 141 determina un primer modo de predicción estimado (S901) . El primer modo de predicción estimado se puede determinar de acuerdo con el método descrito anteriormente. En el presente ejemplo, entre los modos de predicción de los bloques que están adyacentes a un bloque actual que se codifica y previamente se ha codificado, el modo de predicción asignado con el número de índice más pequeño se determina como el primer modo de predicción.
Luego, la segunda unidad de estimación de modo de predicción 142 determina un segundo modo de predicción estimado (S902) . El segundo modo de predicción estimado es diferente del primer modo de predicción estimado como se describió anteriormente. Un método para determinar el segundo modo de predicción estimado no es particularmente limitado, y el siguiente método se puede usar como un ejemplo.
En primer lugar, la segunda unidad de estimación de modo de predicción 142 determina si o no el primer modo de predicción estimado indica el modo plano. Cuando el primer modo de predicción estimado indica el modo plano, la segunda unidad de estimación de modo de predicción 142 determina el ' modo de DC como el segundo modo de predicción estimado. Por otra parte, cuando el primer modo de predicción estimado no indica el modo plano, la segunda unidad de estimación de modo de predicción 142 determina el modo plano como el segundo modo de predicción estimado.
Luego, la unidad de generación de información de modo 143 determina si el modo de predicción seleccionado concuerda con uno de los primero y segundo modos de predicción estimados (S903) . Cuando el modo de predicción seleccionado concuerda con uno de los primero y segundo modos de predicción estimados (Si en S903) , la unidad de generación de información de modo 143 establece la marca de concordancia de modo en "1 (indicando la concordancia con uno de los primero y segundo modos de predicción estimados)" (S904) .
Después de esto, la unidad de generación de información de modo 143 determina si o no el modo de predicción seleccionado concuerda con el primer modo de predicción estimado (S905) . Debe ser obvio que si o no el modo de predicción seleccionado concuerda con el segundo modo de predicción estimado se puede determinar en la Etapa S905.
Cuando el modo de predicción seleccionado concuerda con el primer modo de predicción estimado (Si en S905) , la unidad de generación de información de modo 143 establece la marca de especificación de modo de predicción en "0 (indicando la concordancia con el primer modo de predicción estimado)" (S906) . Por otra parte, cuando el modo de predicción seleccionado no concuerda con el primer modo de predicción estimado (No en S905) , la unidad de generación de información de modo 143 establece la marca de especificación de modo de predicción en "1 (indicando la concordancia con el segundo modo de predicción estimado)" (S907) .
Luego, la unidad de codificación de longitud variable 131 codifica la marca de concordancia de modo y la marca de especificación de modo de predicción establecida en las Etapas S904 a S907, como la señal relacionada con el modo de codificación de predicción SSMD (S908) .
Por otra parte, cuando el modo de predicción seleccionado no concuerda tanto con los primero como segundo modos de predicción estimados en la Etapa S903 (No en S903) , la unidad de generación de información de modo 143 establece la marca de concordancia de modo en "0 (indicando la no concordancia tanto con los primero como segundo modos de predicción estimados)" (S909) . Luego, la unidad de codificación de longitud variable 131 codifica la marca de concordancia de modo establecida en la Etapa S909 y la información que específica el modo de predicción seleccionado, como la señal relacionada con el modo de codificación de predicción SSMD (S910) .
Aquí, la información que específica el modo de predicción seleccionado corresponde a la información de codificación de modo seleccionado que se puede determinar de acuerdo con la Expresión 5 por ejemplo. Sin embargo, la información no se limita a esto siempre y cuando el lado del aparato de decodificación pueda especificar el modo de predicción seleccionado con base en la información.
En comparación, el diagrama de flujo mostrado en la FIG. 8 es diferente de los diagramas de flujo mostrados en la FIG. 7A y FIG. 7B en los significados indicados por las marcas y en · la secuencia de procesos tales como los procesos de comparación. Sin embargo, el diagrama de flujo en la FIG. 8 y los diagramas de flujo en la FIG. 7A y FIG. 7B tienen en común que la cantidad de datos codificados cuando la información de modo se reduce usando los dos modos de predicción estimados.
Para ser más específico, en cada uno de los procesos mostrados en la FIG. 7A, FIG. 7B, y FIG.8, cuando el modo de predicción seleccionado concuerda con uno de los primero y segundo modos de predicción estimados, la información de marca que indica la concordancia con la cual uno de los primero y segundo modos de predicción estimados se genera como la información de modo. Por otra parte, cuando el modo de predicción seleccionado no concuerda tanto con los primero como segundo modos de predicción estimados, la información de marca que indica la no concordancia tanto con los primero como segundo modos de predicción estimados y la información que específica el modo de predicción seleccionado se generan como la información de modo.
Aunque el aparato de codificación de imagen, el aparato de decodificación de imagen, y los métodos de los mismos de acuerdo con la presente invención se han descrito por vía de Modalidad, la presente invención no se limita a. la Modalidad anterior. Se señalará que varios cambios y modificaciones serán evidentes para aquellos expertos en el arte. Por lo tanto, a menos que de otra manera tales cambios y modificaciones se aparten del alcance de la presente invención, se deberán proponer para ser incluidos en la presente.
Por ejemplo, cuando el número de índice del modo de predicción seleccionado SMD será codificado, la codificación no necesita ser realizada en orden numérico de los números de índice. Más específicamente, un número menor se puede asignar secuencialmente a un vector de dirección que está más cercano al primer modo de predicción estimado MPM o el segundo modo de predicción estimado SPM y luego la codificación se puede realizar por consiguiente. Esto significa que un número menor se codifica y, por lo tanto, la cantidad de datos codificados se puede reducir. Además, cada uno de los números de modo que se asigna a los modos de predicción se puede cambiar dinámicamente de acuerdo con la frecuencia de ocurrencia del modo de predicción. Para ser más específico, un número de modo menor se puede asignar a un modo de predicción que ocurre con una frecuencia mayor.
Además, la presente invención no se limita al estándar de codificación . de vídeo H.264, y no se limita a los valores predichos convencionales mencionados anteriormente del modo de intra predicción y la información de ubicación (vector de movimiento) , tal como el modo de intra predicción usando la dirección de borde (modo de predicción de borde) como se describe en la Literatura No de Patente 2. En efecto, el método de estimación de modo de predicción de acuerdo con la presente invención se puede usar por cualquier aparato de codificación de vídeo de base bloque por bloque.
Además, la unidad de detección de borde usada en el método de estimación de modo de predicción de acuerdo con la presente invención se puede compartir con algunas funciones de un sistema de codificación de vídeo. Por ejemplo, aplicando la presente invención al sistema de codificación de vídeo que tiene el modo de predicción de borde, la unidad de detección de borde se puede compartir. Por consiguiente, los recursos se pueden usar efectivamente.
Además, la presente invención no se limita a una aplicación de codificación de vídeo, y se puede usar para codificación de imagen fija realizada en una base de bloque por bloque.
Además, como se describió anteriormente, la presente invención se puede implementar no solamente como el aparato de codificación de imagen y métodos del mismo, sino también como un programa de computadora que causa que una computadora ejecute cada uno de los métodos de codificación de imagen en la Modalidad 1. Además, la presente invención se puede implementar cómo un medio de grabación, tal como un CD-ROM leíble por computadora, que tiene el programa de computadora grabado en este. Además, la presente invención se puede implementar como información, datos, o una señal que indica el programa de computadora. El programa de computadora, la información, los datos, y la señal se pueden distribuir vía una red de comunicación tal como la Internet.
Aunque el aparato de codificación de imagen y el método del mismo de acuerdo con la presente invención se ha descrito por vía de la Modalidad, la presente invención no se limita a la Modalidad anterior. Se señalará que varios cambios y modificaciones serán evidentes para aquellos expertos en el arte. Por lo tanto, a menos que de otra manera tales cambios y modificaciones se aparten del alcance de la presente invención, se deben proponer para ser incluidos en la presente.
Por ejemplo, la Modalidad 1 describe el caso, como un ejemplo, donde la predicción de DC y la predicción de borde se asignan con el mismo número de índice de predicción. Sin embargo, la presente invención no se limita a esto. Se supone que el mismo número de índice de predicción se asigna a: el modo de predicción de borde y un modo de predicción que genera un píxel predicho de acuerdo con un método que no se basa en la predicción de dirección, tal como un método para generar píxeles predichos uno por uno. Aún en este caso, el modo de predicción se puede codificar y decodificar eficientemente realizando el mismo proceso como se describió anteriormente .
Modalidad 2 Luego, se describe una configuración de un aparato de decodificación de imagen 300 en la Modalidad 2.
La FIG. 9 es un diagrama de bloque que muestra un ejemplo de la configuración del aparato de decodificación de imagen 300 en la Modalidad 2.
El aparato de decodificación de imagen 300 decodifica datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción. Como se muestra en la FIG. 9, el aparato de decodificación de imagen 300 incluye una unidad de decodificación 310 y una unidad de restauración.
La unidad de decodificación 310 genera un bloque decodificado decodificando un bloque actual que es uno de una pluralidad de bloques incluidos en los datos de imagen codificados, de acuerdo con la predicción basada en un modo de predicción seleccionado restaurado por la unidad de restauración 320.
La unidad de decodificación 310 genera un bloque decodificada decodificando un bloque actual que es uno de una pluralidad de bloques incluidos en datos de imagen codificados, de acuerdo con la predicción basada en un modo de predicción seleccionado restaurado por la unidad de restauración 320. El bloque decodificado generado se produce como datos de imagen o datos de vídeo. Se debe señalar que, como es el caso con el lado del aparato de codificación, los candidatos de modo de predicción se refieren a todos los modos de predicción posibles cada uno de los cuales se puede seleccionar cuando se hace la predicción. Por ejemplo, los candidatos de modo de predicción incluyen ocho modos de predicción de dirección, el modo de predicción de DC, y el modo de predicción de borde. Alternativamente, como se describió anteriormente, los candidatos de modo de predicción pueden incluir 33 modos de predicción de dirección a lo máximo, el modo de predicción de DC, y el modo plano.
La unidad de restauración 320 restaura el modo de predicción seleccionado de entre los candidatos de modo de predicción, con base en la información de modo usada para restaurar el modo de predicción seleccionado cuando se realiza la codificación. Aquí, la información de modo se refiere a la información que indica un resultado de la selección de modo de predicción hecha cuando se realiza la codificación. Como se muestra en la FIG. 9, la unidad de restauración 320 incluye una primera unidad de estimación de modo de predicción 321, una segunda unidad de estimación de modo de predicción 322, y una unidad de determinación de señal 323.
La primera unidad de estimación de modo de predicción 321 y la segunda unidad de estimación de modo de predicción 322 son ejemplos de una unidad de restauración de modo de predicción de acuerdo con la presente invención. La primera unidad de estimación de modo de predicción 321 y la segunda unidad de estimación de modo de predicción 322 pueden establecer uno del modo de predicción de DC y el modo de predicción de borde como un modo de predicción estimado y restaurar una corriente de bits en la cual la cantidad de datos codificados como el modo de predicción de DC/borde se reduce .
Con la configuración hasta ahora, el aparato de decodificación de imagen 300 en la Modalidad 2 decodifica la corriente de bits en la. cual se reduce la cantidad de datos codificados como el modo de predicción, estimando la pluralidad de modos de predicción. Para ser más específico, estimando al menos dos modos de predicción, el aparato de decodificación de imagen 300 en la Modalidad 2 restaura el modo de predicción.
Lo siguiente describe las configuraciones detalladas y operaciones de unidades de procesamiento incluidas en el aparato de decodificación de imagen 300 en la Modalidad 2.
La FIG. 10 es un diagrama de bloque que muestra un ejemplo de una configuración detallada del aparato de decodificación de imagen 300 en la Modalidad 2. Como se muestra en la FIG. 10, el aparato de decodificación de imagen 300 incluye la unidad de decodificación 310, la unidad de restauración 320, una unidad de decodificación de longitud variable 330, y una unidad de control 340.
Además, como se muestra en la FIG. 10, la unidad de decodificación 310 incluye una unidad de cuantificación inversa 311, una unidad de transformada de frecuencia inversa 312, una unidad de adición 313, una memoria de cuadro 314, un conmutador 315, una unidad de intra predicción 316, una unidad de compensación de movimiento 317, y un conmutador 318. Una configuración detallada de la unidad de restauración 320 se describe más tarde con referencia a la FIG. HA y FIG. 11B.
Lo siguiente describe los procesos realizados por las unidades de procesamiento, en línea con una operación realizada por el aparato de decodificación de imagen 300 para decodificar una corriente de bits (datos de vídeo codificados) . El aparato de decodificación de imagen 300 decodifica los datos de vídeo codificados que incluyen un residuo de predicción, para cada bloque como un bloque codificado de predicción intra cuadro o bloque codificado de predicción inter cuadro, y luego produce los datos decodificados como los datos de vídeo o los datos de imagen.
La unidad de decodificación de longitud variable 330 realiza la decodificación de longitud variable en la corriente de bits usando un medio predeterminado, y produce un coeficiente de transformada de frecuencia cuantificada QT e información relacionada con el modo de codificación de predicción SSMD. La unidad de restauración 320 recibe la información relacionada con el modo de codificación de predicción SSMD y una señal de imagen previamente decodificada LD, y produce información que indica: un modo de codificación MD; y un modo de intra predicción IPM o información de ubicación (vector de movimiento) MV. Como se mencionó anteriormente, la configuración detallada de la unidad de restauración 320 se describe más tarde con referencia a la FIG. 11A y FIG. 11B.
El modo de codificación MD se ingresa en la unidad de control 340. La información que indica el modo de intra predicción IPM o la información de ubicación (vector de movimiento) MV se introduce en el conmutador 315. El coeficiente de transformada de frecuencia cuantificado QT se introduce en la unidad de cuantificación inversa 311.
La unidad de control 340 controla los conmutadores 315 y. 318 con base en el modo de codificación MD. Cuando el modo de codificación MD indica codificación de intra predicción, el conmutador 315 se conecta a una terminal "a" y la información que indica el modo de intra predicción IPM sé introduce en la unidad de, intra predicción 316. Cuando el modo de codificación MD indica codificación inter predicción, el conmutador 315 se conecta a una terminal "b" , y la información de ubicación (vector de movimiento) MV se introduce en la unidad de compensación de movimiento 317.
Cuando el bloque actual es un bloque codificado de intra predicción, cada uno de los conmutadores 315 y 318 se conecta a la terminal correspondiente "a". Luego, . la información que indica el modo de intra predicción IPM se introduce en la unidad de intra predicción 316, y el coeficiente de transformada de frecuencia cuantificado QT se introduce en la unidad de cuantificación inversa 311. Nótese que el coeficiente de transformada de frecuencia cuantificado QT corresponde al residuo de predicción codificado por un aparato de codificación (tal como el aparato de codificación de imagen 100) .
La unidad de intra predicción 316 obtiene un píxel de referencia de intra predicción de la memoria de cuadro 314 con base en el modo de intra predicción recibido. Luego, la unidad de intra predicción 316 genera una imagen de intra predicción (un bloque predicho) , y envía la imagen de intra predicción a la unidad de adición 313.
La unidad de cuantificación inversa 311 realiza la cuantificación inversa en el coeficiente de transformada de frecuencia cuantificado QT, y envía el coeficiente de transformada de frecuencia inversamente cuantificado a la unidad de transformada de frecuencia inversa 312. Luego, realizando la transformada de frecuencia inversa en el coeficiente de transformada de frecuencia inversamente cuantificado, la unidad de transformada de frecuencia inversa 312 genera una imagen de diferencia decodificada LDD. La unidad de transformada de frecuencia inversa 312 envía la imagen de diferencia decodificada generada LDD a la unidad de adición 313.
La unidad de adición 313 agrega la imagen de diferencia decodificada LDD a la imagen de intra predicción IP para generar una imagen decodificada LD. La imagen decodificada generada LD se almacena en la memoria de cuadro 314. Aquí, la imagen decodificada LD almacenada en la memoria de cuadro 314 se usa como una imagen de referencia en un proceso de decodificación más tarde. Además, la imagen decodificada LD se produce de una manera que la imagen decodificada LD forma los datos de vídeo decodificados .
Cuando el bloque actual es un bloque de inter predicción, cada uno de los conmutadores 315 y 318 se conecta a la terminal correspondiente "b" . Luego, la información que indica la información de ubicación (vector de movimiento) MV se introduce en la unidad de compensación de movimiento 317, y el coeficiente de transformada de frecuencia cuantificado QT se introduce en la unidad de cuantificación inversa 311.
La unidad de compensación de movimiento 317 obtiene un píxel de referencia de la memoria de cuadro 314 con base en la información de ubicación recibida (vector de movimiento) MV. Luego, la unidad de compensación de movimiento 317 genera una imagen predicha, y envía la imagen predicha a la unidad de adición 313.
Los procesos realizados por la unidad de cuantificación inversa 311, la unidad de transformada de frecuencia inversa 312, y la unidad de adición 313 son los mismos como aquellos descritos anteriormente para el caso del bloque de intra predicción. La imagen decodificada LD se almacena en la memoria de cuadro 314. Aquí, la imagen decodificada LD almacenada en la memoria de cuadro 314 se usa como una imagen de referencia en un proceso de decodificación más tardé. Además, la imagen decodificada LD se produce de una manera que la imagen decodificada LD forma los datos de vídeo decodificados .
Luego, se describe la configuración detallada de la unidad de restauración 320 en la Modalidad 2, con referencia a la FIG. HA y FIG . 11B.
La FIG. 11A es un diagrama que muestra un ejemplo de la configuración detallada de la unidad de restauración 320 en la Modalidad 2. Como se muestra en este diagrama y FIG. 9, la unidad de restauración 320 incluye la primera unidad de estimación de modo de predicción 321, la segunda unidad de estimación de modo de predicción 322, y la unidad de determinación de señal 323.
La primera unidad de estimación de modo de predicción 321 incluye una memoria de almacenamiento de modo de predicción 411 y una primera unidad de derivación de estimación de modo de predicción 412.
La unidad de restauración 320 recibe la señal relacionada con el modo de codificación de predicción SSMD, y envía, como información de modo de codificación SMD, información que indica: el modo de codificación MD; y el modo de intra predicción IPM o la información de ubicación (vector de movimiento) MV.
La memoria de almacenamiento de modo de predicción 411 almacena la información de modo de codificación previamente decodificada recibida SMD. La primera unidad de derivación de estimación de modo de predicción 412 deriva, de la información de modo de codificación previamente decodificada SMD almacenada en la unidad de almacenamiento de modo de predicción 411, un primer' modo de predicción estimado MPM que es un resultado de la estimación del modo de predicción usando un medio predeterminado. Luego, la primera unidad de derivación de estimación de modo de predicción 412 envía el primer modo de predicción estimado MPM a la unidad de determinación de señal 323.
Aquí, como un método para derivar el primer modo de predicción estimado MPM, el modo de predicción del bloque previamente decodificado ubicado arriba y adyacente al bloque actual a ser decodificado se puede comparar con el modo de predicción del bloque previamente decodificado ubicado a la izquierda y adyacente al bloque actual, y luego el modo de predicción asignado con el número de índice menor se puede usar como el primer modo de predicción estimado MPM, como se representa por la Expresión 1 anterior. Además, los modos de predicción de los bloques que se ubican en la parte superior izquierda y parte superior derecha y adyacentes al bloque actual se pueden referenciar adicionalmente . Luego, el modo de predicción que ocurre con la frecuencia más alta se puede derivar como el primer modo de predicción estimado MPM. El método para derivar el primer modo de predicción estimado MPM no se limita a los ejemplos anteriores, y puede ser un método diferente siempre y cuando el método diferente derive el modo de predicción que se estima que ocurra con la frecuencia más alta. Nótese que este método de estimación es el mismo como el método usado para codificar la corriente de bits .
Se debe señalar que cuando el número de modos de predicción de dirección es diferente de acuerdo con el tamaño de bloque, el modo de predicción de dirección que está más cercano al modo de predicción estimado seleccionado por el método anterior se puede derivar como el primer modo de predicción estimado MPM de los modos de predicción de dirección posibles que se seleccionan para que el bloque actual sea decodificado .
La segunda unidad de estimación de modo de predicción 322 obtiene una señal de control de la unidad de determinación de señal 323 y envía, a la unidad de determinación de señal 323, un segundo modo de predicción estimado SPM que es un valor estimado del segundo modo de predicción establecido de acuerdo con un método predeterminado .
La unidad de determinación de señal 323 genera la información de modo de codificación SMD con base en el primer modo de predicción estimado MPM, el segundo modo de predicción estimado SPM, y la señal relacionada con el modo de codificación de predicción SSMD obtenida por la unidad de decodificación de longitud variable 330 que realiza la decodificación de longitud variable en la corriente de bits. Luego, la unidad de determinación de señal 323 produce la información de modo de codificación SMD.
Aquí, permitiendo que el segundo modo de predicción estimado SPM indique la predicción de DC/borde, una pieza de información de modo que indica la pluralidad de modos de predicción se puede codificar y decodificar eficientemente.
La FIG. 12A es un diagrama de flujo que muestra un ejemplo de una operación realizada por la primera unidad de estimación de modo de predicción 321, la segunda unidad de estimación de modo de predicción 322, y la unidad de determinación de señal 323 que se muestran en la FIG. 11A. Una operación realizada por l unidad de determinación de señal 323 para decodificar la información de modo de codificación realiza se describe con más detalle con referencia a la FIG. 12A.
En primer lugar, la unidad de determinación de señal 323 obtiene el primer modo de predicción estimado MPM derivado por la primera unidad de estimación de modo de predicción 321 (Etapa S1201) . Luego, la unidad de determinación de señal 323 obtiene la señal relacionada con el modo de codificación de predicción SSMD y decodifica una primera marca de especificación de modo de predicción estimado (Etapa S1202) . Cuando la primera marca de especificación de modo de predicción estimado se establece en "1" (SI en la Etapa S1203) , la unidad de determinación de señal 323 establece el modo de predicción seleccionado SMD como el primer modo de predicción estimado MPM (Etapa S1204) y produce este primer modo de predicción estimado MPM.
Por otra parte, cuando la primera marca de especificación de modo de predicción estimado se establece en "0" (NO en la Etapa S1203) y el primer modo de predicción estimado MPM indica el modo de predicción de DC/borde (SI en la Etapa S1205) , la información de codificación de modo de predicción seleccionado luego se decodifica (Etapa S1206) . El modo especificado por un número de modo de predicción seleccionado obtenido por la decodificación se establece como el modo de predicción seleccionado SMD (Etapa S1207) , y el modo de predicción seleccionado SMD se produce.
Cuando el primer modo de predicción estimado MPM no indica el modo de predicción de DC/borde (NO en la Etapa S1205) , una segunda marca de especificación de modo de predicción estimado se decodifica (Etapa S1208) . Cuando la segunda marca de especificación de modo de predicción estimado se establece en "1" (SI en la Etapa S1209) , el modo de predicción seleccionado SMD se establece como el segundo modo de predicción estimado SPM (Etapa S1210) y este segundo modo de predicción estimado SMP se produce. Cuando la segunda marca de especificación de modo de predicción estimado se establece en "0" (NO en la Etapa S1209) , la información de codificación de modo de predicción seleccionado se decodifica (Etapa S1211) . El modo especificado por un número de modo de predicción seleccionado obtenido por la decodificación se establece como el modo de predicción seleccionado SMD (Etapa S1212) , y el modo de predicción seleccionado SMD se produce.
El presente ejemplo describe el caso donde, cuando el modo de predicción seleccionado SMD no concuerda con el primer modo de predicción estimado MPM o el segundo modo de predicción estimado SPM, el modo de predicción seleccionado SMD se codifica sin cambio como la información de codificación de modo seleccionado. Sin embargo,- se debe señalar que la presente invención no se limita á esto. Por ejemplo, cuando ningún número que está de acuerdo con el modo de predicción estimado está presente y el número de índice del modo de predicción seleccionado SMD es mayor que el número de índice del modo de predicción estimado, como se representa por la Expresión 3, se puede codificar un valor obtenido sustrayendo el número de modos de predicción estimados (2 a lo máximo en los ejemplos mostrados en la FIG. 6A y FIG. 7A) . Por lo tanto, cuando la decodificación se realiza, un valor obtenido agregando el número de modos de predicción estimados (2 a lo máximo en los ejemplos mostrados en la FIG. 11A y FIG. 12A) se decodifica como la información de codificación de modo seleccionado. Con esto, se puede decodificar la corriente de bits en la cual la cantidad de datos codificados se reduce adicionalmente .
Suponiendo que: "analizar ()" representa que los datos dentro de "()" de la señal relacionada con el modo de codificación de predicción SSMD. se decodifican; un número de índice del primer modo de predicción estimado MPM se representa por "MPM" ; un número de índice del modo de predicción seleccionado SMD se representa por "SMD" ; la primera marca de especificación de modo de predicción estimado se representa por "MPMF" ; la segunda marca de especificación de modo de predicción estimado se representa por "SPMF" ; un número de índice de predicción de DC/borde se representa por "DCEDGE" ; y la información de codificación de modo seleccionado se representa por "REM" . En este caso, el flujo mencionado anteriormente se puede representar por la Expresión 9 por ejemplo.
[Mat. 7] analizar (MPMF) si(MPM==l){ SMD=MPM } i. no{ si (MPM==DCEDGE) { analizar (REM) si (REM<MPM) { SMD=REM } si no{ SMD=REM+1 } } si no{ analizar (SPMF) si (SPMF==1) { SMD=SPM } si no{ analizar (REM) si (MPM<SPM) { si (REM<MPM) { SMD=REM } si no si(REM<SPM){ SMD=REM+1 } si no{ SMD=REM+2 } } si ??{ Si (REM<SPM) { SMD=REM } si no si (REM< PM) { SMD=REM+1 } si no{ S D=REM+2 } '} } } } ... Expresión 9 Se debe señalar que el número de índice del modo de predicción de DC/borde puede ser 0" . En este caso, el número de índice del segundo modo de predicción estimado SPM siempre es "0" . Por consiguiente, cuando el número de índice del modo de, predicción seleccionado SMD será codificado, un valor obtenido sustrayendo al menos 1 se puede codificar. Luego, cuando se realiza la decodificación, un valor obtenido agregando al menos 1 se decodifica. Con esto, se puede decodificar la corriente de bits en la cual la cantidad de los datos codificados se reduce adicionalmente . Un ejemplo indicado en la anotación similar con aquella de la Expresión 9 se presenta como la Expresión 10 a continuación.
[Mat. 8] analizar (MPMF) si (MP ==1) { SMD=MPM } si no{ si (MPM==DCEDGE) { analizar (REM) SMD=REM+1 } si no{ analizar (SPMF) si(SPMF==l){ SMD=SPM } si no{ analizar (REM) si (RENkMPM) { SMD=REM+1 } si no{ SMD=REM+2 } } } } ., ...Expresión 10 Además, las funciones se pueden cambiar entre la primera unidad de estimación de modo de predicción 321 y la segunda unidad de estimación de modo de predicción 322 diferente de la configuración mostrada en la FIG. 11A. La configuración cambiada se muestra en la FIG. 11B. Como se muestra en la FIG. 11B, la segunda unidad de estimación de modo de predicción 322 incluye la memoria de almacenamiento de modo de predicción 411 y una segunda unidad de derivación de estimación de modo de predicción 413.
La unidad de restauración 320 recibe la información relacionada con el modo de codificación de predicción SDMD Y envía, como la información de modo de codificación SMD, la información que indica: el modo de codificación MD; y el modo de intra predicción IPM o la información de ubicación (vector de movimiento) MV.
La memoria de almacenamiento de modo de predicción 411 almacena la información de modo de codificación previamente decodificada recibida SMD. La segunda unidad de derivación de estimación de modo de predicción 413 deriva, de la información de · modo de codificación previamente decodificada SMD almacenada en la unidad de almacenamiento de modo de predicción 411, un segundo modo de predicción estimado SPM que es un resultado de la estimación del modo de predicción que usa un medio predeterminado. Luego, la segunda unidad de derivación de estimación de modo de predicción 413 envía el segundo modo de predicción estimado SPM a la unidad de determinación de señal 323.
Aquí, el método para derivar el segundo modo de predicción estimado SPM es el 'mismo como el método para derivar el primer modo de predicción estimado MPM como en la FIG. .11A. Sin embargo, el primer modo de predicción estimado MPM se puede obtener, y el segundo modo de predicción estimado SPM diferente del primer modo de predicción estimado MPM se puede derivar. Por ejemplo, después de excluir el primer modo de predicción estimado MPM de los candidatos de modo, el segundo modo de predicción estimado SPM se puede determinar de acuerdo con un método predeterminado. Con esto, los candidatos pueden ser diferentes entre los primero y segundo modos de predicción estimados. Por lo tanto, se puede decodificar la corriente de bits en la cual la cantidad de datos codificados se reduce. Nótese que este método de estimación es el mismo como el método usado para codificar la corriente de bits.
La primera unidad de estimación de modo de predicción 321 envía, a la unidad de determinación de señal 323, el primer modo de predicción estimado MPM que es un valor estimado del primer modo de predicción establecido de acuerdo con una método predeterminado.
Aquí, permitiendo que el primer modo de predicción estimado MPM indique la predicción de DC/borde, se puede codificar y decodificar eficientemente una pieza de información de modo que indica la pluralidad de modos de predicción.
La unidad de determinación de señal 323 genera la información de modo de codificación SMD con base en el primer modo de predicción estimado MPM, el segundo modo de predicción estimado SPM, y la señal relacionada con el modo de codificación de predicción SSMD obtenida por la unidad de decodificación de longitud variable 330 que realiza la decodificación de longitud variable en la corriente de bits. Luego, la unidad de determinación de señal 323 produce la información de modo de codificación SMD.
La FIG. 12B es un diagrama de flujo que muestra un ejemplo de una operación realizada por la primera unidad de estimación de modo de predicción 321, la segunda unidad de estimación de modo de predicción 322, y la unidad de determinación de señal 323 que se muestran en la FIG. 11B. Una operación realizada por la unidad de determinación de señal 323 para decodificar la información de modo de codificación SMD se describe con más detalle con referencia a la FIG. 12B.
En primer lugar, la unidad de determinación de señal 323 obtiene la señal relacionada con el modo de codificación de predicción SSMD y decodifica una primera marca de especificación de modo de predicción estimado (Etapa S1302) . Cuando la primera marca de especificación de modo de predicción estimado se establece en "1" (SI en la Etapa S1302) , la unidad de determinación de señal 323 establece el modo de predicción seleccionado SMD como el primer modo de predicción estimado MPM (Etapa S1303) y produce el primer modo de predicción estimado MPM.
Por otra parte, cuando la primera marca de especificación de modo de predicción estimado se establece en "0" (NO en la Etapa S1302) , la unidad de determinación de señal 323 obtiene el segundo modo de predicción estimado SPM derivado por la segunda unidad de estimación de modo de predicción 322 (Etapa S1304) . Después de esto, la unidad de determinación de señal 323 decodifica la segunda marca de especificación de modo de predicción estimado de la señal relacionada con el modo de codificación de predicción SSMD (Etapa S1305) .
Cuando la segunda marca de especificación de modo de predicción estimado se establece en "1" (SI en la Etapa S1306) , el modo de predicción seleccionado SMD se establece como el segundo modo de predicción estimado SPM (Etapa S1307) y este segundo modo de predicción estimado SPM se produce. Cuando la segunda marca de especificación de modo de predicción estimado se establece en "0" (NO en la Etapa S1306) , la información de codificación de modo de predicción seleccionado se decodifica (Etapa S1308) . El modo especificado por un número de modo de predicción seleccionado obtenido por la codificación se establece como el modo de predicción seleccionado SMD (Etapa S1309) , y el modo de predicción seleccionado SMD se produce.
El presente ejemplo describe el caso donde, cuando el modo de predicción seleccionado SMD no concuerda con el primer modo de predicción estimado o el segundo modo de predicción estimado SPM, el modo de predicción seleccionado SMD se codifica sin cambio como la información de codificación de modo seleccionado. Sin embargo, se debe señalar que la presente invención no se limita a esto. Por ejemplo, cuando ningún número que no concuerda con el modo de predicción estimado está presente y el número de índice del modo de predicción seleccionado SMD es mayor que el número de índice del modo de predicción estimado, como se representa por la Expresión 3, se puede codificar un valor obtenido sustrayendo el número de modos de predicción estimador (2 a lo máximo en los ejemplos mostrados en la FIG. 6A y FIG. 7A) .
Por lo tanto, cuando se realiza la decodificación, un valor obtenido agregando el número de modos de predicción estimados (2 a lo máximo en los ejemplos mostrados en la FIG. 11A y FIG. 12A) se decodifica como la información de codificación de modo seleccionado. Con esto, se puede decodificar la corriente de bits en la cual la cantidad de datos codificados se reduce adicionalmente . Un ejemplo indicado en la anotación similar a aquel de las Expresiones 9 y 10 se presenta como Expresión 11 a continuación.
[Mat. 9] analizar (MPMF) si (MPM==1) { SMD=MPM } ' si no{ analizar (SPMF) si (SPMF==1) { SMD=SPM } si no{ analizar (REM) si (MPM<SPM) { si (REM<MPM) { SMD=REM } si no si (RENkSPM) { SMD=REM+1 } si no{ SMD=REM+2 } } si no{ si (REM<SPM) { SMD=REM } si no si (REM<MPM) { SMD=RE +1 } si no{ SMD=REM+2 } ¦ } } } ... Expresión 11 Se debe señalar que el número de Indice del modo de predicción de DC/borde puede ser "0" como en el caso mostrado en la FIG. 12A. En este caso, el número de índice del segundo modo de predicción estimado SPM siempre es "0". Por consiguiente, cuando el número de índice del modo de predicción seleccionado SMD será codificado, un valor obtenido sustrayendo al menos 1 se puede codificar. Luego, cuando se realiza la decodificación, un valor obtenido agregando al menos 1 se decodifica. Con esto, se puede decodificar la corriente de bits en la cual la cantidad de los datos codificados se reduce adicionalmente . Un ejemplo indicado en la anotación similar con aquella de la Expresión 11 se presenta como la Expresión 12 a continuación.
[Mat. 10] analizar (MPMF) si(MPM==l){ SMD=MPM } Si no{ analizar (SPMF) si (SPMF==1) { SMD=SPM } si no{ analizar (REM) si(REM<SPM){ SMD=REM+1 } si no{ SMD=REM+2 } } } ....Expresión 12 La configuración como se describe hasta ahora puede decodificar la corriente de bits obtenida codificando eficientemente la información de modo con respecto al modo de DC que es un modo de predicción para un área uniforme y el modo de predicción de borde que es un modo de predicción para un área que incluye un borde. Como un resultado, además de la reducción de la cantidad de datos que se codifican como el modo de predicción, la calidad de imagen se puede mejorar también debido a un incremento en el desempeño de la predicción.
Luego, se describe la modificación de los ejemplos mostrados en la FIG. 12A y FIG. 12B, con referencia a la FIG. 13. La FIG. 13 es un diagrama de flujo relacionado con la Modificación de Modalidad 2. Se debe señalar que aunque lo siguiente describe un ejemplo donde la unidad de restauración 320 mostrada en la FIG. 11A realiza un proceso mostrado en la FIG. 13, la presente invención no se limita a esto. Además, el diagrama de flujo mostrado en la FIG. 13 se usa típicamente cuando se decodifica la corrientes de bits codificada de acuerdo con el método mostrado en la FIG. 8.
En primer lugar, la primera unidad de estimación de modo de predicción 321 determina un primer modo de predicción estimado (S1401) . El primer modo de predicción estimado se puede determinar de acuerdo con el método descrito anteriormente. En el presente ejemplo, entre los modos de predicción de los bloques que están adyacentes a un bloque actual que se decodifica y previamente se ha codificado, el modo de predicción asignado con el número de índice más pequeño se determina como el primer modo de predicción.
Luego, la segunda unidad de estimación de modo de predicción 322 determina un segundo modo de predicción estimado (S1402) . El segundo modo de predicción estimado es diferente del primer modo de predicción estimado como se describió anteriormente. Un método para determinar el segundo modo de predicción estimado no es limitado particularmente, y el siguiente método se puede usar como un ejemplo.
En primer lugar, la segunda Unidad de estimación de modo de predicción 322 determina si o no el primer modo de predicción estimado indica el modo plano. Cuando el primer modo de predicción estimado indica el modo plano, la segunda unidad de estimación de modo de predicción 322 determina el modo de DC como el segundo modo de predicción estimado. Por otra parte, cuando el primer modo de predicción estimado no indica el modo plano, la segunda unidad de estimación de modo de predicción 322 determina el modo plano como el segundo modo de predicción estimado.
Luego, la unidad de determinación de señal 323 determina un valor establecido en la marca de concordancia de modo incluida en la señal relacionada con el modo de codificación de predicción SSMD obtenida de la unidad de decodificación de longitud variable 330 (Etapa 1403) . Cuando la marca de concordancia de modo se establece en "1" (Si en S1403) , la unidad de determinación de señal 323 determina un valor establecido para la marca de especificación de modo de predicción incluida en la señal relacionada con el modo de codificación de predicción SSMD (S1404) .
Cuando la marca de especificación de modo de predicción se establece en "0" (Si en S1404) , la unidad de determinación de señal 323 establece el modo de predicción seleccionado como el primer modo de predicción estimado (S1405) . Por otra parte, cuando la marca de especificación de modo de predicción se establece en "1" (No en S1404) , la unidad de determinación de señal 323 establece el modo de predicción seleccionado como el segundo modo de predicción estimado (S1406) .
Por otra parte, cuando la marca de concordancia dé modo se establece en "0" en la Etapa S1403 (No en S1403) , la unidad de determinación de señal 323 decodifica la información de codificación de modo de predicción seleccionado (S1407) . Luego, la unidad de determinación de señal 323 establece el modo de predicción especificado por el número de modo de predicción seleccionado obtenido por la decodificación, como el modo de predicción seleccionado SMD (Etapa S1408) .
En comparación, el diagrama de flujo mostrado en la FIG. 13 es diferente de los diagramas de flujo mostrados en la FIG. 12A y FIG. 12B en los significados indicados por las marcas y en la secuencia de procesos tales como los procesos de comparación. Sin embargo, el diagrama de flujo en la FIG. 13 y los diagramas de flujo en la FIG. 12A y FIG. 12B tienen en común que el modo de predicción seleccionado se restaura usando los dos modos de predicción estimados.
Para ser más específico, en cada uno de los procesos mostrados en la FIG. 12A, FIG. 12B, y FIG. 13, cuando la información de marca indica que el modo de predicción seleccionado concuerda con el primer modo de predicción estimado, el primer modo de predicción estimado se determina que es el modo de predicción seleccionado. Además, cuando la información de marca que indica que el modo de predicción seleccionado concuerda con el segundo modo de predicción estimado, el segundo modo de predicción estimado se determina que es el modo de predicción seleccionado. Cuando la información de marca indica que el modo de predicción seleccionado no concuerda tanto con los primero como segundo modos de predicción estimados, el modo de predicción seleccionado se restaura con base en la información que se incluye adicionalmente en la información de modo y específica el modo de predicción seleccionado.
Aunque el aparato de decodificación de imagen y el método del mismo de acuerdo con la presente invención se han descrito por vía de Modalidad, la presente invención no se limita a la Modalidad anterior. Se señalará que varios cambios y modificaciones serán evidentes para aquellos expertos en el arte. Por lo tanto, a menos que de otra manera tales cambios y modificaciones se aparten del alcance de la presente invención, se deben proponer para ser incluidos en la presente.
Por ejemplo, la decodificación se puede' realizar en la siguiente suposición. Es decir, cuando el número de índice del modo de predicción seleccionado SMD será codificado, la codificación no necesita ser realizada en orden numérico de los números de índice, o más específicamente, un número menor se puede asignar secuencialmente a un vector de dirección que está más cerca al primer modo de predicción estimado MPM o el segundo modo de predicción estimado SPM y luego la codificación se puede realizar por consiguiente. Esto significa que la corriente de bits en la cual un número menor se codifica será decodificada y, por lo tanto, la cantidad de datos codificados se puede reducir.
Además, la presente invención no se limita al estándar de codificación de vídeo H.264, y no se limita a los valores predichos convencionales mencionados anteriormente del modo de intra predicción y la información de ubicación (vector de movimiento) , tal como el modo de intra predicción usando la dirección de borde (modo de predicción de borde) como se describe en la Literatura No de Patente 2. En efecto, el método de estimación de modo de predicción de acuerdo con la presente invención se puede usar por cualquier aparato de codificación de vídeo de base bloque por bloque.
Además, la unidad de detección de borde usada en el método de estimación de modo de predicción de acuerdo con la presente invención se puede compartir con algunas funciones de un sistema de codificación de vídeo. Por ejemplo, aplicando la presente invención al sistema de codificación de vídeo que tiene el modo de predicción de borde, la unidad "de detección de borde se puede compartir. Por consiguiente, los recursos se pueden usar efectivamente.
Además, la presente invención no se limita a una aplicación de codificación de vídeo, y se puede usar para codificación de imagen fija realizada en una base de bloque por bloque.
Además, como se describió anteriormente, la presente invención se puede implementar no solamente como el aparato de decodificación de imagen y métodos del mismo, sino también como un programa de computadora que causa que una computadora ejecute cada uno de los métodos de decodificación de imagen en la Modalidad 2. Además, la presente invención se puede implementar como un medio de grabación, tal como un CD-ROM leíble por computadora, que tiene el programa de computadora grabado en este. Además, la presente invención se puede implementar como información, datos, o una señal que indica el programa de computadora. El programa de computadora, la información, los datos, y la señal se pueden distribuir vía una red de comunicación tal como la Internet.
Aunque el aparato de decodificación de imagen y el método del mismo de acuerdo con la presente invención se han descrito por vía de Modalidad, la presente invención no se limita a la Modalidad anterior. Se señalará que varios cambios y modificaciones serán evidentes para aquellos expertos en el arte. Por lo tanto, a menos que de otra manera tales cambios y modificaciones se aparten del alcance de la presente invención, se deberán proponer para ser incluidos en la presente.
Por ejemplo, la Modalidad 2 describe el caso, como un ejemplo, donde la predicción de DC y la predicción de borde se asignan con el mismo número de índice de predicción.
Sin embargo, la presente invención no se limita a esto.
Suponiendo que el mismo número de índice de predicción se asigna a: el modo de predicción de borde; y un modo de predicción que genera un píxel predicho de acuerdo con un método que no se basa en la predicción de dirección, tal como un método para generar píxeles predichos uno por uno. Aún en este caso, el modo de predicción se puede codificar y decodificar eficientemente realizando el mismo proceso como se describió anteriormente .
Modalidad 3 La Modalidad 3 describe el caso donde: la unidad de establecimiento 140 del aparato de codificación de imagen 100 descrito anteriormente incluye una unidad de determinación de vector de borde 1401 que tiene un detector de borde; y la unidad de restauración 320 del aparato de decodificación de imagen 300 descrito anteriormente incluye una unidad de determinación de vector de borde 1501 que tiene un detector de borde .
La FIG. 14 es un diagrama que muestra un ejemplo de una configuración donde la unidad de establecimiento 140 incluida en el aparato de codificación de imagen 100 descrito en la Modalidad 1 incluye la unidad de determinación de vector de borde 1401. Como se muestra en este diagrama, la unidad de establecimiento 140 incluye la primera unidad de estimación de modo de predicción 141, la segunda unidad de estimación de modo de predicción 142, la unidad de generación de información de modo 143, y la unidad de determinación de vector de borde 1401. Se debe señalar que los componentes idénticos a aquellos mostrados en la FIG. 4, FIG. 6A, y FIG. 6B se asignan con los mismos signos de referencia como se usan en la FIG. 4, FIG. 6A, y FIG. 6B.
La unidad de establecimiento 140 obtiene el modo de predicción seleccionado SMD y la señal de imagen LD que se ha codificado y decodificado previamente. Luego, la unidad de establecimiento 140 envía, a la unidad de codificación de longitud variable 131, la señal relacionada con el modo de codificación de predicción SSMD como la señal codificada del modo de predicción seleccionado del bloque actual.
La unidad de determinación de vector de borde 1401 obtiene la señal de imagen previamente codificada-decodificada mencionada antes LD ubicada cerca del bloque actual y realiza un proceso de detección de borde para ¦determinar si o no un borde está presente cerca del bloque actual. Esta operación se describe én detalle con referencia a la FIG. 18. La FIG. 18 es un diagrama esquemático que muestra un ejemplo en el cual la detección de borde será realizada. El diagrama muestra un ejemplo donde la detección de borde se realiza en un bloque de 4 por 4 píxeles 1801 que es un bloque actual que se codifica. Esta unidad de procesamiento es un ejemplo, y la presente invención no se limita a esto siempre y cuando la unidad de procesamiento sea una unidad de bloques de predicción. El proceso de detección de borde se realiza en un área diagonalmente sombreada 1802 fuera de un área que se ubica cerca del bloque actual 1801 y previamente se ha codificado y decodificado (principalmente, las áreas adyacentes al bloque actual y ubicadas a la izquierda, superior izquierda, y superior derecha, y arriba del bloque actual). Aquí, un cuadrado representa un píxel. Cuando un píxel incluido en el área diagonalmente sombreada será procesado, el proceso se realiza en nueve píxeles que incluyen ocho píxeles colindantes. El proceso de detección de borde se realiza usando el operador Sobel mostrado en la Expresión 13. Usando el operador Sobel, se pueden obtener las resistencias de borde en las direcciones horizontal y vertical. Un vector que indica la resistencia y la dirección es referido como el vector de borde.
[Mat. 11] .... Expresión 13 Por ejemplo, los vectores 1803 y 1804 tienen cada uno una cierta resistencia o mayor se detecta, y luego el vector que tiene la resistencia mayor se detecta como el vector de borde .
Aquí, la unidad de determinación de vector de borde 1401 determina si realiza predicción de DC o predicción de borde en la predicción de DC/borde, de acuerdo con el vector de borde detectado mencionado antes, y envía el resultado a la unidad de generación de información de modo 143. Como una condición usada para hacer la determinación aquí, se puede usar el tamaño del vector que tiene la resistencia más alta. Por ejemplo, cuando el tamaño tiene un cierto nivel o mayor, la predicción de borde se puede emplear.
Una operación realizada por la unidad de establecimiento 140 incluida en la presente configuración se describe con más detalle con referencia a la FIG. 16. La FIG. 16 es un diagrama que muestra un ejemplo de la operación realizada por la unidad de establecimiento 140.
La unidad de generación de información de modo 143 obtiene, de la unidad de determinación de vector de borde 1401, la información con respecto a la determinación en cuando si la predicción de DC o predicción de borde se realiza (Etapa S1601) , Cuando la condición indica que la predicción de borde se emplea (SI en la Etapa S1602) , el modo de predicción de DC/borde se establece como el primer modo de predicción estimado MPM (Etapa S1603) . Después, la información de codificación se determina de acuerdo con el mismo flujo como en la FIG. 7B (Etapas S801 a S813) , y la señal relacionada con el modo de codificación de predicción determinado SSMD se envía a la unidad de codificación de longitud variable (Etapa S1604) .
Por otra parte, cuando la condición indica que la predicción de borde no se emplea (NO en la Etapa S1602) , el primer modo de predicción estimado MPM derivado por la primera unidad de estimación de modo de predicción 141 se obtiene (Etapa S1605) . Después, la información de codificación se determina de acuerdo con el método descrito en la Literatura No de Patente 1 por ejemplo, y la señal relacionada con el modo de codificación de predicción determinado SSMD se envía a la unidad de codificación de longitud variable 131 (Etapa S1606) .
Se debe señalar que la operación anterior solamente es un ejemplo y que la presente invención no se limita a esto. Por ejemplo, aunque la codificación se realiza de acuerdo con el método convencional en la Etapa S1606, la codificación se puede realizar usando el segundo modo de predicción estimado SPM. En este caso, como el segundo modo de predicción estimado SPM, se puede derivar un modo que es diferente del primer modo de predicción estimado MPM y ocurre con una alta frecuencia para los bloques previamente codificados. Con esto, la eficiencia de codificación se puede mejorar adicionalmente .
En el presente ejemplo, la misma operación como en la FIG. 7B se realiza en la Etapa S1604. El segundo modo de predicción estimado SPM en este caso se puede derivar de la dirección del borde detectado en el proceso de detección de borde. Aquí, la unidad de determinación de vector de borde 1401 envía la , información con respecto a la dirección del vector de borde detectado a la segunda unidad de estimación de modo de predicción 142.
El segundo modo de predicción estimado SPM se puede determinar de la dirección del vector de borde como sigue, por ejemplo. Se supone que el número de candidatos de modo de predicción es nueve incluyendo los ocho modos de predicción de dirección, el modo de predicción de DC, y el modo de predicción de borde. En este caso, el modo de predicción de dirección más cercano a la dirección del borde detectado, de los nueve candidatos de modo de predicción, se puede establecer como el segundo modo de predicción estimado SPM.
Con esto, en comparación con el caso donde la determinación se hace de acuerdo con una distribución de los modos de predicción seleccionados para los bloques colindantes, el modo de predicción correspondiente más a las características de la imagen se puede derivar. Esto permite que la cantidad de datos codificados sea adicionalmente reducida .
La FIG. 15 es un diagrama que muestra un ejemplo de una configuración donde la unidad de restauración 320 incluida en el aparato de decodificación de imagen 300 descrito en la Modalidad 2 incluye la unidad de determinación de vector de borde 1501. Como se muestra en este diagrama, la unidad de restauración 320 incluye la primera unidad de estimación de modo de predicción 321, la segunda unidad de estimación de modo de predicción 322, la unidad de determinación de señal 323, y la unidad de determinación de vector de borde 1501. Se debe señalar que los componentes idénticos a aquellos mostrados en la FIG. 9, FIG. 11A, y FIG. 11B se asignan con los mismos signos de referencia como se usan en la FIG. 9, FIG. HA, y FIG. 11B.
La unidad de restauración 320 obtiene la señal relacionada con el modo de codificación de predicción SSMD que se ha codificado de longitud variable y la señal de imagen LD que previamente se ha codificado y decodificado . Luego, la unidad de restauración 320 produce el modo de predicción seleccionado SMD como la señal codificada del modo de predicción seleccionado del bloque actual .
La unidad de determinación de vector de borde 1501 obtiene la señal de imagen previamente codificada-decodificada mencionadas antes LD ubicada cerca del bloque actual y realiza un proceso de detección de borde para determinar si o no un ángulo está presente cerca del bloque actual. Esta operación es la misma como la operación realizada cuando la codificación se realiza.
Una operación realizada por la unidad de restauración 320 incluida en la presente configuración se describe con más detalle con referencia a la FIG. 17. La FIG. 17 es un diagrama que muestra un ejemplo de la operación realizada por la unidad de restauración 320.
La unidad de determinación de señal 323 obtiene, de la unidad de determinación de vector de borde 1501, la información con respecto a la determinación en cuanto si la predicción de DC o predicción de borde se realiza (Etapa S1701) . Cuando la condición indica que la predicción de borde se emplea (SI en la Etapa Sl«702) , el modo de predicción de DC/borde se establece en el primer modo de predicción estimado MPM (Etapa S1703) . Después, el proceso de decodificación se realiza de acuerdo con el mismo flujo como en la FIG. 12B (Etapas S1301 a S1309) , y el modo de predicción seleccionado SMD se produce (Etapa S1704) .
Por otra parte, cuando la condición indica que la predicción de borde no se emplea (NO en la Etapa S1702). , el primer modo de predicción estimado MPM derivado por la primera unidad de estimación de modo de predicción 321 se obtiene (Etapa S1705) . Después, · el modo de predicción seleccionado SMD se produce de acuerdo con el método descrito, en la Literatura No de Patente 1 por ejemplo (Etapa S1706) .
Se debe señalar que la operación anterior solamente es un ejemplo y que la presente invención no se limita a esto. Como en el caso del método de codificación, se puede hacer un cambio. Por ejemplo, la codificación se realiza de acuerdo con el método convencional en la Etapa S1706. Aquí, cuando la codificación se realiza usando el segundo modo de predicción estimado SPM, el lado del aparato de decodificación también puede realizar la operación de la misma manera correspondiente. En este caso, como el segundo modo de predicción estimado SPM, se puede derivar un modo que es diferente del primer modo de predicción estimado MPM y ocurre con una alta frecuencia para los bloques previamente codificados. Con. esto, la eficiencia de codificación se puédemej orar adicionalmente .
En el presente ejemplo, la misma operación como en la FIG. 12B se realiza en la etapa S1704. El segundo modo de predicción estimado SPM en este caso se puede derivar de la dirección del borde detectado en el proceso de detección de borde. Aquí, la unidad de determinación de vector de borde 1501 produce la información con respecto a la dirección del vector de borde detectado a la segunda unidad de estimación de modo de predicción 322.
El segundo modo de predicción estimado SPM se puede determinar de la dirección del vector de borde como sigue, por ejemplo. Suponiendo que el número de candidatos de modo de predicción es nueve incluyendo los ocho modos de predicción de dirección, el modo de predicción de DC, y el modo de predicción de borde. En este caso, el modo de predicción de dirección más cercano a la dirección del borde detectado, fuera de los nueve candidatos de modo de predicción, se puede establecer como el segundo modo de predicción estimado SPM.
Con esto, en comparación con el caso donde la determinación se hace de acuerdo con una distribución de los modos de predicción seleccionados para los bloques colindantes, se puede derivar el modo de predicción correspondiente más a las características de la imagen. Con esto, la corriente de bits en la cual la cantidad de datos codificados se reduce adicionalmente se puede decodificar.
Por ejemplo, cuando el número de índice del modo de predicción seleccionado SMD será codificado, la codificación no necesita ser realizada en orden numérico de los números de índice. Más específicamente, un número menor se puede asignar secuencialmente a un vector de dirección más cercano al vector de borde detectado, y luego se puede codificar y decodificar. Esto significa que un número menor se codifica y decodifica. Por lo tanto, la cantidad de datos codificados se puede reducir.
En la Modalidad 3, el borde se detecta calculando el gradiente usando el operador Sobel, por ejemplo. Sin embargo, la presente invención no se limita a esto. Cualquier herramienta de detección de borde se puede usar siempre y cuando la propiedad direccional del borde detectado se calcule. El operador Sobel solamente es un ejemplo de tecnologías de detección de borde disponibles. Por ejemplo, el operador Prewitt indicado por la Expresión 14 se puede usar.
Prewi ttx = .... Expresión 14 Para realizar el proceso de detección de borde, el aparato de codificación de imagen 100 y el aparato de decodificación de imagen 300 descritos en las Modalidades anteriores necesitan almacenar, en la memoria de imagen de referencia 160 y la memoria de cuadro 314, los datos de todos los pixeles incluidos en el bloque que incluye los pixeles de referencia 20. Aquí, el momento cuando los bloques colindantes se decodifican, o más específicamente, el momento ' cuando los valores de los pixeles de referencia requeridos para calcular el gradiente se obtienen, el proceso para calcular el gradiente se puede realizar. Luego, solamente el resultado del proceso de cálculo de gradiente se puede almacenar en la memoria de imagen de referencia 160 y la memoria de armazón 314, o en una memoria diferente.
Aquí, almacenando solamente una norma que excede un umbral (o el valor gradiente) por ejemplo, los recursos de memoria se pueden guardar más. Alternativamente, solamente la norma más grande en cada bloque o la ubicación de píxel correspondiente se puede almacenar. En este caso, la norma calculada (o el valor de gradiente) se almacena en la memoria de imagen de referencia 160 y la memoria de cuadro 314, por ejemplo.
Con esto, los recursos de memoria incluidos en el aparato de codificación de imagen 100 y el aparato de decodificación de imagen 300 se pueden usar efectivamente.
Además, la presente invención no se limita al estándar de codificación de vídeo H.264, y no se limita a los o, valores predichos convencionales mencionados anteriormente del modo de intra predicción y la información de ubicación (vector de movimiento) , tal como el modo de intra predicción usando la dirección de borde (modo de predicción de borde) como se describe en la Literatura No de Patente 2. En efecto, el método de estimación de modo de predicción de acuerdo con la presente invención se puede usar por cualquier aparato de codificación de vídeo de base de bloque por bloque.
Además, la unidad de detección de borde usada en el método de estimación de modo de predicción de acuerdo con la presente invención se puede compartir con algunas funciones de un sistema de codificación de vídeo. Por ejemplo, aplicando la presente invención al sistema de codificación de vídeo que tiene el modo de predicción de borde, la unidad de detección de borde se puede compartir. Por consiguiente, los recursos se pueden usar efectivamente.
Además, la presente invención no se limita a una aplicación de codificación de vídeo, y se puede usar para codificación de imagen fija realizada en una base de bloque por bloque.
Además, como se describió anteriormente, la presente invención se puede implementar no solamente como el aparato de codificación de imagen, el aparato de decodificación de imagen, y los métodos de los mismos, sino también como un programa de computadora que causa que una computadora ejecute cada uno del método de codificación de imagen y el método de decodificación de imagen en las Modalidades anteriores. Además, la presente invención se puede implementar como un medio de grabación, tal como un CD-ROM leíble por computadora, que tiene el programa de computadora grabado en este. Además, la presente invención se puede implementar como información, datos, o una señal que indica el programa de computadora. El programa de computadora, la información, los datos, y la señal se pueden distribuir vía una red de comunicación tal como la Internet .
Modalidad 4 El procesamiento descrito en cada una de las modalidades se puede implementar simplemente en un sistema de computadora independiente, grabando, en un medio de grabación, un programa para implementar las configuraciones del método de codificación de imagen móvil y el método de decodificación de imagen móvil descrito en cada una de las modalidades. El medio de grabación puede ser cualquier medio de grabación siempre y cuando el programa se pueda grabar, tal como un disco magnético, un disco óptico, un disco óptico magnético, una tarjeta IC, y una memoria semiconductora.
Después, serán descritas las aplicaciones al método de codificación de imagen móvil y el método de decodificación de imagen móvil descritos en cada una de las modalidades y sistemas que usan los mismos.
La FIG. 19 ilustra una configuración total de un sistema proveedor de contenido exlOO para implementar los servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en celdas de tamaño deseado, y las estaciones base exl06, exl07, exl08, exl09, y exllO las cuales son estaciones inalámbricas fijas se colocan en cada una de las celdas.
El sistema proveedor de contenido exlOO se conecta a dispositivos, tal como una computadora exlll, un asistente digital personal (PDA, por sus siglas en inglés) exll2, una. cámara exll3, un teléfono celular exll4 y una máquina de juegos exll5, vía la Internet exlOl, un proveedor de servicio de Internet exl02, una red telefónica exl04, así como también las estaciones base exl06 a exllO, respectivamente.
Sin embargo, la configuración del sistema proveedor de contenido exlOO no se limita a la configuración mostrada en la FIG. 19, y es aceptable una combinación en la cual cualquiera de los elementos se conecta. Además, cada dispositivo se puede conectar directamente a la red telefónica exl04, más bien vía las estaciones base exl06 a exllO las cuales son estaciones inalámbricas fijas. Además, los dispositivos se pueden interconectar entre sí vía una comunicación inalámbrica de distancia corta y otras.
La cámara exll3, tal como una cámara de vídeo digital, es capaz de capturar vídeo. Una cámara exll6, tal como una cámara digital, es capaz de capturar tanto imágenes fijas como vídeo. Adem s, el teléfono celular exll4 puede ser uno que cumple cualquiera de los estándares tales como Sistema Global para Comunicaciones Móviles (GSM, por sus siglas en inglés) , Acceso Múltiple por División de Código (CDMA, por sus siglas en inglés) , Acceso Múltiple por División de Código de Banda Ancha (W-CDMA, por sus siglas en inglés) , Evolución de Largo Plazo (LTE, por sus siglas en inglés) , y Acceso de Paquetes de Alta Velocidad (HSPA, por sus siglas en inglés) . Alternativamente, el teléfono celular exll4 puede ser un Sistema de Teléfono Portátil Personal (PHS, por sus siglas en inglés) .
En el sistema proveedor de contenido exlOO, un servidor de transmisión en tiempo real exl03 se conecta a la cámara exll3 y otras vía la red telefónica exl04 y la estación base exl09, que habilita la distribución de imágenes de un espectáculo en vivo y otros. En tal distribución, un contenido (por ejemplo, vídeo de un espectáculo de música en vivo) capturado por el usuario usando la cámara exll3 se codifica como se describió anteriormente en cada una de las modalidades, y el contenido codificado se transmite al servidor de transmisión en tiempo real exl03. Por otra parte, el servidor de transmisión en tiempo real exl03 realiza la distribución de corriente de los datos de contenido transmitidos a los clientes en sus solicitudes. Los clientes incluyen la computadora exlll, el PDA exll2, la cámara exll3, el teléfono celular exll4, y la máquina de juegos exll5 que con capaces de decodificar los datos codificados mencionados anteriormente. Cada uno de los dispositivos que ha recibido los datos distribuidos decodifica y reproduce los datos codificados .
Los datos capturados se pueden codificar por la cámara exll3 o el servidor de transmisión en tiempo real exl03 que transmite los datos, o los procesos de codificación se pueden compartir entre la cámara exll3 y el servidor de transmisión en tiempo real exl03. De manera similar, los datos distribuidos se pueden decodificar por los clientes o el servidor de transmisión en tiempo real exl03, o los procesos de decodificación se pueden compartir entre los clientes y el servidor de transmisión en tiempo real exl03. Además, los datos de las imágenes fijas y vídeo capturados no solamente por la cámara exll3 sino también por la cámara exll6 se pueden transmitir al servidor de transmisión en tiempo real exl03 a través de la computadora exlll. Los procesos de codificación se pueden realizar por la cámara* exll6, la computadora exlll, o el servidor de transmisión en tiempo real exl03, o compartir entre los mismos.
Además, los procesos de codificación y decodificación se pueden realizar por un LSI ex500 generalmente incluido en cada uno de la computadora exlll y los dispositivos. El LSI ex500 se puede configurar de un chip único o una pluralidad de chips . El software para codificar y decodificar vídeo se puede integrar en algún tipo de un medio de grabación (tal como un CD-ROM, un disco flexible, y un disco duro) que es leíble por la computadora exlll y otros, y los procesos de codificación y decodificación se pueden realizar usando el software. Además, cuando el teléfono celular exll4 se equipa con una cámara, los datos de vídeo obtenidos por la cámara se pueden transmitir. Los datos de vídeo son datos codificados por. el LSI ex500 incluido en el teléfono celular exll4.
Además, el servidor de transmisión en tiempo real exl03 puede estar compuesto de servidores y computadoras, y puede descentralizar datos y procesar los datos descentralizados, grabar, o distribuir datos.
Como se describió anteriormente, los clientes pueden recibir y reproducir los datos codifícaos en el sistema proveedor de contenido exlOO. En otras palabras, los clientes pueden recibir y decodificar información transmitida por el usuario, y reproducir los datos decodificados en tiempo real en el sistema proveedor de contenido exlOO, de modo que el usuario quién no tiene algún derecho particular y equipo puede implementar la radiodifusión personal.
Aparte del ejemplo del sistema proveedor de contenido exlOO, al menos uno del aparato de codificación de imagen móvil y el aparato de decodificación de imagen móvil descritos en cada una de las modalidades se puede implementar en un sistema de radiodifusión digital ex200 ilustrado en la FIG. 20. Más específicamente, una estación de radiodifusión ex201 comunica o transmite, vía ondas de radio a un satélite de radiodifusión ex202, datos multiplexados obtenidos multiplexando datos de audio y otros sobre datos de vídeo. Los datos de vídeo son datos codificados por el método de codificación de imagen móvil descrito en cada una de las modalidades. En la recepción de los datos multiplexados, el satélite de radiodifusión ex202 transmite ondas de radio para radiodifusión. Luego, una antena de uso casero ex204 con una función de recepción de radiodifusión satelital recibe las ondas de radio. Luego, un dispositivo tal como una televisión (receptor) ex300 y una caja de adaptación multimedios (STB) ex217 decodifica los datos multiplexados recibidos, y reproduce los datos decodificados .
Además, un lector/grabadora ex218 (i) lee y decodifica los datos multiplexados grabados en un medio de grabación ex215, tal como un DVD y un BD, o (i) codifica señales de vídeo en el medio de grabación ex215( y en algunos casos, escribe datos obtenidos multiplexando una señal de audio en los datos codificados. El lector/grabadora ex218 puede incluir el aparato de decodificación de imagen móvil o el aparato de codificación de imagen móvil como se muestra en cada una de las modalidades. En este caso, las señales de vídeo reproducidas se visualizan en el monitor ex219, y se pueden reproducir por otro dispositivo o sistema usando el medio de grabación ex215 en el cual los datos multiplexados se graban. También es posible implementar el aparato de decodificación de imagen móvil en la caja de adaptación multimedios ex217 conectada al cable ex203 para una televisión por cable o a la antena ex204 para radiodifusión satelital y/o terrestre, para visualizar señales de vídeo en el monitor ex219 de la televisión ex300. El aparato de decodificación de imagen móvil se puede implementar no en la caja de adaptación multimedios sino en la televisión ex300.
La FIG. 21 ilustra la televisión (receptor) ex300 que usa el método de codificación de imagen móvil y el método de decodificación de imagen móvil descritos en cada una de las modalidades. La televisión ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos multiplexando datos de audio sobre datos de vídeo, a través de la antena ex204 o el cable ex203, etc. que recibe una radiodifusión; una unidad de modulación/desmodulación ex302 que desmodula los datos multiplexados recibidos o modula los datos en datos multiplexados que suministran fuera; y una unidad de multiplexión/desmultiplexión ex303 que desmultiplexa los datos multiplexados modulados en datos de vídeo y datos de audio, o multiplexa datos de vídeo y datos de audio codificados por una unidad de procesamiento de señal ex306 en datos.
La televisión ex300 adicionalmente incluye: una unidad de procesamiento de señal ex306 que incluye una unidad de procesamiento de señal de audio ex304 y una unidad de procesamiento de señal de vídeo ex305 que decodifican datos de audio y datos de vídeo y codifican datos de audio y datos de vídeo, respectivamente; y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la señal de audio decodificada, y una unidad de visualización ex308 que visualiza la señal de vídeo decodificada, tal como un visualizador. Además, la televisión ex300 incluye una unidad de interfaz ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Además, la televisión ex300 incluye una unidad de control ex310 que controla en total cada elemento constituyente de la televisión ex300, y una unidad de circuito de suministro de energía ex311 que suministra energía a cada uno de los elementos. Diferente de la unidad de entrada de operación ex312, la unidad de interfaz ex317 puede incluir:, un puente ex313 que se conecta a un dispositivo externo, tal como un lector/grabadora ex218; una unidad de ranura ex314 para habilitar la unión del medio de grabación ex216, tal como una tarjeta SD; un controlador ex315 que se conecta a un medio de grabación externo, tal como un disco duro; y un módem ex316 que se conecta a una red telefónica. Aquí, el medio de grabación ex216 puede grabar eléctricamente información usando un elemento de memoria semiconductora no volátil/volátil para almacenamiento. Los elementos constituyentes de la televisión ex300 se conectan entre sí a través de un bus síncrono.
Primero, se describirá la configuración en la cual la televisión ex300 decodifica los datos multiplexados obtenidos desde fuera a través de la antena ex204 y otros y reproduce los datos decodificados . En la televisión ex300, en una operación del usuario a través de un controlador remoto ex220 y otros, la unidad de multiplexión/desmultiplexión ex303 desmultiplexa los datos multiplexados desmodulados por la unidad de modulación/desmodulación ex302, bajo control de la unidad de control ex310 que incluye un CPU. Además, la unidad de procesamiento de señal de audio ex304 decodifica los datos de audio desmultiplexados , y la unidad de procesamiento de señal de vídeo ex305 decodifica los datos de vídeo desmultiplexados, usando el método de decodificación descrito en cada una de las modalidades, en la televisión ex300. La unidad de salida ex309 proporciona la señal de vídeo decodificada y señal de audio fuera, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de vídeo y la señal de audio, las señales se pueden almacenar temporalmente en búferes ex318 y ex319, las señales se pueden almacenar temporalmente en búferes ex318 y ex319, y otros de modo que las señales se reproducen en sincronización entre sí. Además, la televisión ex300 puede leer datos multiplexados no a través de una radiodifusión y otros sino del medio de grabación ex215 y ex216, tal como un disco magnético, un disco óptico, y una tarjeta SD. Luego, se describirá una configuración en la cual la televisión ex300 codifica una señal de audio y una señal de vídeo, y transmite los datos fuera y escribe los datos en un medio de grabación. En la televisión ex300, en una operación de usuario a través del controlador remoto ex220 y otros, la unidad de procesamiento de señal de audio ex304 codifica una señal de audio, y la unidad de procesamiento de señal de vídeo ex305 codifica una señal de vídeo, bajo control de la unidad de control ex310 usando el método de codificación descrito en cada una de las modalidades. La unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de vídeo y señal de audio codificada, y proporciona la salida de señal resultante. Cuando la unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de vídeo y la señal de audio, las señales se pueden almacenar temporalmente en los búferes ex320 y ex321, y otros de modo que las señales se reproducen, en sincronización entre sí. Aquí, los búferes ex318, éx319, ex320, y ex321 pueden ser plurales como se ilustra, o al menos un búfer se puede compartir en la televisión ex300. Además, los datos se pueden almacenar en un búfer de modo que el sobreflujo y bajoflujo de sistema se puede evitar entre la unidad de modulación/desmodulación ex302 y la unidad de multiplexión/desmultiplexión ex303, por ejemplo.
Además, la televisión ex300 puede incluir una configuración para recibir una entrada AV de un micrófono o una cámara diferente de la configuración para obtener datos de audio y vídeo de una radiodifusión o un medio de grabación, y puede codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar, y proporcionar datos de salida en la descripción, puede ser capaz de solamente recibir, decodificar, y proporcionar datos de salida pero no la codificación, multiplexión, y proporción de datos de salida.
Además, cuando el lector/grabadora ex218 lee o escribe datos multiplexados de o en un medio de grabación, una de la televisión ex300 y el lector/grabadora ex218 puede decodificar o codificar los datos multiplexados , y la televisión ex300 y el lector/grabadora ex218 pueden compartir la decodificación o codificación.
Como un ejemplo, la FIG. 22 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando los datos se leen o escriben de o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406, y ex407 que se describen después. La cabeza óptica ex401 irradia un punto láser en una superficie de grabación del medio de grabación ex215 que es un disco óptico para escribir información, y detecta la luz reflejada de la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 acciona eléctricamente un láser semiconductor incluido en la cabeza óptica ex401, y modula la luz láser de acuerdo con los datos grabados . La unidad de desmodulación de reproducción ex403 amplifica una señal de reproducción obtenida detectando eléctricamente la luz reflejada de la superficie de grabación usando un fotodetector incluido en la cabeza óptica ex401, y desmodula la señal de reproducción separando un componente de señal grabado en el medio de grabación ex215 para reproducir la información necesaria. El búfer ex404 temporalmente mantiene la información que se graba en el medio de grabación ex215 y la información reproducida del medio de grabación ex215. El motor de disco ex405 gira el medio de grabación ex215. La unidad de servocontrol ex406 mueve la cabeza óptica ex401 a una pista de información predeterminada mientras controla el impulso de rotación del motor de disco ex405 para seguir el punto láser. La unidad de control de sistema ex407 controla total la unidad de reproducción/grabación de información ex400. Los procesos de lectura y escritura se pueden implementar por la unidad de control de sistema ex407 usando varia información almacenada en el búfer ex404 y generando y agregando nueva información como sea necesario, y por la unidad de grabación de modulación ex402, la unidad de desmodulación de reproducción ex403, y la unidad de servocontrol ex406 que graban y reproducen la información a través de la cabeza óptica ex401 mientras se opera de una manera coordinada. La unidad de control de sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento causando que una computadora ejecute un programa para leer y escribir.
Aunque la cabeza óptica ex401 irradia un punto láser en la descripción, puede realizar grabación de alta densidad usando luz de campo cercano.
La FIG. 23 ilustra el medio de grabación ex215 que es el disco óptico. En la superficie de grabación del medio de grabación ex215, las ranuras de guía se forman en espiral, y la pista de información ex230 graba, por anticipado, la información de dirección que indica una posición absoluta en el disco de acuerdo con el cambio de una forma de las ranuras de guía. La información de dirección incluye información para determinar posiciones de bloques de grabación ex231 que son una unidad para grabar datos . La reproducción de la pista de información ex230 y lectura de la información de dirección en un aparato que graba y reproduce datos puede conducir a la determinación de las posiciones de los bloques de grabación. Además, el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interna ex232, y un área de circunferencia externa ex234. El área de grabación de datos ex233 es un área para el uso en la grabación de datos de usuario. El área de circunferencia interna ex232 y el área de circunferencia externa ex234 que están dentro y fuera del área de grabación de datos ex233, respectivamente son para uso específico excepto para grabar los datos de usuario. La unidad de reproducción/grabación de información 400 lee y escribe audio codificado, datos de vídeo codificados, o datos multiplexados obtenidos multiplexando los datos de audio y vídeo codificados, de y en el área de grabación de datos ex233 del medio de grabación ex215.
Aunque un disco óptico que tiene una capa, tal como un DVD y un BD se describe como un ejemplo en la descripción, el disco óptico no se limita a tal, y puede ser un disco óptico que tiene una estructura de capas múltiples y capaz de ser grabado en una parte diferente de la superficie. Además, el disco óptico puede tener una estructura para la grabación/reproducción multidimensional , tal como la grabación de información usando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para grabar información que tiene diferentes capas de varios ángulos .
Además, un automóvil ex210 que tiene una antena ex205 puede recibir datos del satélite ex202 y otros, y reproducir vídeo en un dispositivo visualizador tal como un sistema de navegación de automóvil ex211 establecido en el automóvil ex2l0, en el sistema de radiodifusión digital ex200. Aquí, una configuración del sistema de navegación de automóticl ex211 será una configuración, por ejemplo, que incluye una unidad receptora de GPS de la configuración ilustrada en la FIG. 21. Lo mismo será cierto para la configuración de la computadora exlll, el teléfono celular exll4, y otros. Además, de manera similar con la televisión ex300, una terminal tal como el teléfono celular exll4 probablemente tiene 3 tipos de configuraciones de implementación que incluyen no solamente (i) una terminal de transmisión y recepción que incluye tanto un aparato de codificación como un aparato de decodificación, sino también (ii) una terminal de transmisión que incluye solamente un aparato de codificación y (iii) una terminal de recepción que incluye solamente un aparato de. 'decodificación. Aunque el sistema de radiodifusión digital ex200 recibe y transmite los datos multiplexados obtenidos multiplexando datos de audio sobre datos de vídeo en la descripción, los datos multiplexados pueden ser datos obtenidos multiplexando no datos de audio sino datos de caracteres relacionados con vídeo sobre datos de vídeo, y no pueden ser datos multiplexados sino datos de vídeo por si solos.
Como tal, el método de codificación de imagen móvil y el método de decodificación de imagen móvil en cada una de las modalidades se pueden usar en cualquiera de los dispositivos y sistemas descritos. Por consiguiente, las ventajas discretas en cada una de las modalidades se pueden obtener.
Además, la presente invención no se limita a las modalidades, y varias modificaciones y revisiones son posibles sin apartarse del alcance de la presente invención.
Modalidad 5 Los datos de vídeo se pueden generar conmutando, como sea necesario, entre (i) el método de codificación de imagen móvil o el aparato de codificación de imagen móvil mostrados en cada una de las modalidades y (ii) un método de codificación de imagen móvil o un aparato de codificación de imagen móvil en conformidad con un diferente estándar, tal como MPEG-2, MPEG-4 AVC, y VC-1.
Aquí, cuando se genera una pluralidad de datos de vídeo que es conforme con los diferentes estándares y luego se decodifica, los métodos de decodificación se necesitan seleccionar para ser conforme con los diferentes estándares. Sin embargo, puesto que no se puede detectar con cuál estándar cada uno de la pluralidad de datos de vídeo a ser decodificados es conforme, existe un problema que no se puede seleccionar un método de decodificación apropiado.
Para resolver el problema, los datos multiplexados obtenidos multiplexando datos de audio y otros sobre datos de vídeo tienen una estructura que incluye información de identificación que indica con cuál estándar los datos de vídeo son conforme. La estructura específica de los datos multiplexados que incluyen los datos de vídeo generados en el método de codificación de imagen móvil y por el aparato de codificación de imagen móvil mostrado en cada una de las modalidades será descrita después. Los datos multiplexados son una corriente digital en el formato de Corriente de Transporte de MPEG-2.
La FIG. 24. ilustra una estructura de los datos multiplexados. Como se ilustra en la FIG. 24, los datos multiplexados se pueden obtener multiplexando al menos una de una corriente de vídeo, una corriente de audio, y una corriente de gráfica de presentación (PG) , y una corriente de gráfica interactiva. La corriente de vídeo representa vídeo primario y vídeo secundario de una película, la corriente de audio (IG) representa una parte de audio primario y una parte de audio secundario que se mezcla con la parte de audio primario, y la corriente de gráfica de presentación representa subtítulos de la película. Aquí, el vídeo primario es vídeo normal que se visualiza en una pantalla, y el vídeo secundario es vídeo que se visualiza en una ventana menor en el vídeo primario. Además, la corriente de gráfica interactiva representa una pantalla interactiva que se genera arreglando los componentes GUI en una pantalla. La corriente de vídeo se codifica en el método de codificación de imagen móvil o por el aparato de codificación de imagen móvil mostrados en cada una de las modalidades, o en un método de codificación de imagen móvil o por un aparato de codificación de imagen móvil de conformidad con un estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1. La corriente de audio se codifica de conformidad con un estándar, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD, y PCM lineal.
Cada corriente incluida en los datos multiplexados se identifica por PID. Por ejemplo, 0x1011 se asigna a la corriente de vídeo que se usa "para vídeo de una película, 0x1100 a OxlllF se asignan a las corrientes de audio, 0x1200 a 0xl21F se asignan a las corrientes de gráfica de presentación, 0x1400 x 0xl41F se asignan a las corrientes de gráfica interactiva, OxlBOO a OxlBlF se asignan a las corrientes de vídeo que se usan para el vídeo secundario de la película, y OxlAOO a OxlAlF se asignan a las corrientes de audio que se usan para el audio secundario que se mezcla con el audio primario.
La FIG. 25 ilustra esquemáticamente cómo los datos se multiplexan. Primero, una corriente de vídeo ex235 compuesta de cuadros de vídeo y una corriente de audio ex238 compuesta de cuadros de audio se transforman en una corriente de paquetes PES ex236 y una corriente de paquetes PES ex239, y además en paquetes TS ex237 y paquetes TS ex240, respectivamente. De manera similar, los datos de una corriente de gráfica de presentación ex24i y datos de una corriente de gráfica interactiva ex244 se transforman en una corriente de paquetes PES ex242 y una corriente de paquetes PES ex245, y además en paquetes TS ex243 y paquetes TS ex246, respectivamente. Estos paquetes TS se multiplexan en una corriente para obtener datos multiplexados ex247.
La FIG. 26 ilustra cómo una corriente de vídeo se almacena en una corriente de paquetes PES con más detalle. La primera barra en la FIG. 26 muestra una corriente de cuadro de vídeo en una corriente de vídeo. La segunda barra muestra la corriente de paquetes PES. Como se indica por las flechas denotadas como yyl, yy2, yy3, y yy4 en la FIG. 26, la corriente de video se divide en imágenes como imágenes I, imágenes B, e imágenes P, cada una de las cuales es una unidad de presentación de de vídeo, y las imágenes se almacenan en una carga útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene un encabezado PES, y el encabezado PES almacena un Sello de Tiempo de Presentación (PTS, por sus siglas en inglés) que indica un tiempo de visualización de la imagen, y un Sello de Tiempo de Decodificación (DTS, por sus siglas en inglés) que indica un tiempo de decodificación de la imagen.
La FIG. 27 ilustra un formato de paquetes TS que finalmente se escriben en los datos multiplexados . Cada uno de los paquetes TS es un paquete de longitud fija de 188 byte que incluye un encabezado TS de 4 byte que tiene información, tal como PID para identificar una corriente y una carga útil TS de 184 byte para almacenar datos. Los paquetes PES se dividen, y almacenan en las cargas útiles TS, respectivamente. Cuando se usa un BD ROM, a cada uno de los paquetes TS se le da un TP_Extra_Header de 4 byte, resultando así en paquetes de fuente de 192 byte. Los paquetes de fuente se escriben en los datos multiplexados . El TP_Extra_Header almacena información tal como un Arrival_Time_Stamp (ATS) . El ATS muestra un tiempo de inicio de transferencia en el cual cada uno de los paquetes TS será transferido a un filtro PID.
Los paquetes de fuente se arreglan en los datos multiplexados como se muestra en la parte inferior de la FIG. 27. Los números que incrementan desde el encabezado de los datos multiplexados son llamados números de paquete de fuente (SPN, por sus siglas en inglés) .
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no solamente corriente de audio, vídeo> subtítulos y otros, sino también una Tabla de Asociación de Programa (PAT, por sus siglas en inglés) , una Tabla de Mapa de Programa (PMT, por sus siglas en inglés) , y una Referencia de Reloj de Programa (PCR, por sus siglas en inglés) . La PAT muestra qué indica una PID en una PMT usada en los datos multiplexados, y una PID de PAT por si sola se registra como cero. La PMT almacena PIDs de las corrientes de vídeo, audio, subtítulos y otros incluidos en los datos multiplexados, e información de atributo de las corrientes correspondientes a las PIDs. La PMT también tiene varios descriptores relacionados con los datos multiplexados. Los descriptores tienen información tal como información de control de copia que muestra si el copiado de los datos multiplexados se permite o no. La PCR almacena información de tiempo STC correspondiente a una ATS que muestra cuando el paquete PCR se transfiere a un decodificador, para lograr la sincronización entre un Reloj de Tiempo de Arribo (ATC, por sus siglas en inglés) que es un eje de tiempo de ATSs, y un Reloj de Tiempo de Sistema (STC, por sus siglas en inglés) que es un eje de tiempo de PTSs y DTSs .
La FIG. 28 ilustra la estructura de datos de la PMT en detalle. Un encabezado de PMT se coloca en la parte superior de la PMT. El encabezado de PMT describe la longitud de datos incluidos en la PMT y otros. Una pluralidad de descriptores relacionados con los datos multiplexados se coloca después del encabezado de PMT. La información tal como la información de control de copia se describe en los descriptores. Después de los descriptores, se coloca una pluralidad de piezas de información de corriente relacionada con las corrientes incluidas en los datos multiplexados. Cada pieza de información de corriente incluye descriptores de corriente cada uno describe información, tal como un tipo de corriente para identificar un códec de compresión de una corriente, una PID de corriente, e información de atributo de corriente (tal como una tasa de cuadro o una relación de aspecto) . Los descriptores de corriente son iguales en número con el número de corrientes en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban conjuntamente con los archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es información de manejo de los datos multiplexados como se muestra en la FIG. 29. Los archivos de información de datos multiplexados están en correspondencia uno a uno con los datos multiplexados, y cada uno de los archivos incluye información de datos multiplexados, información de atributo de corriente, y un mapa de entrada.
Como se ilustra en la FIG. 29, la información de datos multiplexados incluye una tasa de sistema, un tiempo de inicio de reproducción, y un tiempo de final de reproducción. La tasa de sistema indica la tasa de transferencia máxima a la cual un decodificador de objetivo de sistema que se describe más tarde transfiere los datos multiplexados a un filtro PID. Los intervalos de las ATSs incluidas en los datos multiplexados se establecen para no ser mayores que una tasa de sistema. El tiempo de inicio de reproducción indica el PTS en un cuadro de vídeo en _ la cabeza de los datos multiplexados. Un intervalo de un cuadro se agrega a un PTS en un cuadro de vídeo al final de los datos multiplexados, y el PTS se establece al tiempo final de reproducción.
Como se muestra en la FIG. 30, una pieza de información de atributo se registra en la información de atributo de corriente, para cada PID de cada corriente incluida en los datos multiplexados . Cada pieza de información de atributo tiene diferente información dependiendo si la corriente correspondiente es una corriente de vídeo, una corriente de audio, una corriente de gráfica de presentación, o una corriente de gráfica interactiva. Cada pieza de información de atributo de corriente de vídeo porta información que incluye qué tipo de códec de compresión se usa' para comprimir la corriente de vídeo, y la resolución, relación de aspecto y tasa de cuadro de las piezas de datos de imagen que se incluyen en la corriente de video. Cada pieza de información de atributo de corriente de audio porta información que incluye qué tipo de códec de compresión se usa para comprimir la corriente de audio, cuántos canales se incluyen en la corriente de audio, cuál idioma soporta la corriente de audio, y cuán alta es la frecuencia de muestreo. La información de atributo de corriente de vídeo y la información de atributo de corriente de audio se usan para la inicialización de un decodificador antes que el reproductor reproduzca la información.
En la presente modalidad, los datos multiplexados que se usan son de un tipo de corriente incluido en la PMT. Además, cuando los datos multiplexados se graban en un medio de grabación, se usa la información de atributo de corriente de vídeo incluida en la información de datos multiplexados. Más específicamente, el método de codificación de imagen móvil o el aparato de codificación de imagen móvil descritos en cada una de las modalidades incluye una etapa o una unidad para asignar información única que indica datos de vídeo generados por el método de codificación de imagen móvil o el aparato de codificación de imagen móvil en cada una de las modalidades, al tipo de corriente incluida en la PMT o la información de atributo de corriente de vídeo. Con la configuración, los datos de vídeo generados por el método de codificación de imagen móvil o el aparato de codificación de imagen móvil descritos en cada una de las modalidades se pueden distinguir de los datos de vídeo que son conforme a otro estándar.
Además, la FIG. 31 ilustra etapas del método de decodificación de imagen móvil de acuerdo con la presente modalidad. En la etapa exSlOO, el tipo de corriente incluido en la PMT o la información de atributo de corriente de vídeo incluida en la información de datos multiplexados se obtiene de los datos multiplexados. Luego, en la Etapa exSlOl, se determina si o no el tipo de corriente o la información de atributo de corriente de vídeo indica que los datos ¦ multiplexados se generan por el método de codificación de imagen móvil o el aparato de codificación de imagen móvil en cada una de las modalidades. Cuando se determina que el tipo de corriente o la información de atributo de corriente de vídeo indica que los datos multiplexados se generan por el método de codificación de imagen móvil o el aparato de codificación de imagen móvil en cada una de las modalidades, en la Etapa exS102, la decodificación se realiza por el método de decodificación de imagen móvil en cada una de las modalidades. Además, cuando el tipo de corriente o la información de atributo de corriente de vídeo indica conformidad con los estándares convencionales, tales como MPEG-2, MPEG-4 AVC, y VC-1, en la Etapa exS103, la decodificación se realiza por un método de decodificación de imagen móvil de conformidad con los estándares convencionales .
Como tal, la asignación de un nuevo valor único al tipo de corriente o la información de atributo de corriente de vídeo hace posible la determinación si o no el método de decodificación de imagen móvil o el aparato de decodificación de imagen móvil que se describe en cada una de las modalidades puede realizar la decodificación. Aún cuando los datos multiplexados que son conforme con un estándar diferente se introducen, un método de decodificación apropiado o aparato se puede seleccionar. Por consiguiente, llega a ser posible decodificar información sin algún error. Además, el método o aparato de codificación de imagen móvil, o el método o aparato de decodificación de imagen móvil en la presente modalidad se puede usar en los dispositivos y sistemas descritos anteriormente.
Modalidad 6 Cada uno del método de codificación de imagen móvil, el aparato de codificación de imagen móvil, el método de decodificación de imagen móvil, y el aparato de decodificación de imagen móvil en cada una de las modalidades típicamente se logra en la forma de un circuito integrado o un circuito Integrado de . Gran Escala (LSI) . Como un ejemplo del. LSI, la FIG. 124 ilustra una configuración del LSI ex500 que se hace en un chip. El LSI ex500 incluye elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508, y ex509 que se describen a continuación, y los elementos se conectan entre si a través de un bus ex510. La unidad de circuito de suministro de energía ex505 se activa suministrando a cada uno de los elementos energía cuando la unidad de circuito de suministro de energía ex505 se enciende.
Por ejemplo, cuando se realiza la codificación, el LSI ex500 recibe una señal AV de un micrófono exll7, una cámara exll3, y otros a través de 10 AV ex509 bajo control de una unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de corriente ex504, y una unidad de control de frecuencia de impulso ex512. La señal AV recibida se almacena temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo control de la unidad de control ex501, los datos almacenados se segmentan en porciones de datos de acuerdo con la cantidad de procesamiento y velocidad que se transmiten a una unidad de procesamiento de señal ex507. Luego, la unidad de procesamiento de señal ex507 codifica una señal de audio y/o una señal dé vídeo. Aquí, la codificación de la señal de vídeo es la codificación descrita en cada una de las modalidades. Además, la unidad de procesamiento de señal ex507 algunas veces multiplexa los datos de audio codificados y los datos de vídeo codificados, y una 10 de corriente ex506 proporciona la salida de datos multiplexados . Los datos multiplexados proporcionados se transmiten a la estación base exl07, o se escriben en el medio de grabación ex215. Cuando los conjuntos de datos son multiplexados, los datos se deben almacenar temporalmente en el búfer ex508 de modo que los conjuntos de datos se sincronizar entre sí^ Aunque la memoria ex511 es un elemento exterior del LSI ex500, se puede incluir en el LSI ex500. El búfer ex508 no se limita a un búfer, puede se puede componer de búferes. Además, el LSI ex500 se puede hacer en un chip o una pluralidad de chips .
Además, aunque la unidad de control ex5l0 incluye la CPU ex502, el controlador de memoria ex503, el controlador de corriente ex504, la unidad de control de frecuencia de impulso ex512, la configuración de la unidad de control ex510 no se limita a tal. Por ejemplo, la unidad de procesamiento de señal ex507 puede incluir adicionalmente una CPU. La inclusión de otra CPU en la unidad de procesamiento de señal ex507 puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 puede servir o ser parte de la unidad de procesamiento de señal ex507, y por ejemplo, puede incluir una unidad de procesamiento de señal de audio.
En tal caso, la unidad de control ex501 incluye la unidad de procesamiento de señal ex507 o la CPU ex502 que incluye una parte de la unidad de procesamiento de señal ex507.
El nombre usado aquí es LSI, pero también se puede llamar IC, sistema LSI, súper LSIS, o ultra LSI dependiendo del grado de integración.
Además, las maneras de lograr la integración no se limitan a LSI , y un circuito especial o un procesador de propósito general, etcétera también se puede lograr con la integración. El Arreglo de Compuerta de Campo Programable (FPGA, por sus siglas en inglés) que se puede programar después de la manufactura de LSIs o un procesador configurable que permite la re-configuración de la conexión o configuración de un LSI se pueden usar para el mismo propósito.
En el futuro, con el avance en la tecnología de semiconductores, una tecnología de nueva marca puede reemplazar el LSI. Los bloques funcionales se pueden integrar usando tal tecnología. La posibilidad es que la presente invención se aplica a biotecnología.
Modalidad 7 Cuando se decodifican los datos de vídeo generados en el método de codificación de imagen móvil o por el aparato de codificación de imagen móvil descritos en cada una de las modalidades, en comparación cuando se decodifican los datos de vídeo que son conforme con un estándar convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, la cantidad de procesamiento probablemente incremente. Por consiguiente, el LSI ex500 necesita ser establecido con una frecuencia de impulso mayor que aquella de la CPU ex502 que se usa cuando sé decodifican los datos de vídeo de conformidad con el estándar convencional. Sin embargo, cuando la frecuencia de impulso se establece mayor, hay un problema que el consumo de energía incrementa .
Para resolver el problema, el aparato de decodificación de imagen móvil, tal como la televisión ex300 y el LSI ex500 se configura para determinar con cuál estándar los datos de vídeo son conforme, y conmutar entre las frecuencias de impulso de acuerdo con el estándar determinado. La FIG. 33 ilustra una configuración ex800 en la presente modalidad. Una unidad de conmutación de frecuencia de impulso ex803 establece una frecuencia de impulso con una frecuencia de impulso mayor cuando los datos de vídeo se generan por el método de codificación de imagen móvil o el aparato de codificación de imagen móvil descrito en cada una de las modalidades, Luego la unidad de conmutación de frecuencia de impulso ex803 instruye a una unidad de procesamiento de decodificación ex801 que ejecuta el método de decodificación de imagen móvil descrito en cada una de las modalidades para decodificar los datos de vídeo. Cuando los datos de vídeo son conforme con el estándar convencional, la unidad de conmutación de frecuencia de impulso ex803 establece una frecuencia de impulso con una frecuencia de impulso inferior que aquella de los datos de vídeo generados por el método de codificación de imagen móvil o el aparato de codificación de imagen móvil descritos en cada una de las modalidades. Luego, la unidad de conmutación de frecuencia de impulso ex803 instruye a la unidad de procesamiento de decodificación ex802 que sea conforme con el estándar convencional para decodificar los datos de vídeo.
Más específicamente, la unidad de conmutación de frecuencia de impulso ex803 incluye la CPU ex502 y la unidad de control de frecuencia de impulso ex512 en la FIG. 32. Aquí cada una de la unidad de procesamiento de decodificación ex80.1 que ejecuta el método de decodificación de imagen móvil descrito en . cada una de las modalidades y la unidad de procesamiento de decodificación ex802 qué es conforme con el estándar convencional corresponde con la unidad de procesamiento de señal ex507 en la FIG. 32. La CPU ex502 determina con cual estándar los datos de vídeo son conforme. Luego, la unidad de control de frecuencia de impulso ex512 determina una frecuencia dé impulso con base en una señal de la SPU ex502. Además, la unidad de procesamiento de señal ex507 decodifica los datos de vídeo con base en la señal de la CPU ex502. Por ejemplo, la información de identificación descrita en la Modalidad 5 probablemente se usa para identificar datos de vídeo. La información de identificación no se limita a una descrita en la Modalidad 5 pero puede ser cualquier información siempre y cuando la información indique con cuál estándar los datos de vídeo son conformes . Por ejemplo, se puede determinar cuáles datos de vídeo estándar son conformes con base en una señal externa para determinar que los datos de vídeo se usan para una televisión o un disco, etc., la determinación se puede hacer con base en tal señal externa. Además, la CPU ex502 selecciona una frecuencia de impulso con base en, por ejemplo, una tabla de consulta en la cual los estándares de los datos de vídeo se asocian con las frecuencias de impulso como se muestra en la FIG. 35. La frecuencia de impulso se puede seleccionar almacenando la tabla de consulta en el búfer ex508 y en una memoria interna de un LSI, y con referencia a la tabla de consulta por la CPU ex502.
La FIG. 34 ilustra las etapas para ejecutar un método en la presente modalidad. Primero, en la Etapa exS200, la unidad de procesamiento de señal ex507 obtiene información de identificación de los datos multiplexados . Luego, en la Etapa exS201, la CPU ex502 determina si o no los datos de vídeo se generan por el método de codificación y el aparato de codificación descrito en cada una de las modalidades, con base en la información de identificación. Cuando los datos de vídeo se generan por el método de codificación de imagen móvil y el aparato de codificación de imagen móvil descritos en cada una de las modalidades, en la Etapa exS202, la CPU ex502 transmite una señal para establecer la frecuencia de impulso a una frecuencia de impulso mayor con la unidad de control de frecuencia de impulso ex512. Luego, la unidad de control de frecuencia de impulso ex512 establece la frecuencia de impulso con la frecuencia de impulso mayor. Por otra parte, cuando la información de identificación indica que los datos de video son conformes con el estándar convención, tal como MPEG-2, PEG-4 AVC, y VC-1, en la Etapa exS203, la CPU ex502 transmite una señal para establecer la frecuencia de impulso con una frecuencia de impulso menor a la unidad de control de frecuencia de impulso ex512. Luego, la unidad de control de frecuencia de impulso ex512 establece a la frecuencia de impulso con la frecuencia de impulso inferior que en el caso donde los datos de vídeo se generan por el método de . codificación de imagen móvil y el aparato de codificación de imagen móvil descrito en cada una de las modalidades.
Además, junto con la conmutación de las frecuencias de impulso, el efecto de conservación de energía se puede mejorar cambiando el voltaje que se aplica al LSI ex500 o un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de impulso se establece menor, el voltaje que se aplica al Lsi EX500 o el aparato que incluye LSI ex500 probablemente se establece a un voltaje inferior aquel en el caso donde la frecuencia de impulso se establece mayor.
Además, cuando la cantidad de procesamiento para decodificar es grande, la frecuencia de impulso se puede establecer mayor, y cuando la cantidad de procesamiento para la decodificación es menor, la frecuencia de impulso se puede establecer menor como el método para establecer la frecuencia de impulso. Por consiguiente, el método de establecimiento no se limita a los descritos en la presente. Por ejemplo, cuando la cantidad de procesamiento para decodificar datos de vídeo de conformidad con MPEG-4 AVC es mayor que la cantidad de procesamiento para decodificar datos de vídeo generados por el método de codificación de imagen móvil y el aparato de codificación de imagen móvil descrito en cada una de las modalidades, la frecuencia de impulso probablemente se establece en orden inverso con el establecimiento descrito anteriormente .
Además, el método para establecer la frecuencia de impulso no se limita al método para establecer la frecuencia de impulso menor. Por ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el método de codificación de imagen móvil y el aparato de codificación de imagen móvil descritos en cada una de las modalidades, el voltaje a ser aplicado al LSI ex500 o el aparato que incluye el LSI ex500 probablemente se establece más alto. Cuando la información de identificación indica que los datos de vídeo son conforme al estándar convencional, tales como MPEG-2, MPEG-4 AVC, y VC-1, el voltaje a ser aplicado al LSI ex500 o el aparato que incluye el LSI ex500 probablemente se establece más bajo. Como otro ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el método de codificación de imagen móvil y el aparato de codificación de imagen móvil descritos en cada una de las modalidades, el impulso de la CPU ex502 probablemente no tiene que ser suspendido. Cuando la información de identificación indica que los datos de vídeo son conforme al estándar convencional, tales como MPEG-2, MPEG-4 AVC, y VC-1, el impulso de la CPU ex502 probablemente se suspende en un tiempo dado debido a que la CPU ex502 tiene capacidad de procesamiento extra. Aún cuando la información de identificación indica que los datos de vídeo se generan por el método de codificación de imagen móvil y el aparato de codificación de imagen móvil descritos en cada una de las modalidades, en el caso donde la CPU ex502 tiene capacidad de procesamiento extra, el impulso de la CPU ex502 probablemente se suspende en un tiempo dado. En tal caso, el tiempo de suspensión probablemente se establece más corto que aquel en el caso donde la información de identificación indica que los datos de vídeo son conforme al estándar convencional tales como MPEG-2, MPEG-4 AVC, y VC-1.
Por consiguiente, el efecto de conservación, de energxa se puede mejorar conmutando entre las frecuencias de impulso de conformidad con el estándar al cual los datos de vídeo son conforme. Además, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se impulsa usando una batería, la vida de la batería se puede extender con el efecto de conservación de energía.
Modalidad 8 Existen casos donde una pluralidad de datos de vídeo que son conforme a diferentes estándares, se proporciona a los dispositivos y sistemas, tal como una televisión y un teléfono celular. Para habilitar la decodificación de la pluralidad de datos de vídeo que son conforme a los diferentes estándares, la unidad de procesamiento de señal ex507 del LSI ex500 necesita ser conforme con los diferentes estándares. Sin embargo, los problemas del incremento de la escala del circuito del LSI ex500 e incremento del costo surgen con el uso individual de las unidades de procesamiento de señal ex507 que son conforme a los estándares respectivos.
Para resolver el problema, lo que se concibió es una configuración en la cual la unidad de procesamiento de decodificación para implementar el método de decodificación de imagen móvil descrito en cada una de las modalidades y . la unidad de procesamiento de decodificación que es conforme con el estándar convencional, tal como MPEG-2, MPEG- AVC, y VC-1 son parcialmente compartidas. Ex900 en la FIG. 36A muestra un ejemplo de la configuración. Por ejemplo, el método de decodificación de imagen móvil descrito en cada una de las modalidades y el método de decodificación de imagen móvil que es conforme con MPEG-4 AVC tienen, parcialmente en común, los detalles de procesamiento, tal como codificación por entropía, cuantificación inversa, filtración de desbloqueo, y predicción de movimiento compensado. Los detalles del procesamiento que se comparte probablemente incluyen el uso de una unidad de procesamiento de decodificación ex902 que es conforme a MPEG-4 AVC. En contraste, una unidad de procesamiento de decodificación especializada ex901 se usa probablemente para otro procesamiento único a un aspecto de la presente invención. Puesto que el aspecto de la presente invención se caracteriza por el proceso de filtración realizado en el límite entre las regiones divididas en particular, por ejemplo, la unidad de procesamiento de decodificación especializada ex901 se usa para el proceso de filtración realizado en el límite entre las regiones divididas. De otra manera, la unidad de procesamiento de decodificación probablemente se comparte para uno de la decodificación por entropía, filtración de desbloqueo, y compensación de movimiento, todos los procesamientos. La unidad de procesamiento de decodificación para implementar el método de decodificación de imagen móvil descrito en cada una de las modalidades se puede compartir para que el procesamiento sea compartido, y una unidad de procesamiento de decodificación especializada se puede usar para procesamiento único a aquel de MPEG-4 AVC.
Además, exlOOO en de la FIG. 36B muestra otro ejemplo en el cual el procesamiento se comparte parcialmente. Este ejemplo usa una configuración que incluye una unidad de procesamiento de decodificación especializada exlOOl que soporta el procesamiento único de la presente invención, una unidad de procesamiento de decodificación especializada exl002 que soporta el procesamiento único a otro estándar convencional, y una unidad de procesamiento de decodificación exl003 que soporta el procesamiento a ser compartido entre el método de decodificación de imagen móvil de acuerdo con la presente invención y el método de decodificación de imagen móvil convencional. Aquí, las unidades de procesamiento de decodificación especializadas exlOOl y exl002 no son necesariamente especializadas para el procesamiento de acuerdo con la presente invención y el procesamiento del estándar convencional, respectivamente, y pueden ser capaces de implementar el procesamiento general. Además, la configuración de la presente modalidad se puede implementar por el LSI ex500.
Como tal, la reducción de la escala del circuito de un LSI y reducción del costo son posibles compartiendo la unidad de procesamiento de decodificación para que el procesamiento sea compartido entre el método de decodificación de imagen móvil de acuerdo con la presente invención y el método de decodificación de imagen móvil de conformidad con el estándar convencional.
Aplicabilidad Industrial El método de codificación de imagen y el método de decodificación de imagen de acuerdo con la presente invención logran el efecto de incrementar la eficiencia de codificación, y por consiguiente se pueden usar para una cámara digital, una televisión digital, una grabadora de disco Blu-ray (BD) , y similares.
Lista de Signos de Referencia 10 Bloque actual 20 Píxel de referencia 30,40 Bloque colindante 100 Aparato de codificación de imagen 110 Unidad de codificación 111 Unidad de sustracción 112 Unidad de transformada de frecuencia 113 Unidad de cuantificación 114 Unidad de determinación de modo de intra predicción 115 Unidad de estimación de movimiento 116, 316 Unidad de intra predicción 117 , 317 Unidad de compensación de movimiento 118, 119, 315, 318 Conmutador 120 Unidad de decodificación 121, 311 Unidad de cuantificación inversa 122, 312 Unidad de transformada de frecuencia inversa 123, 313 Unidad de adición 130 Unidad de salida 131, 520 Unidad de codificación de longitud variable 140, 510 Unidad de establecimiento 141, 321 Primera unidad de estimación de modo de predicción 142, 322 Segunda unidad de estimación de modo de predicción 143, 515 Unidad de generación de información de modo 150, 314 Memoria de cuadro 160 Memoria de imagen de referencia 170, 340 Unidad de control 211, 411, 511, 623 Memoria de almacenamiento de modo de predicción 212, 412 Primera unidad de derivación de estimación de modo de predicción 213, 413 Segunda unidad de derivación de estimación de modo de predicción 300 Unidad de decodificación de imagen 310 Unidad de decodificación 320, 620 Unidad de restauración 323, 621 Unidad de determinación de señal 330, 610 Unidad de decodificación de longitud variable 1401, 1501 Unidad de determinación de vector de borde 1803, 1804 Borde Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (16)

REIVINDICACIONES Habiéndose descrito la invención como antecede, se reclama como propiedad lo contenido en las siguientes Reivindicaciones :
1. Un método de decodificación de imagen para decodificar datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción, caracterizado porque el método de decodificación de imagen comprende: restaurar un modo de predicción seleccionado usado en la predicción en un momento de codificación, con base en la información' de modo que indica un resultado de estimación del modo de predicción ejecutado en el momento de codificación; y decodificar un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado, en donde la restauración incluye: determinar uno de los modos de predicción como un primer modo de predicción estimado; determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y restaurar el modo de predicción seleccionado basado en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado.
2. El método de decodificación de imagen de conformidad con la reivindicación 1, caracterizado porque la información de modo incluye al menos información de marca que indica un resultado de comparación entre el modo de predicción seleccionado y cada uno del primer modo de predicción estimado y el segundo modo de predicción estimado, y en la restauración incluida en la restauración de un modo de predicción seleccionado, (i) el primer modo de predicción estimado se determina como el modo de predicción seleccionado cuando la información de marca indica que el modo de predicción seleccionado concuerda con el primer modo de predicción estimado, (ii) el segundo modo de predicción estimado se determina como el modo de predicción seleccionado cuando la información de marca indica que el modo de predicción seleccionado concuerda con el segundo modo de predicción estimado, y (iii) el modo de predicción seleccionado se restaura con base en la información que adicionalmente se incluye en la información de modo y especifica el modo de predicción seleccionado, cuando la información de marca indica que el modo de predicción seleccionado no concuerda con cada uno del primer modo de predicción estimado y el segundo modo de predicción estimado.
3. El método de decodificación de imagen de conformidad con una de las reivindicaciones 1 y 2, caracterizado porque uno del primer modo de predicción estimado y el segundo modo de predicción estimado indica predicción de DC/borde .
4. El método de decodificación de imagen de conformidad con cualquiera de las reivindicaciones 1 a 3, caracterizado porque en la determinación de un primer modo de predicción estimado, un modo de predicción asignado con un número de índice que es uno más pequeño de los números de índice asignados a los modos de predicción de bloques previamente decodificados adyacentes al bloque actual se determina como el primer modo de predicción.
5. El método de decodificación de imagen de conformidad con cualquiera de las reivindicaciones 1 a 4, caracterizado porque en la determinación de un segundo modo de predicción estimado, (i) el segundo modo de predicción estimado se determina como un modo de predicción de DC cuando el primer modo de predicción estimado indica un modo plano, y (ii) el segundo modo de predicción estimado se determina como el modo plano cuando el primer modo de predicción estimado no indica el modo plano.
6. Un método de codificación de imagen para codificar datos de imagen para cada bloque, caracterizado porque comprende : codificar un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado, seleccionado de entre candidatos de modo de predicción predeterminado; decodificar el bloque actual codificado para generar un bloque decodificado; determinar uno de los modos de predicción como un primer modo de predicción estimado; determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y producir el bloque actual codificado e información de modo que se usa para restaurar el modo de predicción seleccionado, en donde la producción incluye generar la información de modo con base en el primer modo de predicción estimado, el segundo modo de predicción estimado, y el modo de predicción seleccionado.
7. El método de codificación de imagen de conformidad con la reivindicación 6, caracterizado porque en la generación de la información de modo, cuando el modo de predicción seleccionado concuerda con uno del primer modo de predicción estimado y el segundo modo de predicción estimado, la información de marca que indica si el modo de predicción seleccionado concuerda con el primer modo de predicción estimado o el segundo modo de predicción estimado se genera como la información de modo, y cuando el modo de predicción seleccionado no concuerda con cada uno del primer modo de predicción estimado y el segundo modo de predicción estimado, la información de modo se genera para incluir (i) información de marca que indica que el modo de predicción seleccionado no concuerda con cada uno del primer modo de predicción estimado y el segundo modo de predicción estimado y (ii) información que especifica el modo de predicción seleccionado.
8. El método de codificación de imagen de conformidad con una de las reivindicaciones 6 y 7, caracterizado porque uno del primer modo de predicción estimado y el segundo modo de predicción estimado indica predicción de DC/borde .
9. El método de codificación de imagen de conformidad con cualquiera de las reivindicaciones 6 a 8, caracterizado porque en la determinación de un primer modo de predicción estimado, un modo de predicción asignado con un número de índice que es uno más pequeño de números de índices asignados a modos de predicción de bloques previamente codificados adyacentes al bloque actual se determina como el primer modo de predicción.
10. El método de codificación de imagen de conformidad con cualquiera de las reivindicaciones 6 a 9, caracterizado porque en la determinación de un segundo modo de predicción estimado, (i) el segundo modo de predicción estimado se determina como un modo de predicción de DC cuando el primer modo de predicción estimado indica un modo plano, y (ii) el segundo modo de predicción estimado se determina como el modo plano cuando el primer modo de predicción estimado no indica el modo plano.
11. Un aparato de decodificación de imagen que decodifica los datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción, caracterizado porque comprende : una unidad de restauración configurada para restaurar un modo de predicción seleccionado usado en la predicción en un momento de codificación, con base en la información de modo que indica un resultado de estimación del modo de predicción ejecutado en el momento de codificación; y una unidad de decodificación configurada para decodificar un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado, en donde la unidad de restauración incluye: una primera unidad de estimación de modo de predicción configurada para determinar uno de los modos de predicción como un primer modo de predicción estimado; una segunda unidad de estimación de modo de predicción configurada para determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y una unidad de restauración de modo de predicción configurada para restaurar el modo de predicción seleccionado con base en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado .
12. Un aparato de codificación de imagen que codifica datos de imagen para cada bloque, caracterizado porque el aparato de codificación de imagen comprende: una unidad de codificación configurada para codificar un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado, seleccionado de entre los candidatos de modo de predicción predeterminado; una unidad de decodificación configurada para decodificar el bloque actual codificado para generar un bloque decodificado; una primera unidad de estimación de modo de predicción configurada para determinar uno de los modos de predicción como un primer modo de predicción estimado; una segunda unidad de estimación de modo de predicción configurada para determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y una unidad de salida configurada para producir el bloque de corriente codificado e información de modo para ser usada para restaurar el modo de predicción seleccionado, en donde la unidad de salida incluye una unidad de generación de información de modo configurada para generar la información de modo con base en el primer modo de predicción estimado, el segundo modo de predicción estimado, y el modo de predicción seleccionado.
13. Un programa para decodificar datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción, caracterizado porque el programa causa que una computadora ej ecute : la restauración de un modo de predicción seleccionado usado en la predicción en el momento de codificación, con base en la información de modo que indica un resultado de estimación del modo de predicción ejecutado en el momento de codificación; y la decodificación de un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado, en donde la restauración incluye: determinar uno de los modos de predicción como un primer modo de predicción estimado,- determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y restaurar el modo de predicción seleccionado con base en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado.
14. Un programa para codificar datos de imagen para cada bloque, caracterizado porque el programa causa que una ejecute: la codificación de un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado, seleccionado de entre los candidatos de modo de predicción predeterminado; la decodificación del bloque actual codificado para generar un bloque decodificado; la determinación de uno de los modos de predicción como un primer modo de predicción estimado; la determinación, como un segundo modo de predicción estimado, de otro de los modos de predicción que es diferente del primer modo de predicción estimado; y la producción del bloque actual codificado e información de modo que se usa para restaurar el modo de predicción seleccionado, en donde la producción incluye generar la información de modo basada en el primer modo de predicción estimado, el segundo modo de predicción de estimado, y el modo de predicción seleccionado.
15. Un circuito integrado que decodifica datos de imagen codificados generados codificando datos de imagen para cada bloque de acuerdo con la predicción basada en un modo de predicción, caracterizado porque comprende: una unidad de restauración configurada para restaurar un modo de predicción seleccionado usado en la predicción en un momento de codificación, con base en la información de modo que indica un resultado de la estimación del modo de predicción ejecutado en el momento de codificación; y una unidad de decodificación configurada para decodificar un bloque actual incluido en los datos de imagen codificados para generar un bloque decodificado, de acuerdo con la predicción basada en el modo de predicción seleccionado, en donde la unidad de restauración incluye: una primera unidad de estimación de modo de predicción configurada para determinar uno de los modos de predicción como un primer modo de predicción estimado; una segunda unidad de estimación de modo de predicción configurada para determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que es diferente del primer modo de predicción estimado; y una unidad de restauración de modo de predicción configurada para restaurar el modo de predicción seleccionado con base en la información de modo, el primer modo de predicción estimado, y el segundo modo de predicción estimado.
16. Un circuito integrado que codifica datos de imagen para cada bloque, caracterizado porque comprende: una unidad de codificación configurada para codificar un bloque actual incluido en los datos de imagen, de acuerdo con la predicción basada en un modo de predicción seleccionado, seleccionado de entre candidatos de modo de predicción predeterminado; una unidad de decodificación configurada para decodificar el bloque actual codificado para generar un bloque decodificado ; una primera unidad de estimación de modo de predicción configurada para determinar uno de los modos de predicción como un primer modo de predicción estimado; una segunda unidad de estimación de modo de predicción configurada para determinar, como un segundo modo de predicción estimado, otro de los modos de predicción que ¦ es diferente del primer modo de predicción estimado; y una unidad de salida configurada para producir el bloque actual codificado e información de modo para ser usada para restaurar el modo de predicción seleccionado, en donde la unidad de salida incluye una unidad de generación de información de modo configurada para generar la información de modo con base en el primer modo de predicción estimado, el segundo modo de predicción estimado, y el modo de predicción seleccionado.
MX2013001661A 2010-09-30 2011-09-28 Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen, programa, y circuito integrado. MX2013001661A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010222996 2010-09-30
PCT/JP2011/005444 WO2012042860A1 (ja) 2010-09-30 2011-09-28 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路

Publications (1)

Publication Number Publication Date
MX2013001661A true MX2013001661A (es) 2013-03-21

Family

ID=45892349

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013001661A MX2013001661A (es) 2010-09-30 2011-09-28 Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen, programa, y circuito integrado.

Country Status (10)

Country Link
US (5) US20130136178A1 (es)
EP (2) EP3383046A1 (es)
JP (3) JP5395274B2 (es)
KR (3) KR101966605B1 (es)
CN (2) CN107682702B (es)
CA (1) CA2806511C (es)
ES (1) ES2683793T3 (es)
MX (1) MX2013001661A (es)
PL (1) PL2624564T3 (es)
WO (1) WO2012042860A1 (es)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077928A1 (ko) 2010-12-07 2012-06-14 한국전자통신연구원 초고해상도 영상을 부호화하는 장치 및 방법, 그리고 복호화 장치 및 방법
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
CN103220506B (zh) 2012-01-19 2015-11-25 华为技术有限公司 一种编解码方法和设备
JPWO2014054267A1 (ja) * 2012-10-01 2016-08-25 パナソニックIpマネジメント株式会社 画像符号化装置及び画像符号化方法
US20180176595A1 (en) * 2015-05-12 2018-06-21 Samsung Electronics Co., Ltd. Image decoding method for performing intra prediction and device thereof, and image encoding method for performing intra prediction and device thereof
WO2018054269A1 (en) * 2016-09-22 2018-03-29 Mediatek Inc. Method and apparatus for video coding using decoder side intra prediction derivation
WO2019000443A1 (zh) * 2017-06-30 2019-01-03 华为技术有限公司 一种帧间预测的方法及装置
WO2019035658A1 (ko) * 2017-08-17 2019-02-21 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN116405672A (zh) * 2017-12-22 2023-07-07 数码士有限公司 视频信号处理方法和设备
CN109996066A (zh) * 2017-12-29 2019-07-09 富士通株式会社 图像编码装置,图像解码装置和电子设备
JP7154770B2 (ja) * 2018-01-31 2022-10-18 株式会社豊田自動織機 ウォータージェット織機の水噴射装置
WO2020054060A1 (ja) * 2018-09-14 2020-03-19 株式会社ソシオネクスト 動画像符号化方法及び動画像符号化装置
EP3855739A4 (en) * 2018-09-19 2021-07-28 Fujitsu Limited VIDEO CODING DEVICE, VIDEO CODING METHOD, VIDEO CODING PROGRAM, VIDEO DECODING DEVICE, VIDEO DECODING METHOD AND VIDEO DECODING PROGRAM
JP7323014B2 (ja) * 2018-09-19 2023-08-08 富士通株式会社 映像復号方法
US10848763B2 (en) * 2018-11-14 2020-11-24 Tencent America LLC Method and apparatus for improved context design for prediction mode and coded block flag (CBF)
CN116456081A (zh) 2018-12-25 2023-07-18 Oppo广东移动通信有限公司 解码预测方法、装置及计算机存储介质
KR20210005373A (ko) * 2019-07-03 2021-01-14 삼성디스플레이 주식회사 압축 영상 비트스트림을 복호화하여 영상을 표시하는 표시 장치, 및 표시 장치의 구동 방법
CN114786012B (zh) * 2022-06-16 2022-09-02 深圳比特微电子科技有限公司 一种码率控制方法、装置和可读存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI116819B (fi) 2000-01-21 2006-02-28 Nokia Corp Menetelmä kuvien lähettämiseksi ja kuvakooderi
US7289672B2 (en) 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7386048B2 (en) 2002-05-28 2008-06-10 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode organization
US7236524B2 (en) 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
ES2530204T3 (es) 2002-05-28 2015-02-27 Sharp Kabushiki Kaisha Método y sistemas para la estimación, comunicación y organización de modos de intra-predicción de imágenes
KR20050112445A (ko) * 2004-05-25 2005-11-30 경희대학교 산학협력단 예측 부호화/복호화 장치, 예측 부호화/복호화 방법 및 그방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능한기록매체
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
DE102005051091A1 (de) * 2005-10-25 2007-04-26 Siemens Ag Verfahren und Vorrichtungen zur Bestimmung und Rekonstruktion eines prädizierten Bildbereichs
KR100750145B1 (ko) * 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP4908180B2 (ja) * 2006-12-20 2012-04-04 株式会社東芝 動画像符号化装置
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
KR101306834B1 (ko) 2008-09-22 2013-09-10 에스케이텔레콤 주식회사 인트라 예측 모드의 예측 가능성을 이용한 영상 부호화/복호화 장치 및 방법
KR101567974B1 (ko) 2009-01-05 2015-11-10 에스케이 텔레콤주식회사 블록 모드 부호화/복호화 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
JP5158003B2 (ja) * 2009-04-14 2013-03-06 ソニー株式会社 画像符号化装置と画像符号化方法およびコンピュータ・プログラム
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
US20110317757A1 (en) * 2010-06-25 2011-12-29 Qualcomm Incorporated Intra prediction mode signaling for finer spatial prediction directions
US9172968B2 (en) 2010-07-09 2015-10-27 Qualcomm Incorporated Video coding using directional transforms

Also Published As

Publication number Publication date
KR101792308B1 (ko) 2017-10-31
JP5436719B1 (ja) 2014-03-05
US20130136178A1 (en) 2013-05-30
CN103053162A (zh) 2013-04-17
EP2624564A1 (en) 2013-08-07
PL2624564T3 (pl) 2018-11-30
US20210084306A1 (en) 2021-03-18
EP3383046A1 (en) 2018-10-03
KR20130124285A (ko) 2013-11-13
EP2624564A4 (en) 2015-06-24
JP5728062B2 (ja) 2015-06-03
KR20180049267A (ko) 2018-05-10
JP2014042309A (ja) 2014-03-06
ES2683793T3 (es) 2018-09-27
EP2624564B1 (en) 2018-05-30
US11206409B2 (en) 2021-12-21
US9756338B2 (en) 2017-09-05
WO2012042860A1 (ja) 2012-04-05
JPWO2012042860A1 (ja) 2014-02-06
KR20170065668A (ko) 2017-06-13
CA2806511C (en) 2018-09-04
KR101857935B1 (ko) 2018-05-14
CN107682702B (zh) 2020-08-11
US10887599B2 (en) 2021-01-05
JP2014042310A (ja) 2014-03-06
US20160353114A1 (en) 2016-12-01
KR101966605B1 (ko) 2019-04-05
US20140044169A1 (en) 2014-02-13
CA2806511A1 (en) 2012-04-05
US10306234B2 (en) 2019-05-28
US20150071342A1 (en) 2015-03-12
CN103053162B (zh) 2017-12-08
CN107682702A (zh) 2018-02-09
JP5395274B2 (ja) 2014-01-22

Similar Documents

Publication Publication Date Title
MX2013001661A (es) Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen, programa, y circuito integrado.
AU2018203520B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2016202666B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2011353415B2 (en) Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
AU2012277160B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device
AU2012291454B2 (en) Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
AU2012260302B2 (en) Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
AU2012264031B2 (en) Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
AU2017201384B2 (en) Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
MX2013010231A (es) Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2015002891A (es) Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen y aparato de codificacion y decodificacion de imagen.
AU2013254214B2 (en) Encoding method, decoding method, encoding apparatus, decoding apparatus, and encoding and decoding apparatus
MX2012012443A (es) Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes.
MX2013012124A (es) Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
MX2015002890A (es) Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX2015002889A (es) Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX2013009864A (es) Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013014733A (es) Metodo de codificacion de imagenes de video, dispositivo de codificacion de imagenes de video, metodo de decodificacion de imagenes de video, dispositivo de decodificacion de imagenes de video y dispositivo de codificacion/decodificacion de imagenes de video.
MX2013001167A (es) Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX2013015089A (es) Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imágenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013013777A (es) Metodo de codificacion de imagenes, aparato de codificacion de imagenes, metodo de decodificacion de imagenes y aparato de decodificacion de imagenes.
MX2015000630A (es) Metodo decodificador de imagen, metodo codificador de imagen, aparato decodificador de imagen, aparato codificador de imagen, y aparato codificador y decodificador de imagen.
MX2013001659A (es) Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, y aparato de decodificacion de imagen.

Legal Events

Date Code Title Description
FG Grant or registration
GB Transfer or rights
PD Change of proprietorship

Owner name: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AME