RU2658891C2 - Device and method for image processing - Google Patents

Device and method for image processing Download PDF

Info

Publication number
RU2658891C2
RU2658891C2 RU2014121707A RU2014121707A RU2658891C2 RU 2658891 C2 RU2658891 C2 RU 2658891C2 RU 2014121707 A RU2014121707 A RU 2014121707A RU 2014121707 A RU2014121707 A RU 2014121707A RU 2658891 C2 RU2658891 C2 RU 2658891C2
Authority
RU
Russia
Prior art keywords
image
circuit
motion compensation
prediction
motion
Prior art date
Application number
RU2014121707A
Other languages
Russian (ru)
Other versions
RU2014121707A (en
Inventor
Одзи НАКАГАМИ
Ёити ЯГАСАКИ
Original Assignee
Сони Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сони Корпорейшн filed Critical Сони Корпорейшн
Publication of RU2014121707A publication Critical patent/RU2014121707A/en
Application granted granted Critical
Publication of RU2658891C2 publication Critical patent/RU2658891C2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

FIELD: electrical communication engineering.
SUBSTANCE: invention relates to image processing. Image processing apparatus is disclosed, comprising: a circuit configured to decode an encoded image; performing the first motion compensation by using the first motion vector of the encoded image to generate the first motion compensation image; performing a second motion compensation by using the second motion vector of the encoded image to generate a second motion compensation image; generating a predicted image by performing the filtering processing and summing processing on the first motion compensation image and the second first motion compensation image.
EFFECT: technical result is to enable the generation of a predicted high-precision image by a small amount of control data.
12 cl, 30 dwg

Description

Область техники, к которой относится изобретениеFIELD OF THE INVENTION

Настоящее изобретение относится к устройству и способу обработки изображений, и, в частности, к устройству и способу обработки изображений, которые позволяют генерировать предсказанное изображение высокой точности без увеличения объема обработки.The present invention relates to a device and method for processing images, and, in particular, to a device and method for processing images that can generate a predicted image with high accuracy without increasing the amount of processing.

Уровень техникиState of the art

Обычно в качестве способов кодирования при обработке динамического изображения используются способы кодирования при помощи компенсации движения, такие как MPEG (стандарт Группы экспертов по кинематографии) или Н.26х, и ортогонального преобразования, такого как дискретное косинусное преобразование, преобразование Карунена-Лоэва или вейвлетное преобразование. В этих способах кодирования динамического изображения объем кода уменьшается за счет использования корреляции в пространственном направлении и временном направлении среди характеристик сигнала вводимого изображения, над которым должно выполняться кодирование.Typically, motion compensation coding methods such as MPEG (Cinematography Expert Group standard) or H.26x and orthogonal transforms such as discrete cosine transforms, Karunen-Loeve transforms or wavelet transforms are commonly used as coding methods for processing dynamic images. In these methods of encoding a dynamic image, the amount of code is reduced by using correlation in the spatial direction and the time direction among the characteristics of the input image signal over which encoding is to be performed.

Например, в способе Н.264 используется одно- или двунаправленное предсказание для генерирования промежуточного кадра, который является кадром, служащим целью межкадрового предсказания (межкадрового предсказания), с помощью корреляции во временном направлении. Межкадровое предсказание генерирует предсказанное изображение на основе кадров в разные моменты времени.For example, the H.264 method uses unidirectional or bidirectional prediction to generate an intermediate frame, which is a frame serving the purpose of inter-frame prediction (inter-frame prediction) using time-domain correlation. Inter-frame prediction generates a predicted image based on frames at different points in time.

Фиг. 1 является схемой, иллюстрирующей пример однонаправленного предсказания.FIG. 1 is a diagram illustrating an example of unidirectional prediction.

Как иллюстрируется на Фиг. 1, в случае генерирования подлежащего кодированию кадра P0, который является подлежащим кодированию кадром текущего времени, посредством однонаправленного предсказания, выполняется компенсация движения с использованием в качестве опорного кадра кодированного кадра в прошедшем или будущем времени относительно текущего времени. Остаток между предсказанным изображением и фактическим изображением кодируется с помощью корреляции во временном направлении, благодаря чему объем кода может быть снижен. Данные опорного кадра и вектор движения используются как данные, определяющие опорный кадр, и данные, определяющие позицию, на которую будут ссылаться в опорном кадре, соответственно, и эти фрагменты данных передаются от кодирующей стороны декодирующей стороне.As illustrated in FIG. 1, in the case of generating the frame P 0 to be encoded, which is the frame of the current time to be encoded, by unidirectional prediction, motion compensation is performed using the encoded frame as the reference frame in the past or future time relative to the current time. The remainder between the predicted image and the actual image is encoded by correlation in the time direction, so that the amount of code can be reduced. The reference frame data and the motion vector are used as data defining the reference frame and data defining a position to be referred to in the reference frame, respectively, and these pieces of data are transmitted from the encoding side to the decoding side.

Здесь число опорных кадров не обязательно равно 1. Например, в способе Н.264 в качестве опорных кадров может быть использовано множество кадров. Когда два кадра, близкие по времени к подлежащему кодированию кадру P0, используются как опорные кадры R0 и R1, как показано на Фиг. 1, пиксельные значения произвольного макроблока в подлежащем кодированию кадре P0 могут быть предсказаны исходя из пиксельных значений произвольных пикселов в опорном кадре R0 или R1.Here, the number of reference frames is not necessarily 1. For example, in the H.264 method, a plurality of frames can be used as reference frames. When two frames close in time to the frame P 0 to be encoded are used as reference frames R 0 and R 1 , as shown in FIG. 1, the pixel values of an arbitrary macroblock in a frame P 0 to be encoded can be predicted based on the pixel values of arbitrary pixels in a reference frame R 0 or R 1 .

Прямоугольники, показанные внутри соответствующих кадров на Фиг. 1, представляют макроблоки. Если предположить, что макроблок в подлежащем кодированию кадре P0, который является целью предсказания, является макроблоком MBP0, то макроблок в опорном кадре R0, соответствующий макроблоку MBP0, является макроблоком MBR0, который определен вектором MV0 движения. Кроме того, макроблок в опорном кадре R1 является макроблоком MBR1 который определен вектором MV1 движения.The rectangles shown inside the respective frames in FIG. 1, represent macroblocks. If we assume that the macroblock in the frame P 0 to be encoded, which is the prediction target, is the macroblock MBP 0 , then the macroblock in the reference frame R 0 corresponding to the macroblock MBP 0 is the macroblock MBR 0 , which is determined by the motion vector MV 0 . In addition, the macroblock in the reference frame R 1 is the macroblock MBR 1 which is defined by the motion vector MV 1 .

Когда предполагается, что пиксельные значения макроблоков MBR0 и MBR1 (пиксельные значения изображений компенсации движения) равны МС0(i, j) и МС1(i, j), поскольку пиксельные значения любого из изображений компенсации движения используются в качестве пиксельные значения предсказанного изображения в однонаправленном предсказании, предсказанное изображение Pred(i, j) выражено нижеследующим уравнением (1). (i, j) обозначает относительную позицию пиксела в макроблоке, где 0≤i≤16 и 0≤j≤16. В уравнении (1) ⎪⎢ обозначает, что взято значение МС0(i, j) или МС1(i, j).When it is assumed that the pixel values of the macroblocks MBR 0 and MBR 1 (pixel values of the motion compensation images) are equal to MS 0 (i, j) and MS 1 (i, j), since the pixel values of any of the motion compensation images are used as the pixel values of the predicted images in unidirectional prediction, the predicted image Pred (i, j) is expressed by the following equation (1). (i, j) denotes the relative position of the pixel in the macroblock, where 0≤i≤16 and 0≤j≤16. In equation (1), ⎪⎢ means that the value taken is MS 0 (i, j) or MS 1 (i, j).

Figure 00000001
Figure 00000001

Кроме того, возможно разделить единый макроблок размером 16×16 пикселов на меньшие блоки, имеющие размер, например, 16×8 пикселов, и выполнить компенсацию движения в отдельных блоках, образованных посредством деления, за счет ссылки на разные опорные кадры. Путем передачи вектора движения с десятичной точностью, а не вектора движения с целочисленной точностью, и путем выполнения интерполяции с помощью фильтра КИХ (с конечной импульсной характеристикой), определенного согласно стандарту, пиксельные значения для пикселов, окружающих соответствующую опорную позицию, могут быть использованы для компенсации движения.In addition, it is possible to divide a single macroblock with a size of 16 × 16 pixels into smaller blocks having a size of, for example, 16 × 8 pixels, and to perform motion compensation in separate blocks formed by division, by reference to different reference frames. By transmitting the motion vector with decimal precision, and not the motion vector with integer precision, and by interpolating with the FIR filter (with a finite impulse response) defined according to the standard, the pixel values for the pixels surrounding the corresponding reference position can be used to compensate movement.

Фиг. 2 является схемой, иллюстрирующей пример двунаправленного предсказания.FIG. 2 is a diagram illustrating an example of bidirectional prediction.

Как иллюстрируется на Фиг. 2, в случае генерирования подлежащего кодированию кадра B0, являющегося подлежащим кодированию кадром текущего времени, посредством двунаправленного предсказания, компенсация движения выполняется с помощью кодированных кадров в прошлом или будущем времени относительно текущего времени в качестве опорных кадров. Множество кодированных кадров используются в качестве опорных кадров, а разность между предсказанным изображением и фактическим изображением кодируется с помощью корреляции с этими кадрами, благодаря чему может быть снижен объем кода. В способе Н.264, кроме того, возможно использовать в качестве опорных кадров множество прошлых кадров и множество будущих кадров.As illustrated in FIG. 2, in the case of generating the frame B 0 to be encoded, which is the current time frame to be encoded, using bi-directional prediction, motion compensation is performed using encoded frames in the past or future time relative to the current time as reference frames. A plurality of coded frames are used as reference frames, and the difference between the predicted image and the actual image is encoded by correlation with these frames, whereby the amount of code can be reduced. In the H.264 method, in addition, it is possible to use many past frames and many future frames as reference frames.

Как показано на Фиг. 2, когда в качестве опорных кадров L0 и L1 используются один прошлый кадр и один будущий кадр, причем подлежащий кодированию кадр B0 служит основой, пиксельные значения произвольного макроблока в подлежащем кодированию кадре B0 могут быть предсказаны на основе пиксельных значений произвольных пикселов в опорных кадрах L0 и L1.As shown in FIG. 2, when one past frame and one future frame are used as reference frames L 0 and L 1 , and the frame B 0 to be encoded serves as the basis, the pixel values of an arbitrary macroblock in the frame B 0 to be encoded can be predicted based on the pixel values of arbitrary pixels in reference frames L 0 and L 1 .

В примере по Фиг. 2 макроблок в опорном кадре L0, соответствующий макроблоку MBB0 в подлежащем кодированию кадре B0, является макроблоком MBL0, определенным вектором MV0 движения. Кроме того, макроблок в опорном кадре L1, соответствующий макроблоку MBB0 в подлежащем кодированию кадре B0, является макроблоком MBL1, определенным вектором MV1 движения.In the example of FIG. 2, the macroblock in the reference frame L 0 corresponding to the macroblock MBB 0 in the frame B 0 to be encoded is the macroblock MBL 0 defined by the motion vector MV 0 . In addition, the macroblock in the reference frame L 1 corresponding to the macroblock MBB 0 in the frame B 0 to be encoded is the macroblock MBL 1 defined by the motion vector MV 1 .

Если предположить, что пиксельные значения макроблоков MBL0 и MBL1 равны МС0(i, j) и МС1(i, j), соответственно, то значение Pred(i, j) пиксела предсказанного изображения Pred(i, j) может быть получено как среднее значение этих пиксельных значений, как выражено нижеследующим уравнением (2).If we assume that the pixel values of the macroblocks MBL 0 and MBL 1 are equal to MS 0 (i, j) and MS 1 (i, j), respectively, then the value Pred (i, j) of the pixel of the predicted image Pred (i, j) can be obtained as the average of these pixel values, as expressed by the following equation (2).

Figure 00000002
Figure 00000002

При описанной выше компенсации движения с помощью однонаправленного предсказания точность предсказанного изображения возрастает за счет увеличения точности вектора движения и снижения размера макроблока, чтобы уменьшить остаток относительно фактического изображения, тем самым увеличивая эффективность кодирования.With the motion compensation using unidirectional prediction described above, the accuracy of the predicted image is increased by increasing the accuracy of the motion vector and reducing the size of the macroblock to reduce the residual relative to the actual image, thereby increasing the coding efficiency.

Кроме того, при компенсации движения с помощью двунаправленного предсказания средние значения пиксельных значений для пикселов близких по времени опорных кадров используются в качестве пиксельных значений для пикселов предсказанного изображения, тем самым осуществляя стабильное уменьшение разности предсказания с точки зрения вероятности.In addition, when compensating for motion using bidirectional prediction, average pixel values for pixels of near-time reference frames are used as pixel values for pixels of the predicted image, thereby stably reducing the prediction difference in terms of probability.

Кроме того, в качестве другого способа предлагается способ преобразования корреляции во временном направлении в пространственное разрешение с помощью компенсации движения и КИХ-фильтрации пиксельных значений и их использования (к примеру, см. NPL 1).In addition, as another method, a method is proposed for converting the correlation in the time direction into spatial resolution using motion compensation and FIR filtering of pixel values and their use (for example, see NPL 1).

В способе, описанном в NPL 1, корреляция во временном направлении используется для обработки увеличения разрешения, которая выполняется по отношению к введенной последовательности изображений. В частности, вычисляются разностные данные о разности между текущим изображением и прошлым изображением, по отношению к которому выполняется предсказание-компенсация движения, и разностные данные подаются обратно на целевое текущее изображение, тем самым восстанавливая высокочастотный компонент, включенный во введенные изображения.In the method described in NPL 1, time-correlation is used to process a resolution increase that is performed with respect to the input image sequence. In particular, difference data on the difference between the current image and the past image, relative to which the motion prediction is compensated, is calculated, and the difference data is fed back to the target current image, thereby restoring the high-frequency component included in the input images.

Список ссылокList of links

Непатентная литератураNon-Patent Literature

NPL 1: «Improving Resolution by Image Registration (Улучшение разрешения путем регистрации образа)», Michal Irani and Simon Peleg, Department of Computer Science, The Hebrew University of Jerusalem, 91904 Jerusalem, Israel, Communicated by Rama Chellapa, Received June 16, 1989; accepted May 25, 1990.NPL 1: “Improving Resolution by Image Registration”, Michal Irani and Simon Peleg, Department of Computer Science, The Hebrew University of Jerusalem, 91904 Jerusalem, Israel, Communicated by Rama Chellapa, Received June 16, 1989 ; accepted May 25, 1990.

Сущность изобретенияSUMMARY OF THE INVENTION

Техническая задачаTechnical challenge

В случае обычного однонаправленного предсказания, даже когда могут быть выбраны множество опорных кадров, необходимо избирательно использовать пиксельные значения любого из этих опорных кадров в качестве пиксельных значений кадра, подлежащего кодированию. Таким образом, поскольку опорный кадр, который не выбран, не используется для компенсации движения, временная корреляция между опорным кадром и кадром, подлежащим кодированию, используется недостаточно, и с точки зрения возрастания эффективности кодирования многое можно улучшить.In the case of conventional unidirectional prediction, even when multiple reference frames can be selected, it is necessary to selectively use the pixel values of any of these reference frames as the pixel values of the frame to be encoded. Thus, since a reference frame that is not selected is not used for motion compensation, the temporal correlation between the reference frame and the frame to be encoded is not used enough, and much can be improved from the point of view of increasing encoding efficiency.

Кроме того, в случае обычного двунаправленного предсказания средние значения пиксельных значений двух опорных кадров используются в качестве пиксельных значений кадра, подлежащего кодированию, так что выполняется временная операция фильтрации нижних частот, и в предсказанном изображении утрачивается высокочастотный компонент. В результате, поскольку не может быть кодирован разностный сигнал, включающий в себя высокочастотный компонент, изображение, полученное посредством декодирования, не включает в себя высокочастотный компонент, и разрешение снижается.In addition, in the case of conventional bi-directional prediction, the average pixel values of two reference frames are used as the pixel values of the frame to be encoded, so that a temporary low-pass filtering operation is performed and the high-frequency component is lost in the predicted image. As a result, since the difference signal including the high-frequency component cannot be encoded, the image obtained by decoding does not include the high-frequency component, and the resolution is reduced.

Далее, предсказание может быть выполнено с более высокой точностью, чем при обычном двунаправленном предсказании, путем фильтрации данных о двух или более опорных кадрах способом, описанным в NPL 2, и их использования. В этом случае, однако, необходимо передать на декодер данные вектора движения, относящиеся к двум или более опорным кадрам. То есть для возрастания точности предсказания необходим большой объем управляющих данных, что с точки зрения эффективности кодирования может быть неэффективно.Further, the prediction can be performed with higher accuracy than with conventional bidirectional prediction by filtering data on two or more reference frames in the manner described in NPL 2, and using them. In this case, however, it is necessary to transmit motion vector data relating to two or more reference frames to the decoder. That is, to increase the accuracy of prediction, a large amount of control data is required, which from the point of view of coding efficiency can be inefficient.

Настоящее изобретение сделано с учетом этих обстоятельств и направлено на предоставление возможности генерирования предсказанного изображения высокой точности с помощью малого объема управляющих данных путем снижения объема кода для векторов движения, которые необходимы для выполнения двунаправленного предсказания или ссылки на множество изображений.The present invention is made taking into account these circumstances and is aimed at providing the ability to generate a predicted image of high accuracy using a small amount of control data by reducing the amount of code for motion vectors that are necessary to perform bidirectional prediction or reference to multiple images.

Решение задачиThe solution of the problem

Объектом настоящего изобретения является устройство обработки изображений, содержащее схему, выполненную с возможностью: декодирования кодированного изображение; выполнения первой компенсации движения за счет использования первого вектора движения кодированного изображения, для генерирования первого изображения компенсации движения; выполнения второй компенсации движения за счет использования второго вектора движения кодированного изображения, для генерирования второго изображения компенсации движения; генерирования предсказанного изображения путем выполнения обработки фильтрации и обработки суммирования над первым изображением компенсации движения и вторым первым изображением компенсации движения.An object of the present invention is an image processing apparatus comprising a circuit configured to: decode an encoded image; performing a first motion compensation by using the first motion vector of the encoded image to generate a first motion compensation image; performing a second motion compensation by using the second motion vector of the encoded image to generate a second motion compensation image; generating the predicted image by performing filtering processing and summing processing on the first motion compensation image and the second first motion compensation image.

Согласно варианту осуществления изобретения обработка фильтрации выделяет высокочастотный компонент изображения компенсации движения. Генерирование первого изображения компенсации движения осуществляется из опорного кадра образованного из декодируемого изображения; и генерирование второго изображения компенсации движения осуществляется из опорного кадра, отличного от опорного кадра, из которого сгенерировано первое изображение компенсации движения. Выделение высокочастотного компонента изображения компенсации движения выполняется за счет использования корреляции во временном направлении, включенной в изображения компенсации движения.According to an embodiment of the invention, the filtering processing extracts a high frequency component of the motion compensation image. The first motion compensation image is generated from a reference frame formed from a decoded image; and generating a second motion compensation image is carried out from a reference frame other than the reference frame from which the first motion compensation image is generated. The selection of the high-frequency component of the motion compensation image is accomplished by using the correlation in the time direction included in the motion compensation images.

Согласно еще одному варианту осуществления изобретения второе изображение компенсации движения совпадает или сходно с первым изображением компенсации движения, сгенерированным из опорного кадра с помощью определенной стоимостной функции, общей для кодирующего устройства, которое кодирует изображение, причем второе изображение компенсации движения служит в качестве изображения компенсации движения, соответствующего предсказанному изображению. Стоимостная функция является функцией для вычисления итоговой суммы абсолютных значений разностных значений отдельных пиксельных значений между первым изображением компенсации изображения и целевым для обработки блоком опорного кадра. Стоимостная функция может так же является функцией для вычисления минимальной квадратичной ошибки отдельных пиксельных значений между первым изображением компенсации изображения и целевым для обработки блоком опорного кадра.According to another embodiment of the invention, the second motion compensation image is the same or similar to the first motion compensation image generated from the reference frame using a certain cost function common to an encoding device that encodes the image, the second motion compensation image serving as the motion compensation image, corresponding to the predicted image. The cost function is a function for calculating the total sum of the absolute values of the difference values of individual pixel values between the first image compensation image and the target block for processing the reference frame. The cost function may also be a function for calculating the minimum quadratic error of individual pixel values between the first image compensation image and the target block to be processed by the reference frame.

Согласно другому варианту осуществления изобретения процесс генерирования предсказанного изображения включает в себя: выполнение фильтрации нижних частот разностного изображения между первым изображением компенсации движения и вторым изображением компенсации движения; выполнение фильтрации верхних частот изображения, полученного посредством фильтрации нижних частот; и суммирование изображения, полученного посредством фильтрации нижних частот, и изображения, полученного посредством фильтрации верхних частот, с первым изображением компенсации движения или вторым изображением компенсации движения, благодаря чему генерируется предсказанное изображение.According to another embodiment of the invention, the predicted image generating process includes: performing low-pass filtering of the differential image between the first motion compensation image and the second motion compensation image; performing high-pass filtering of an image obtained by low-pass filtering; and summing the image obtained by low-pass filtering and the image obtained by high-pass filtering with the first motion compensation image or the second motion compensation image, whereby a predicted image is generated.

Процесс суммирования может включать суммирование изображения, полученное посредством фильтрации нижних частот, и изображение, полученное посредством фильтрации верхних частот, с изображением компенсации движения, сгенерированным из кадра, на одну единицу времени предшествующего времени предсказанного изображения.The summation process may include summing an image obtained by low-pass filtering and an image obtained by high-pass filtering with a motion compensation image generated from a frame per unit time of the previous time of the predicted image.

Согласно еще одному варианту осуществления изобретения устройство обработки изображений, дополнительно может содержать схему, выполненную с возможностью: приема идентификационной метки для определения того, должно ли предсказанное изображение генерироваться посредством однонаправленного предсказания, выполненного средством однонаправленного предсказания, должно ли предсказанное изображение генерироваться посредством двунаправленного предсказания, выполненного средством двунаправленного предсказания, или предсказанное изображение должно генерироваться посредством обработки фильтрации; и оценки, путем сверки с идентификационной меткой, принятой приемным средством, должно ли предсказанное изображение генерироваться посредством однонаправленного предсказания, должно ли предсказанное изображение генерироваться посредством двунаправленного предсказания, или предсказанное изображение должно генерироваться посредством обработки фильтрации.According to yet another embodiment of the invention, the image processing apparatus may further comprise a circuit configured to: receive an identification mark for determining whether a predicted image should be generated by unidirectional prediction performed by unidirectional prediction means whether the predicted image should be generated by bidirectional prediction performed bidirectional prediction means, or predicted image adjection should be generated through filtering processing; and evaluating, by checking with the identification mark received by the receiving means, whether the predicted image should be generated by unidirectional prediction, whether the predicted image should be generated by bidirectional prediction, or the predicted image should be generated by filtering processing.

Согласно еще одному варианту осуществления изобретения устройство обработки изображений, дополнительно может содержать схему, выполненную с возможностью: выполнения однонаправленного предсказания с помощью множества изображений компенсации движения для генерирования предсказанного изображения; и выполнения двунаправленного предсказания с помощью множества изображений компенсации движения для генерирования предсказанного изображения.According to another embodiment of the invention, the image processing apparatus may further comprise a circuit configured to: perform unidirectional prediction using a plurality of motion compensation images to generate a predicted image; and performing bidirectional prediction using a plurality of motion compensation images to generate a predicted image.

Объектом настоящего изобретения так же является способ обработки изображения, содержащий этапы, на которых: декодируют кодированное изображение; выполняют первую компенсацию движения за счет использования первого вектора движения кодированного изображения, для генерирования первого изображения компенсации движения; выполняют вторую компенсацию движения за счет использования второго вектора движения кодированного изображения, для генерирования второго изображения компенсации движения; и генерируют предсказанное изображение путем выполнения обработки фильтрации и обработки суммирования над первым изображением компенсации движения и вторым первым изображением компенсации движения.An object of the present invention is also an image processing method comprising the steps of: decoding an encoded image; performing a first motion compensation by using the first motion vector of the encoded image to generate a first motion compensation image; performing a second motion compensation by using the second motion vector of the encoded image to generate a second motion compensation image; and generating a predicted image by performing filtering processing and summing processing on the first motion compensation image and the second first motion compensation image.

Преимущественные эффекты изобретенияAdvantageous Effects of the Invention

Согласно настоящему изобретению предсказанное изображение высокой точности может генерироваться без возрастания объема передаваемых векторов движения в потоке и может быть достигнута высокая эффективность кодирования.According to the present invention, a high precision predicted image can be generated without increasing the amount of transmitted motion vectors in the stream, and high coding efficiency can be achieved.

Краткое описание чертежейBrief Description of the Drawings

Фиг. 1 является схемой, иллюстрирующей пример однонаправленного предсказания.FIG. 1 is a diagram illustrating an example of unidirectional prediction.

Фиг. 2 является схемой, иллюстрирующей пример двунаправленного предсказания.FIG. 2 is a diagram illustrating an example of bidirectional prediction.

Фиг. 3 является схемой, описывающей принцип генерирования предсказанного изображения по настоящему изобретению.FIG. 3 is a diagram describing a principle of generating a predicted image of the present invention.

Фиг. 4 является блок-схемой, иллюстрирующей пример конфигурации декодирующего устройства согласно варианту осуществления настоящего изобретения.FIG. 4 is a block diagram illustrating an example configuration of a decoding apparatus according to an embodiment of the present invention.

Фиг. 5 является схемой, иллюстрирующей идею третьего режима предсказания.FIG. 5 is a diagram illustrating the idea of a third prediction mode.

Фиг. 6 является блок-схемой, иллюстрирующей пример конфигурации схемы предсказания-компенсации движения по Фиг. 3.FIG. 6 is a block diagram illustrating an example configuration of the motion prediction-compensation scheme of FIG. 3.

Фиг. 7 является схемой, иллюстрирующей пример опорных кадров.FIG. 7 is a diagram illustrating an example of reference frames.

Фиг. 8 является схемой, иллюстрирующей другой пример опорных кадров.FIG. 8 is a diagram illustrating another example of reference frames.

Фиг. 9 является блок-схемой, иллюстрирующей пример конфигурации схемы предсказания по Фиг. 6.FIG. 9 is a block diagram illustrating an example configuration of the prediction circuit of FIG. 6.

Фиг. 10 является блок-схемой, иллюстрирующей пример конфигурации фильтрующей схемы по Фиг. 6.FIG. 10 is a block diagram illustrating an example configuration of a filter circuit of FIG. 6.

Фиг. 11 является блок-схемой, описывающей обработку декодирования, выполняемую декодирующим устройством.FIG. 11 is a flowchart describing decoding processing performed by a decoding device.

Фиг. 12 является блок-схемой, описывающей обработку предсказания-компенсации движения, выполняемую на этапе S9 по Фиг. 11.FIG. 12 is a flowchart describing motion prediction-compensation processing performed in step S9 of FIG. eleven.

Фиг. 13 является блок-схемой алгоритма, описывающей пример процедуры в обработке извлечения.FIG. 13 is a flowchart describing an example procedure in extraction processing.

Фиг. 14 является блок-схемой алгоритма, описывающей пример процедуры в обработке фильтрационного предсказания.FIG. 14 is a flowchart describing an example procedure in filtering prediction processing.

Фиг. 15 является блок-схемой, иллюстрирующей пример конфигурации кодирующего устройства.FIG. 15 is a block diagram illustrating an example configuration of an encoding device.

Фиг. 16 является блок-схемой, иллюстрирующей пример конфигурации схемы определения режима по Фиг. 15.FIG. 16 is a block diagram illustrating an example configuration of the mode determination circuit of FIG. fifteen.

Фиг. 17 является блок-схемой, иллюстрирующей пример конфигурации схемы предсказания-компенсации движения по Фиг. 15.FIG. 17 is a block diagram illustrating an example configuration of a motion prediction-compensation scheme of FIG. fifteen.

Фиг. 18 является блок-схемой алгоритма, описывающей обработку кодирования, выполняемую кодирующим устройством.FIG. 18 is a flowchart describing encoding processing performed by an encoding device.

Фиг. 19 является блок-схемой алгоритма, описывающей обработку определения режима, выполняемую на этапе S108 по Фиг.18.FIG. 19 is a flowchart for describing the mode determination processing performed in step S108 of FIG. 18.

Фиг. 20 является блок-схемой алгоритма, описывающей операцию предсказания-компенсации движения, выполняемую на этапе S111 по Фиг. 18.FIG. 20 is a flowchart describing a motion prediction-compensation operation performed in step S111 of FIG. eighteen.

Фиг. 21 является блок-схемой, иллюстрирующей другой пример конфигурации фильтрующей схемы.FIG. 21 is a block diagram illustrating another example configuration of a filter circuit.

Фиг. 22 является блок-схемой, иллюстрирующей еще один пример конфигурации фильтрующей схемы.FIG. 22 is a block diagram illustrating another example configuration of a filter circuit.

Фиг. 23 является блок-схемой, иллюстрирующей пример случая использования трех опорных кадров.FIG. 23 is a block diagram illustrating an example of a case of using three reference frames.

Фиг. 24 является блок-схемой, иллюстрирующей пример конфигурации фильтрующей схемы в случае использования трех опорных кадров.FIG. 24 is a block diagram illustrating an example configuration of a filter circuit in the case of using three reference frames.

Фиг. 25 является блок-схемой, иллюстрирующей пример конфигурации персонального компьютера.FIG. 25 is a block diagram illustrating an example configuration of a personal computer.

Фиг. 26 является блок-схемой, иллюстрирующей пример основной конфигурации телевизионного приемника, к которому применено настоящее изобретение.FIG. 26 is a block diagram illustrating an example of a basic configuration of a television receiver to which the present invention is applied.

Фиг. 27 является блок-схемой, иллюстрирующей пример основной конфигурации мобильного телефонного аппарата, к которому применено настоящее изобретение.FIG. 27 is a block diagram illustrating an example of a basic configuration of a mobile telephone to which the present invention is applied.

Фиг. 28 является блок-схемой, иллюстрирующей пример основной конфигурации устройства записи на жесткий диск, к которому применено настоящее изобретение.FIG. 28 is a block diagram illustrating an example of a basic configuration of a hard disk recorder to which the present invention is applied.

Фиг. 29 является блок-схемой, иллюстрирующей пример основной конфигурации фотокамеры, к которой применено настоящее изобретение.FIG. 29 is a block diagram illustrating an example of a basic configuration of a camera to which the present invention is applied.

Фиг. 30 является схемой, иллюстрирующей пример размеров макроблоков.FIG. 30 is a diagram illustrating an example of macroblock sizes.

Подробное описание изобретенияDETAILED DESCRIPTION OF THE INVENTION

Далее будут описаны варианты осуществления изобретения (далее называемые вариантами осуществления). Отметим, что описание будет вестись в следующем порядке:Embodiments of the invention (hereinafter referred to as embodiments) will be described below. Note that the description will be in the following order:

1. Первый вариант осуществления (операция декодирования)1. The first embodiment (decoding operation)

2. Второй вариант осуществления (операция кодирования)2. Second embodiment (coding operation)

3. Третий вариант осуществления (модификация фильтрующей схемы)3. Third embodiment (modification of the filter circuit)

Первый вариант осуществленияFirst Embodiment

Принцип предсказанияPrediction principle

Фиг. 3 является схемой, описывающей принцип в способе генерирования предсказанного изображения, к которому применено настоящее изобретение.FIG. 3 is a diagram describing a principle in a method of generating a predicted image to which the present invention is applied.

В настоящем изобретении по меньшей мере один вектор движения (вектор А движения) передается в битовом потоке, чтобы получить множество изображений компенсации движения из множества опорных плоскостей в декодере.In the present invention, at least one motion vector (motion vector A) is transmitted in a bitstream to obtain a plurality of motion compensation images from a plurality of reference planes in a decoder.

Фиг. 3 иллюстрирует состояние, в котором два кадра - кадр (N-1) и кадр (N-2) - используются в качестве опорных плоскостей для компенсации движения, чтобы декодировать кадр N.FIG. 3 illustrates a state in which two frames — frame (N-1) and frame (N-2) —are used as reference planes for motion compensation to decode frame N.

На Фиг. 3 вектор А движения, указывающий координаты в кадре (N-1), передается в потоке. Декодер получает при помощи этого вектора изображение МС.In FIG. 3, a motion vector A indicating coordinates in a frame (N-1) is transmitted in a stream. The decoder receives an MS image using this vector.

В дальнейшем декодер выполняет предсказание движения, чтобы выполнить компенсацию движения на основе кадра (N-2). То есть в кадре (N-2) ищется изображение МС', которое имеет близкое значение по отношению к изображению МС. Способы поиска, например, алгоритм поиска, диапазон поиска, стоимостная функция и т.д. могут быть определены произвольно, поскольку они заранее являются общими для кодера и декодера. Когда они являются общими для кодера и декодера, результаты поиска в кодере и декодере, то есть пиксельные значения изображения МС', совпадают друг с другом.Subsequently, the decoder performs motion prediction to perform motion compensation based on the frame (N-2). That is, in the frame (N-2), the image MS 'is searched, which has a close value with respect to the image MS. Search methods, e.g. search algorithm, search range, cost function, etc. can be determined arbitrarily, since they are common to the encoder and decoder in advance. When they are common to the encoder and decoder, the search results in the encoder and decoder, that is, the pixel values of the image MS ', match each other.

При этом декодер может получить изображение предсказания движения на основе кадра (N-1) и кадра (N-2). Соответственно, вектор движения МС' не является необходимым. То есть объем кода векторов движения снижается. Таким образом, декодер и кодер могут генерировать предсказанные изображения высокой точности с помощью малого объема управляющих данных.In this case, the decoder can obtain a motion prediction image based on the frame (N-1) and the frame (N-2). Accordingly, the motion vector MS 'is not necessary. That is, the amount of motion vector code is reduced. Thus, the decoder and encoder can generate high-precision predicted images using a small amount of control data.

Конфигурация декодирующего устройстваDecoder Configuration

Фиг. 4 является блок-схемой, иллюстрирующей пример конфигурации декодирующего устройства 1 согласно варианту осуществления настоящего изобретения.FIG. 4 is a block diagram illustrating an example configuration of a decoding apparatus 1 according to an embodiment of the present invention.

Данные изображения, кодируемые кодирующим устройством, которое будет описано ниже, вводятся в декодирующее устройство 1 через кабель, сеть или съемный носитель. Сжатые данные изображения являются данными изображения, кодированными в соответствии, например, со стандартом Н.264.Image data encoded by an encoding device, which will be described later, is input to decoding device 1 via a cable, network, or removable medium. The compressed image data is image data encoded in accordance with, for example, the H.264 standard.

Запоминающий буфер 11 последовательно сохраняет битовые потоки, введенные в виде сжатых данных изображения. Данные, сохраненные в запоминающем буфере 11, при необходимости считываются схемой 12 декодирования без потерь в элементах изображений определенных элементов, таких как макроблоки, составляющих кадр. В стандарте Н.264 операция может быть выполнена не только в элементах макроблоков размером 16×16 пикселов, но также в элементах блоков размером 8×8 пикселов или 4×4 пиксела, полученных дальнейшим делением макроблоков.The storage buffer 11 sequentially stores the bit streams input as compressed image data. The data stored in the storage buffer 11, if necessary, is read by the lossless decoding circuit 12 in the image elements of certain elements, such as macroblocks making up the frame. In the H.264 standard, an operation can be performed not only in elements of macroblocks of 16 × 16 pixels in size, but also in elements of blocks of 8 × 8 pixels or 4 × 4 pixels in size, obtained by further division of macroblocks.

Схема 12 декодирования без потерь выполняет операцию декодирования, соответствующую способу кодирования, такую как операция декодирования с переменной длиной или операция арифметического декодирования изображения, считанного из запоминающего буфера 11. Схема 12 декодирования без потерь выводит квантованный коэффициент преобразования, полученный посредством обработки декодирования, на схему 13 обратного квантования.The lossless decoding circuit 12 performs a decoding operation corresponding to an encoding method, such as a variable length decoding operation or an arithmetic decoding operation of an image read from the storage buffer 11. The lossless decoding circuit 12 outputs a quantized transform coefficient obtained by decoding processing to the circuit 13 inverse quantization.

Кроме того, схема 12 декодирования без потерь определяет на основе идентификационной метки, включенной в заголовок подлежащего декодированию изображения, является ли изображение изображением с внутрикадровым кодированием или изображением с межкадровым кодированным. Если схема 12 кодирования без потерь оценивает изображение, подлежащее декодированию, как изображение с внутрикадровым кодированием, схема 12 кодирования без потерь выводит данные режима внутрикадрового предсказания, сохраненные в заголовке изображения, на схему 22 внутрикадрового предсказания. Данные режима внутрикадрового предсказания включают в себя данные о внутрикадровом предсказании, такие как размер блока, служащего в качестве элемента обработки.Furthermore, the lossless decoding circuit 12 determines, based on the identification mark included in the header of the image to be decoded, whether the image is an intra-frame encoded image or an inter-frame encoded image. If the lossless encoding circuit 12 estimates the image to be decoded as an image with intraframe coding, the lossless encoding circuit 12 outputs the intra prediction mode data stored in the image header to the intra prediction circuit 22. Intra-frame prediction mode data includes intra-frame prediction data, such as the size of a block serving as a processing element.

Если схема 12 кодирования без потерь оценивает изображение, подлежащее декодированию, как данные с межкадровым кодированием, схема 12 кодирования без потерь выводит вектор движения и идентификационную метку, сохраненные в заголовке изображения, на схему 21 предсказания-компенсации движения. С помощью идентификационной метки может быть определен режим предсказания для генерирования предсказанного изображения посредством межкадрового предсказания. Идентификационная метка устанавливается, например, в элементах макроблоков или кадров.If the lossless encoding circuit 12 estimates the image to be decoded as inter-frame encoded data, the lossless encoding circuit 12 outputs a motion vector and an identification mark stored in the image header to the motion prediction-compensation circuit 21. Using the identification tag, a prediction mode for generating a predicted image by inter-frame prediction can be determined. An identification mark is set, for example, in macroblock or frame elements.

В качестве режима предсказания подготовлен третий режим предсказания для генерирования предсказанного изображения путем выполнения фильтрации изображений компенсации движения, которые извлекаются из множества опорных кадров, упорядоченных в одном или двух временных направлениях, в дополнение к режиму однонаправленного предсказания по Фиг. 1 и режиму двунаправленного предсказания по Фиг. 2.As a prediction mode, a third prediction mode is prepared for generating a predicted image by filtering motion compensation images that are extracted from a plurality of reference frames arranged in one or two time directions, in addition to the unidirectional prediction mode of FIG. 1 and the bidirectional prediction mode of FIG. 2.

Фиг. 5 является схемой, иллюстрирующей идею третьего режима предсказания.FIG. 5 is a diagram illustrating the idea of a third prediction mode.

В примере по Фиг. 5, где время текущего кадра (предсказанного кадра) взято за основу, кадр, на одну единицу времени предшествующий ему, рассматривается в качестве опорного кадра R0, а кадр, на одну единицу времени предшествующий опорному кадру R0, рассматривается в качестве опорного кадра R1. В этом случае, согласно третьему режиму предсказания, изображения МС0 и MC1 компенсации движения, извлеченные из опорных кадров R0 и R1, подаются на фильтрующую схему, а пиксельные значения изображения, выведенного с фильтрующей схемы, рассматриваются в качестве пиксельных значений предсказанного изображения, которое является целевым макроблоком.In the example of FIG. 5, where the time of the current frame (predicted frame) is taken as the basis, a frame one unit of time preceding it is considered as a reference frame R 0 , and a frame one unit of time preceding a reference frame R 0 is considered as a reference frame R 1 . In this case, according to the third prediction mode, motion compensation images MS 0 and MC 1 extracted from the reference frames R 0 and R 1 are supplied to the filtering circuit, and the pixel values of the image output from the filtering circuit are considered as pixel values of the predicted image which is the target macroblock.

Далее режим предсказания, в котором пиксельные значения любого из изображений компенсации движения, извлеченных из множества опорных кадров, упорядоченных в одном направлении, рассматриваются в качестве пиксельных значений предсказанного изображения, как описано выше со ссылкой на Фиг. 1, называется просто режимом однонаправленного предсказания. Кроме того, режим предсказания, в котором средние значения пиксельных значений изображений компенсации движения, извлеченных из множества опорных кадров, упорядоченных в двух направлениях, рассматриваются в качестве пиксельных значений предсказанного изображения, как описано выше со ссылкой на Фиг. 2, называется просто режимом двунаправленного предсказания.Next, a prediction mode in which the pixel values of any of the motion compensation images extracted from the plurality of reference frames arranged in one direction are considered as the pixel values of the predicted image, as described above with reference to FIG. 1 is called simply a unidirectional prediction mode. In addition, a prediction mode in which average pixel values of motion compensation images extracted from a plurality of reference frames arranged in two directions are considered as pixel values of the predicted image, as described above with reference to FIG. 2 is called simply a bi-directional prediction mode.

Третий режим предсказания, показанный на Фиг. 5, в котором пиксельные значения предсказанного изображения получаются путем выполнения фильтрации отдельных изображений компенсации движения, извлеченных из множества опорных кадров, упорядоченных в одном или двух направлениях, называется фильтрационным режимом предсказания. Фильтрационный режим предсказания будет подробно описан ниже.The third prediction mode shown in FIG. 5, in which the pixel values of the predicted image are obtained by filtering individual motion compensation images extracted from a plurality of reference frames arranged in one or two directions, called a prediction filtering mode. The prediction filtration mode will be described in detail below.

На Фиг. 4 схема 13 обратного квантования выполняет способом, соответствующим способу квантования, использованному кодирующей стороной, обратное квантование квантованного коэффициента преобразования, поданного из схемы 12 декодирования без потерь. Схема 13 обратного квантования выводит коэффициент преобразования, полученный путем выполнения обратного квантования, на схему 14 обратного ортогонального преобразования.In FIG. 4, the inverse quantization circuit 13 performs a method corresponding to the quantization method used by the coding side to inverse quantize the quantized transform coefficient supplied from the lossless decoding circuit 12. The inverse quantization circuit 13 outputs a transform coefficient obtained by performing inverse quantization to the inverse orthogonal transform circuit 14.

Схема 14 обратного ортогонального преобразования выполняет обратное ортогональное преобразование четвертого порядка для коэффициента преобразования, поданного от схемы 13 обратного квантования, способом, соответствующим способу ортогонального преобразования, использованному кодирующей стороной, такому как дискретное косинусное преобразование или преобразование Карунена-Лоэва, и выводит полученное изображение на суммирующую схему 15.The inverse orthogonal transform circuit 14 performs a fourth-order inverse orthogonal transform for the transform coefficient supplied from the inverse quantization circuit 13 in a manner corresponding to the orthogonal transform method used by the encoding side, such as a discrete cosine transform or Karunen-Loeve transform, and outputs the resulting image to a summing Scheme 15.

Суммирующая схема 15 совмещает декодированное изображение, поданное из схемы 14 обратного ортогонального преобразования, и предсказанное изображение, поданное из схемы 21 предсказания-компенсации движения или из схемы 22 внутрикадрового предсказания через переключатель 23, и выводит комбинированное изображение на фильтр 16 устранения блочности.The summing circuit 15 combines the decoded image supplied from the inverse orthogonal transform circuit 14 and the predicted image supplied from the motion compensation prediction circuit 21 or the intra prediction circuit 22 through the switch 23, and outputs the combined image to the deblocking filter 16.

Фильтр 16 устранения блочности устраняет блоковый шум, включенный в изображение, поданное от суммирующей схемы 15, и выводит изображение, из которого удален блоковый шум. Изображение, выведенное с фильтра 16 устранения блочности, подается на переупорядочивающий буфер 17 и кадровую память 19.The deblocking filter 16 eliminates the block noise included in the image filed from the summing circuit 15 and outputs an image from which the block noise is removed. The image output from the deblocking filter 16 is supplied to the reordering buffer 17 and the frame memory 19.

Переупорядочивающий буфер 17 временно сохраняет изображение, поданное с фильтра 16 устранения блочности. Переупорядочивающий буфер 17 генерирует отдельные кадры, например, из изображений в элементах макроблоков, сохраненных в нем, переупорядочивает генерированные кадры в определенном порядке, таком как порядок отображения, и выводит их на цифроаналоговую преобразовательную схему 18.The reordering buffer 17 temporarily stores the image filed from the deblocking filter 16. The reordering buffer 17 generates individual frames, for example, from images in macroblock elements stored in it, reorders the generated frames in a specific order, such as display order, and outputs them to a digital-to-analog converter circuit 18.

Цифроаналоговая преобразовательная схема 18 выполняет цифроаналоговое преобразование отдельных кадров, поданных из переупорядочивающего буфера 17, и выводит сигналы отдельных кадров вовне.The digital-to-analog conversion circuit 18 performs digital-to-analog conversion of the individual frames supplied from the reordering buffer 17 and outputs the signals of the individual frames to the outside.

Кадровая память 19 временно сохраняет изображение, поданное с фильтра 16 устранения блочности. Данные, сохраненные в кадровой памяти 19, подаются на схему 21 предсказания-компенсации движения или схему 22 внутрикадрового предсказания через переключатель 20.Frame memory 19 temporarily stores an image filed from deblocking filter 16. The data stored in the frame memory 19 is supplied to the motion prediction-compensation circuit 21 or the intra prediction circuit 22 through the switch 20.

Переключатель 20 соединяется с терминалом a1 в случае генерирования предсказанного изображения с помощью межкадрового предсказания, а в случае генерирования его с помощью внутрикадрового предсказания соединяется с терминалом b1. Переключением переключателя 20 управляет, например, управляющая схема 31.The switch 20 is connected to terminal a1 in the case of generating a predicted image using inter-frame prediction, and in the case of generating it using intra-frame prediction, is connected to terminal b1. The switching of the switch 20 is controlled, for example, by a control circuit 31.

Схема 21 предсказания-компенсации движения определяет режим предсказания в соответствии с идентификационной меткой, поданной из схемы 12 декодирования без потерь, и выбирает кадр для использования в качестве опорного кадра среди декодированных кадров, сохраненных в кадровой памяти 19, в соответствии с режимом предсказания. Схема 21 предсказания-компенсации движения определяет макроблок, соответствующий целевому предсказанному изображению, среди макроблоков, составляющих опорный кадр, на основе вектора движения, поданного из схемы 12 декодирования без потерь, и извлекает определенный макроблок как изображение компенсации движения. Схема 21 предсказания-компенсации движения получает пиксельные значения предсказанного изображения из пиксельных значений изображения компенсации движения в соответствии с режимом предсказания и выводит предсказанное изображение, в котором получены пиксельные значения, на суммирующую схему 15 через переключатель 23.The motion prediction-compensation circuit 21 determines the prediction mode in accordance with an identification mark supplied from the lossless decoding circuit 12, and selects a frame for use as a reference frame among the decoded frames stored in the frame memory 19 in accordance with the prediction mode. The motion compensation prediction-circuit 21 determines the macroblock corresponding to the target predicted image among the macroblocks constituting the reference frame based on the motion vector supplied from the lossless decoding circuit 12, and extracts the specific macroblock as the motion compensation image. The motion compensation prediction-circuit 21 receives the pixel values of the predicted image from the pixel values of the motion compensation image in accordance with the prediction mode, and outputs the predicted image in which the pixel values are obtained to the summing circuit 15 through the switch 23.

Схема 22 внутрикадрового предсказания выполняет внутрикадровое предсказание в соответствии с данными режима внутрикадрового предсказания, поданными из схемы 12 декодирования без потерь, чтобы генерировать предсказанное изображение. Схема 22 внутрикадрового предсказания выводит генерированное предсказанное изображение на суммирующую схему 15 через переключатель 23.The intra prediction circuit 22 performs intra prediction in accordance with the intra prediction mode data supplied from the lossless decoding circuit 12 to generate a predicted image. The intra prediction circuit 22 outputs the generated predicted image to the adder circuit 15 through the switch 23.

Переключатель 23 соединяется с терминалом а2, если предсказанное изображение генерируется схемой 21 предсказания-компенсации движения, и с терминалом b2, если предсказанное изображение генерируется схемой 22 внутрикадрового предсказания. Переключением переключателя 23 также управляет, например, управляющая схема 31.The switch 23 is connected to terminal a2 if the predicted image is generated by motion prediction-compensation circuit 21, and to terminal b2 if the predicted image is generated by intra-frame prediction circuit 22. The switching of the switch 23 is also controlled, for example, by a control circuit 31.

Управляющая схема 31 переключает соединение переключателей 20 и 23 и управляет всей работой декодирующего устройства 1. Является ли подлежащее обработке изображение изображением с внутрикадровым кодированием или изображением с межкадровым кодированием, может быть определено управляющей схемой 31.The control circuit 31 switches the connection of the switches 20 and 23 and controls the entire operation of the decoding device 1. Whether the image to be processed is an image with intra-frame encoding or an image with inter-frame encoding can be determined by the control circuit 31.

Фиг. 6 является блок-схемой, иллюстрирующей пример конфигурации схемы 21 предсказания-компенсации движения по Фиг. 3.FIG. 6 is a block diagram illustrating an example configuration of the motion prediction-compensation circuit 21 of FIG. 3.

Как показано на Фиг. 6, схема 21 предсказания-компенсации движения состоит из схемы 41 определения режима предсказания, схемы 42 однонаправленного предсказания, схемы 43 двунаправленного предсказания, предсказывающей схемы 44 и фильтрующей схемы 45. Вектор движения и идентификационная метка, поданные из схемы 12 декодирования без потерь, вводятся в схему 41 определения режима предсказания.As shown in FIG. 6, the motion compensation prediction-circuit 21 consists of a prediction mode determination circuit 41, a unidirectional prediction circuit 42, a bi-directional prediction circuit 43, a prediction circuit 44, and a filter circuit 45. The motion vector and an identification mark supplied from the lossless decoding circuit 12 are input to a prediction mode determination circuit 41.

Схема 41 определения режима предсказания определяет режим предсказания в соответствии с идентификационной меткой, поданной из схемы 12 декодирования без потерь. Схема 41 определения режима предсказания выводит вектор движения на схему 42 однонаправленного предсказания, если определено, что генерирование предсказанного изображения будет выполняться с помощью однонаправленного предсказания, и на схему 43 двунаправленного предсказания, если определено, что генерирование предсказанного изображения будет выполняться с помощью двунаправленного предсказания. Кроме того, схема 41 определения режима предсказания выводит вектор движения на предсказывающую схему 44, если определено, что генерирование предсказанного изображения будет выполнена с помощью фильтрационного предсказания.The prediction mode determination circuit 41 determines the prediction mode in accordance with an identification mark supplied from the lossless decoding circuit 12. The prediction mode determination circuit 41 outputs a motion vector to the unidirectional prediction circuit 42 if it is determined that the generation of the predicted image will be performed using unidirectional prediction and to the bi-directional prediction circuit 43 if it is determined that the generation of the predicted image will be performed using the bi-directional prediction. In addition, the prediction mode determination circuit 41 outputs a motion vector to the prediction circuit 44 if it is determined that the generation of the predicted image will be performed by filtering prediction.

Таким образом, чтобы обеспечить определение фильтрационного предсказания, в качестве значения идентификационной метки может быть установлено значение, отличное от значения, обозначающего однонаправленное предсказание, и от значения, обозначающего двунаправленное предсказание, которые определены в обычном стандарте Н.264. Или же режим предсказания может быть определен заранее заданным способом вместо определения его в соответствии с идентификационной меткой, чтобы снизить объем данных.Thus, in order to ensure the determination of filtering prediction, a value other than a value indicating unidirectional prediction and a value indicating bi-directional prediction, which are defined in the standard H.264 standard, can be set as the value of the identification mark. Alternatively, the prediction mode may be determined in a predetermined manner instead of being determined in accordance with an identification mark in order to reduce the amount of data.

Схема 42 однонаправленного предсказания рассматривает множество кадров, упорядоченных в одном временном направлении, в качестве опорных кадров и определяет макроблоки в опорных кадрах, соответствующих предсказанному изображению, на основе векторов движения, как показано на Фиг. 1. Кроме того, схема 42 однонаправленного предсказания считывает определенные макроблоки в соответствующих опорных кадрах как изображения компенсации движения из кадровой памяти 19 и генерирует предсказанное изображение, используя пиксельные значения любого из изображений компенсации движения в качестве пиксельных значений предсказанного изображения. Схема 42 однонаправленного предсказания выводит предсказанное изображение на суммирующую схему 15. В качестве однонаправленного предсказания, выполненного схемой 42 однонаправленного предсказания, используется, например, однонаправленное предсказание, определенное в стандарте Н.264.The unidirectional prediction circuit 42 considers a plurality of frames arranged in one time direction as reference frames and determines macroblocks in the reference frames corresponding to the predicted image based on motion vectors, as shown in FIG. 1. In addition, the unidirectional prediction circuit 42 reads certain macroblocks in the respective reference frames as motion compensation images from the frame memory 19 and generates a predicted image using the pixel values of any of the motion compensation images as the pixel values of the predicted image. The unidirectional prediction circuit 42 outputs the predicted image to the adder circuit 15. As the unidirectional prediction performed by the unidirectional prediction circuit 42, for example, the unidirectional prediction defined in the H.264 standard is used.

Схема 43 двунаправленного предсказания рассматривает множество кадров, упорядоченных в двух временных направлениях, в качестве опорных кадров и определяет макроблоки в опорных кадрах, соответствующих предсказанному изображению, на основе векторов движения, как показано на Фиг.2. Кроме того, схема 43 двунаправленного предсказания считывает определенные макроблоки в соответствующих опорных кадрах как изображения компенсации движения из кадровой памяти 19 и генерирует предсказанное изображение, используя средние значения пиксельных значений считанных изображений компенсации движения в качестве пиксельных значений предсказанного изображения. Схема 43 двунаправленного предсказания выводит предсказанное изображение на суммирующую схему 15. В качестве двунаправленного предсказания, выполненного схемой 43 двунаправленного предсказания, используется, например, двунаправленное предсказание, определенное в стандарте Н.264.The bi-directional prediction circuit 43 considers the plurality of frames arranged in two time directions as reference frames and determines macroblocks in the reference frames corresponding to the predicted image based on motion vectors, as shown in FIG. 2. In addition, the bidirectional prediction circuit 43 reads certain macroblocks in the respective reference frames as motion compensation images from the frame memory 19 and generates a predicted image using the average pixel values of the read motion compensation images as the pixel values of the predicted image. The bi-directional prediction circuit 43 outputs the predicted image to the adder circuit 15. As the bi-directional prediction performed by the bi-directional prediction circuit 43, for example, the bi-directional prediction defined in the H.264 standard is used.

Предсказывающая схема 44 определяет множество кадров, упорядоченных в одном или двух временных направлениях, в качестве опорных кадров. Кадры, подлежащие использованию в качестве опорных кадров, могут быть заранее определены или могут быть указаны с помощью данных, переданных кодирующей стороной вместе с идентификационной меткой.Predictive circuit 44 determines a plurality of frames arranged in one or two time directions as reference frames. The frames to be used as reference frames may be predetermined or may be indicated using data transmitted by the encoding side together with the identification mark.

Фиг. 7 является схемой, иллюстрирующей пример опорных кадров.FIG. 7 is a diagram illustrating an example of reference frames.

В примере по Фиг. 7, где за основу взято время предсказанного кадра, в качестве опорных кадров рассматриваются два кадра, предшествующие ему на одну и на две единицы времени, как в примере, описанном выше со ссылкой на Фиг. 5. Из двух опорных кадров кадр, ближайший к предсказанному кадру и на одну единицу времени предшествующий предсказанному кадру, рассматривается в качестве опорного кадра R0, а кадр, на одну единицу времени предшествующий опорному кадру R0, рассматривается в качестве опорного кадра R1.In the example of FIG. 7, where the time of the predicted frame is taken as the basis, two frames preceding it by one and two units of time are considered as reference frames, as in the example described above with reference to FIG. 5. Of the two reference frames, the frame closest to the predicted frame and one unit of time preceding the predicted frame is considered as the reference frame R 0 , and the frame, one unit of time preceding the reference frame R 0 , is considered as the reference frame R 1 .

Фиг. 8 является схемой, иллюстрирующей другой пример опорных кадров.FIG. 8 is a diagram illustrating another example of reference frames.

В примере по Фиг. 8, где за основу взято время предсказанного кадра, в качестве опорных кадров рассматриваются два кадра - предшествующий ему на одну единицу времени и следующий за ним спустя одну единицу времени. Из двух опорных кадров кадр, который на одну единицу времени предшествует предсказанному кадру, рассматривается в качестве опорного кадра L0, а кадр, который следует за предсказанным кадром одну единицу времени спустя, рассматривается в качестве опорного кадра L1.In the example of FIG. 8, where the time of the predicted frame is taken as the basis, two frames are considered as reference frames — one frame of time preceding it and one unit of time following it. Of the two reference frames, a frame that precedes a predicted frame by one unit of time is considered as a reference frame L 0 , and a frame that follows a predicted frame one unit of time later is considered as a reference frame L 1 .

Таким образом, в фильтрационном предсказании в качестве опорных кадров используются множество кадров, упорядоченных в одном временном направлении, или множество кадров, упорядоченных в двух направлениях.Thus, in filtering prediction, a plurality of frames arranged in one time direction or a plurality of frames ordered in two directions are used as reference frames.

Кроме того, предсказывающая схема 44 на основе вектора движения, поданного из схемы 41 определения режима предсказания, определяет макроблок, соответствующий предсказанному изображению, среди декодированных макроблоков в по меньшей мере одном из опорных кадров, определенных способом, показанным на Фиг. 7 или 8.In addition, the predictive circuit 44 based on the motion vector supplied from the predictive mode determination circuit 41 determines the macroblock corresponding to the predicted image among the decoded macroblocks in at least one of the reference frames determined by the method shown in FIG. 7 or 8.

Далее предсказывающая схема 44 выполняет предсказание движения по отношению к оставшемуся опорному кадру (по меньшей мере одному опорному кадру) среди опорных кадров, определенных способом, показанным на Фиг. 7 или 8, с помощью макроблока, соответствующего предсказанному изображению, определенному на основе вектора движения, благодаря чему определяется макроблок, соответствующий предсказанному изображению.Next, the prediction circuit 44 performs motion prediction with respect to the remaining reference frame (at least one reference frame) among the reference frames determined by the method shown in FIG. 7 or 8, using a macroblock corresponding to the predicted image determined based on the motion vector, whereby a macroblock corresponding to the predicted image is determined.

Предсказывающая схема 44 считывает определенные макроблоки в соответствующих опорных кадрах в качестве изображений компенсации движения из кадровой памяти 19 и выводит считанные изображения компенсации движения на фильтрующую схему 45.The predictive circuit 44 reads certain macroblocks in the respective reference frames as motion compensation images from the frame memory 19 and outputs the read motion compensation images to the filtering circuit 45.

То есть предсказывающая схема 44 извлекает изображение компенсации движения на основе вектора движения из части опорных кадров и извлекает изображение компенсации движения из оставшегося опорного кадра на основе предсказания движения с помощью изображения предсказания движения.That is, the predictive circuit 44 extracts a motion compensation image based on the motion vector from a portion of the reference frames and extracts the motion compensation image from the remaining reference frame based on the motion prediction using the motion prediction image.

Вектор движения может быть выполнен не в элементах макроблоков размером 16×16 пикселов, а в элементах блоков, полученных дальнейшим делением макроблоков. Изображения в элементах макроблоков вводятся, например, в фильтрующую схему 45. На Фиг. 6 две стрелки, идущие от предсказывающей схемы 44 к фильтрующей схеме 45 означают, что подаются два изображения компенсации движения.The motion vector can be performed not in elements of macroblocks with a size of 16 × 16 pixels, but in elements of blocks obtained by further division of macroblocks. Images in macroblock elements are introduced, for example, into a filter circuit 45. In FIG. 6, two arrows extending from the predictive circuit 44 to the filter circuit 45 mean that two motion compensation images are supplied.

Фильтрующая схема 45 принимает изображения компенсации движения, поданные от предсказывающей схемы 44, выполняет их фильтрацию и выводит предсказанное изображение, полученное путем выполнения фильтрации, на суммирующую схему 15.The filter circuit 45 receives motion compensation images supplied from the predictive circuit 44, filters them, and outputs the predicted image obtained by performing filtering to the summing circuit 15.

Фиг. 9 является блок-схемой, иллюстрирующей пример конфигурации предсказывающей схемы 44 по Фиг. 6. На Фиг. 9 в предсказывающей схеме 44 имеются схема 51 компенсации движения и схема 52 предсказания движения.FIG. 9 is a block diagram illustrating an example configuration of the predictive circuit 44 of FIG. 6. In FIG. 9, in the prediction circuit 44, there is a motion compensation circuit 51 and a motion prediction circuit 52.

Схема 51 компенсации движения определяет макроблок, соответствующий предсказанному изображению, в части опорных кадров, с помощью вектора движения, поданного из схемы 41 определения режима предсказания. Схема 51 компенсации движения считывает изображение определенного макроблока из кадровой памяти 19 и извлекает его в качестве изображения компенсации движения. Схема 51 компенсации движения подает извлеченное изображение МС0 компенсации движения на фильтрующую схему 45 и, кроме того, подает его на схему 52 предсказания движения.The motion compensation circuit 51 determines a macroblock corresponding to the predicted image in the reference frame portion using the motion vector supplied from the prediction mode determination circuit 41. The motion compensation circuit 51 reads an image of a specific macroblock from the frame memory 19 and extracts it as a motion compensation image. The motion compensation circuit 51 feeds the extracted motion compensation image MS 0 to the filter circuit 45 and, in addition, feeds it to the motion prediction circuit 52.

Схема 52 предсказания движения выполняет сопоставление (выполняет предсказание движения) изображения МС0 компенсации движения, поданного из схемы 51 компенсации движения, с по меньшей мере одним или более из оставшихся опорных кадров (опорных кадров, отличных от опорного кадра, из которого было извлечено изображение МС0 компенсации движения).The motion prediction circuitry 52 compares (performs motion prediction) of the motion compensation image MS 0 supplied from the motion compensation circuit 51 with at least one or more of the remaining reference frames (reference frames other than the reference frame from which the MS image was extracted 0 motion compensation).

При поиске в опорном кадре части, совпадающей или сходной с изображением МС0 компенсации движения, схема 52 предсказания движения использует некоторую стоимостную функцию, которая заранее является общей для кодирующего устройства и декодирующего устройства 1. Например, общей является стоимостная функция, выраженная нижеследующим уравнением (3).When searching for a part in the reference frame that matches or is similar to the image of the motion compensation MC 0, the motion prediction circuitry 52 uses some cost function that is common to the encoder and decoder 1 in advance. For example, the cost function expressed by the following equation is common (3 )

Figure 00000003
Figure 00000003

В выражении (3) Refi(posX+x, posY+y) представляет собой значение пиксела в координатах (posX+x, posY+y) на опорной плоскости i. Аналогично, МС[1](x, y) представляет собой значение пиксела в относительной позиции (x, y) от верхнего левого края блока изображения МС[1] компенсации движения (то есть изображения МС0 компенсации движения). bkwidth и bkheight обозначают, соответственно, ширину и высоту блока.In expression (3), Refi (posX + x, posY + y) represents the pixel value in coordinates (posX + x, posY + y) on the reference plane i. Similarly, the MS [1] (x, y) is the pixel value at the relative position (x, y) from the upper left edge of the motion compensation image block MS [1] (that is, the motion compensation image MS 0 ). bk width and bk height indicate the width and height of the block, respectively.

Как выражено уравнением (3), путем суммирования абсолютного значения разности со всеми пикселами в блоке может быть вычислена степень сходства между изображением МС[1] компенсации движения и блока (posX, posY) в опорной плоскости i.As expressed by equation (3), by summing the absolute value of the difference with all the pixels in the block, the degree of similarity between the motion compensation image MS [1] and the block (posX, posY) in the reference plane i can be calculated.

Степень сходства определяется стоимостной функцией, общей для кодирующего устройства и декодирующего устройства. То есть определение степени сходства может быть изменено путем изменения стоимостной функции. Другой пример стоимостной функции выражен нижеследующим уравнением (4). Уравнение (4) является примером, в котором в качестве стоимостной функции использована минимальная квадратичная ошибка.The degree of similarity is determined by the cost function common to the encoder and decoder. That is, the determination of the degree of similarity can be changed by changing the cost function. Another example of a cost function is expressed by the following equation (4). Equation (4) is an example in which the minimum quadratic error is used as the cost function.

Figure 00000004
Figure 00000004

Множество стоимостных функций может быть определено и может переключаться для каждого блока или каждой последовательности. Адаптивное изменение стоимостной функции для оптимизации результата дальнейшей обработки фильтрации приводит к улучшению эффективности кодированияMany cost functions can be defined and can be switched for each block or each sequence. Adaptive change of the cost function to optimize the result of further filtering processing leads to improved coding efficiency

При такой стоимостной функции, когда меняется (posX, posY), изображение макроблока, который минимизирует Cost, наиболее сходно с изображением МС[1] компенсации движения (то есть изображением MC0 компенсации движения).With such a cost function, when (posX, posY) changes, the macroblock image that minimizes Cost is most similar to the motion compensation image MC [1] (that is, the motion compensation image MC 0 ).

Диапазон, в пределах которого изменяется (posX, posY), является диапазоном поиска, и необходимо, чтобы диапазон поиска был общим для кодирующего устройства и декодирующего устройства 1. Отметим, что может быть использовано произвольное значение, например, может быть использовано заданное значение, или значение может адаптивно изменяться для каждой последовательности, каждого кадра, каждой области и т.д. В случае изменения значения соответствующая метка может быть описана отдельно в потоке, или кодирующее устройство и декодирующее устройство 1 могут осуществить изменение на основе решения по определенному алгоритму.The range within which (posX, posY) varies is a search range, and it is necessary that the search range be common for the encoder and decoder 1. Note that an arbitrary value can be used, for example, a set value can be used, or the value can adaptively change for each sequence, each frame, each region, etc. If the value changes, the corresponding label can be described separately in the stream, or the encoding device and decoding device 1 can make a change based on the decision according to a certain algorithm.

Изображение МС[1] компенсации движения получается так, чтобы оно было сходным с кодированным изображением текущего блока (макроблока, подлежащего обработке), и, таким образом, изображение МС[1] компенсации движения, которое получено посредством предсказания движения с помощью такой стоимостной функции, сходно с кодированным изображением текущего блока.The motion compensation image MS [1] is obtained so that it is similar to the encoded image of the current block (the macroblock to be processed), and thus, the motion compensation image MS [1], which is obtained by motion prediction using such a cost function, similar to the encoded image of the current block.

Декодер выполняет таким способом предсказание движения, посредством чего множество изображений MC[i] компенсации движения (i>1) может быть получено с помощью одного вектора движения.The decoder performs motion prediction in this way, whereby a plurality of motion compensation images MC [i] (i> 1) can be obtained with a single motion vector.

Схема 52 предсказания движения считывает из кадровой памяти 122 изображение макроблока, которое совпадает или сходно с изображением МС0 компенсации движения в опорном кадре, и извлекает его в качестве изображения компенсации движения. Схема 52 предсказания движения подает извлеченное изображение MC1 компенсации движения на фильтрующую схему 45.The motion prediction circuitry 52 reads a macroblock image from the frame memory 122 that matches or resembles the motion compensation image MS 0 in the reference frame, and extracts it as the motion compensation image. The motion prediction circuitry 52 supplies the extracted motion compensation image MC 1 to the filter circuit 45.

Фиг. 10 является блок-схемой, иллюстрирующей пример конфигурации фильтрующей схемы 45. В фильтрующей схеме 45, сконфигурированной по Фиг. 10, выполняется фильтрация сигнала во временном интервале.FIG. 10 is a block diagram illustrating an example configuration of a filter circuit 45. In the filter circuit 45 configured in FIG. 10, the signal is filtered in a time interval.

Как показано на Фиг. 10, фильтрующая схема 45 состоит из схемы 61 вычисления разности, схемы 62 фильтра нижних частот, схемы 63 настройки усиления, схемы 64 фильтра верхних частот, схемы 65 настройки усиления, суммирующей схемы 66 и суммирующей схемы 67. Изображение МС0 компенсации движения, поданное от предсказывающей схемы 44, вводится в схему 61 вычисления разности и суммирующую схему 67, а изображение MC1 компенсации движения вводится в схему 61 вычисления разности.As shown in FIG. 10, the filtering circuit 45 consists of a difference calculating circuit 61, a low-pass filter circuit 62, a gain tuning circuit 63, a high-pass filter circuit 64, a gain tuning circuit 65, a summing circuit 66, and a summing circuit 67. The motion compensation image MS 0 from the prediction circuit 44 is input to the difference calculating circuit 61 and the summing circuit 67, and the motion compensation image MC 1 is input to the difference calculating circuit 61.

В случае генерирования предсказанного изображения с помощью однонаправленного предсказания, как показано на Фиг. 7, изображение, извлеченное из опорного кадра R0, который, как считается, имеет более высокую корреляцию с предсказанным изображением, рассматривается, например, в качестве изображения МС0 компенсации движения, а изображение, извлеченное из опорного кадра R1, рассматривается, например, в качестве изображения MC1 компенсации движения. Изображение, извлеченное из опорного кадра R0, может рассматриваться в качестве изображения MC1 компенсации движения, а изображение, извлеченное из опорного кадра R1, может рассматриваться в качестве изображения МС0 компенсации движения.In the case of generating a predicted image using unidirectional prediction, as shown in FIG. 7, an image extracted from the reference frame R 0 , which is believed to have a higher correlation with the predicted image, is considered, for example, as a motion compensation image MS 0 , and an image extracted from the reference frame R 1 is considered, for example, as the image of the motion compensation MC 1 . The image extracted from the reference frame R 0 can be considered as a motion compensation image MC 1 , and the image extracted from the reference frame R 1 can be considered as a motion compensation image MS 0 .

С другой стороны, в случае генерирования предсказанного изображения с помощью двунаправленного предсказания, как показано на Фиг. 8, изображение, извлеченное из опорного кадра L0, который предшествует на одну единицу времени, рассматривается в качестве изображения МС0 компенсации движения, а изображение, извлеченное из опорного кадра L1, который следует спустя одну единицу времени, рассматривается, например, в качестве изображения МС1 компенсации движения. Изображение, извлеченное из опорного кадра L0, может рассматриваться в качестве изображения МС1 компенсации движения, а изображение, извлеченное из опорного кадра L1, может рассматриваться в качестве изображения МС0 компенсации движения.On the other hand, in the case of generating a predicted image using bidirectional prediction, as shown in FIG. 8, an image extracted from a reference frame L 0 that precedes one unit of time is considered as an image of the motion compensation MC 0 , and an image extracted from a reference frame L 1 that follows one unit of time is considered, for example, as image MS 1 motion compensation. The image extracted from the reference frame L 0 can be considered as the image of the motion compensation MS 1 , and the image extracted from the reference frame L 1 can be considered as the image of the motion compensation MS 0 .

Схема 61 вычисления разности вычисляет разность между изображением МС0 компенсации движения и изображением МС1 компенсации движения и выводит разностное изображение на схему 62 фильтра нижних частот. Разностное изображение D выражено нижеследующим уравнением (5).The difference calculation circuit 61 calculates the difference between the motion compensation image MS 0 and the motion compensation image MS 1 and outputs the difference image to the low-pass filter circuit 62. The difference image D is expressed by the following equation (5).

Figure 00000005
Figure 00000005

В уравнении (5) (i, j) обозначает относительную позицию пиксела в изображении компенсации движения. Когда операция подлежит выполнению в элементах макроблоков размером 16×16 пикселов, удовлетворяются условия 0≤i≤16 и 0≤j≤16. Это же справедливо для нижеследующего.In equation (5) (i, j) denotes the relative position of a pixel in a motion compensation image. When the operation is to be performed in elements of macroblocks with a size of 16 × 16 pixels, the conditions 0≤i≤16 and 0≤j≤16 are satisfied. The same is true for the following.

В схеме 62 фильтра нижних частот имеется схема КИХ-фильтра. Схема 62 фильтра нижних частот выполняет фильтрацию нижних частот разностного изображения D, поданного из схемы 61 вычисления разности, и выводит полученное изображение на схему 63 настройки усиления и схему 64 фильтра верхних частот. Разностное изображение D', которое является изображением, полученным путем выполнения фильтрации нижних частот, выражено нижеследующим уравнением (6). В уравнении (6) LPF(X) обозначает, что фильтрация нижних частот выполняется по отношению к введенному изображению X с помощью двумерного КИХ-фильтра.In the lowpass filter circuit 62, there is an FIR filter circuit. The low-pass filter circuit 62 performs low-pass filtering of the differential image D supplied from the difference calculating circuit 61, and outputs the obtained image to the gain tuning circuit 63 and the high-pass filter circuit 64. The difference image D ′, which is an image obtained by performing low-pass filtering, is expressed by the following equation (6). In equation (6), LPF (X) indicates that low-pass filtering is performed relative to the input image X using a two-dimensional FIR filter.

Figure 00000006
Figure 00000006

Схема 63 настройки усиления настраивает усиление разностного изображения D', поданного из схемы 62 фильтра нижних частот, и выводит изображение, в котором настроено усиление, на суммирующую схему 66. Выведенное из схемы 63 настройки усиления изображение X(i, j) выражено нижеследующим уравнением (7).The gain tuning circuit 63 adjusts the gain of the differential image D ′ supplied from the low-pass filter circuit 62 and outputs the image in which the gain is tuned to the summing circuit 66. The image X (i, j) derived from the gain tuning circuit 63 is expressed by the following equation ( 7).

Figure 00000007
Figure 00000007

В схеме 64 фильтра верхних частот имеется схема КИХ-фильтра. Схема 64 фильтра верхних частот выполняет фильтрацию верхних частот разностного изображения D', поданного из схемы 62 фильтра нижних частот, и выводит полученное изображение на схему 65 настройки усиления. Разностное изображение D'', которое является изображением, полученным путем выполнения фильтрации верхних частот, выражено нижеследующим уравнением (8). В уравнении (8) HPF(X) обозначает, что фильтрация верхних частот выполняется по отношению к введенному изображению X с помощью двумерного КИХ-фильтра.In the high pass filter circuit 64, there is an FIR filter circuit. The high-pass filter circuit 64 performs high-pass filtering of the differential image D ′ supplied from the low-pass filter circuit 62 and outputs the obtained image to the gain tuning circuit 65. The difference image D ″, which is the image obtained by performing high-pass filtering, is expressed by the following equation (8). In equation (8), HPF (X) indicates that high-pass filtering is performed relative to the input image X using a two-dimensional FIR filter.

Figure 00000008
Figure 00000008

Схема 65 настройки усиления настраивает усиление разностного изображения D'', поданного из схемы 64 фильтра верхних частот, и выводит изображение, в котором настроено усиление, на суммирующую схему 66. Выводимое изображение Y(i, j) схемы 65 настройки усиления выражено нижеследующим уравнением (9).The gain tuning circuit 65 adjusts the gain of the differential image D ″ supplied from the high-pass filter circuit 64 and outputs the image in which the gain is tuned to the summing circuit 66. The output image Y (i, j) of the gain tuning circuit 65 is expressed by the following equation ( 9).

Figure 00000009
Figure 00000009

В качестве значений α в выражении (7) и β в выражении (9) выбраны, например, значения α=0,8 и β=0,2, но для увеличения точности предсказанного изображения могут быть использованы другие значения. Кроме того, значения могут адаптивно изменяться в соответствии со свойствами введенной последовательности.For the values of α in expression (7) and β in expression (9), for example, the values α = 0.8 and β = 0.2, but other values can be used to increase the accuracy of the predicted image. In addition, the values can adaptively change in accordance with the properties of the entered sequence.

Суммирующая схема 66 суммирует изображение X(i, j) и изображение Y(i, j), в которых настроено усиление, и выводит изображение, полученное посредством суммирования. Выводимое изображение Z(i, j) суммирующей схемы 66 выражено нижеследующим уравнением (10).The summing circuit 66 summarizes the image X (i, j) and the image Y (i, j), in which the gain is adjusted, and outputs the image obtained by summing. The output image Z (i, j) of the summing circuit 66 is expressed by the following equation (10).

Figure 00000010
Figure 00000010

Выводимое изображение Z(i, j) представляет собой высокочастотный компонент изображения, который может быть получен из разности между изображением МС0 компенсации движения и изображением МС1 компенсации движения, то есть из корреляции между ними.The output image Z (i, j) is a high-frequency image component that can be obtained from the difference between the motion compensation image MS 0 and the motion compensation image MS 1 , i.e., from the correlation between them.

Суммирующая схема 67 суммирует выводимое изображение Z(i, j), поданное из суммирующей схемы 66, с изображением МС0 компенсации движения и выводит полученное изображение в качестве предсказанного изображения на суммирующую схему 15. Предсказанное изображение S(i, j), которое является окончательными выходными данными суммирующей схемы 67, выражено нижеследующим уравнением (11).Summing circuit 67 summarizes the output image Z (i, j) supplied from summing circuit 66 with motion compensation image MS 0 and outputs the resulting image as a predicted image to summing circuit 15. The predicted image S (i, j), which is final the output of the summing circuit 67 is expressed by the following equation (11).

Figure 00000011
Figure 00000011

Таким образом, согласно режиму фильтрационного предсказания, в качестве предсказанного изображения генерируется изображение, которое получается путем суммирования изображения, представляющего собой высокочастотный компонент, и изображения МС0 компенсации движения. Это предсказанное изображение включает в себя больший объем высокочастотного компонента, чем предсказанное изображение, которое получено в случае простого выполнения двунаправленного предсказания. Как описано выше, поскольку в качестве пиксельных значений получены средние значения пиксельных значений множества изображений компенсации движения, в предсказанном изображении, генерированном путем выполнения двунаправленного предсказания, высокочастотный компонент утрачивается.Thus, according to the filtration prediction mode, an image is generated as the predicted image, which is obtained by summing the image representing the high-frequency component and the motion compensation image MS 0 . This predicted image includes a larger volume of the high-frequency component than the predicted image, which is obtained in the case of simple bi-directional prediction. As described above, since average pixel values of the plurality of motion compensation images are obtained as pixel values in the predicted image generated by performing bidirectional prediction, the high-frequency component is lost.

Кроме того, поскольку на суммирующей схеме 15 к декодированному изображению прибавляется предсказанное изображение, включающее в себя большой объем высокочастотного компонента, изображение, которое окончательно выводится из декодирующего устройства 1, является изображением с высоким разрешением, включающим в себя большой объем высокочастотного компонента.In addition, since in the summing circuit 15, a predicted image including a large volume of the high-frequency component is added to the decoded image, the image that is finally output from the decoding apparatus 1 is a high-resolution image including a large volume of the high-frequency component.

Далее, предсказанное изображение может генерироваться путем более эффективного использования временной корреляции изображений по сравнению со случаем простого выполнения однонаправленного предсказания. Предсказанное изображение, генерированное посредством однонаправленного предсказания, не рассматривается в качестве изображения, генерированного за счет достаточного использования временной корреляции изображений, потому что используются пиксельные значения любого из множества изображений компенсации движения, как описано выше.Further, the predicted image can be generated by making more efficient use of the temporal correlation of the images compared to the case of simple unidirectional prediction. A predicted image generated by unidirectional prediction is not considered as an image generated by the sufficient use of temporal correlation of images, because the pixel values of any of a plurality of motion compensation images are used, as described above.

Таким образом, декодирующее устройство 1 способно увеличить эффективность кодирования, снизив при этом возрастание объема данных.Thus, the decoding device 1 is able to increase the encoding efficiency, while reducing the increase in data volume.

Описание алгоритма обработки декодированияDescription of decoding processing algorithm

Теперь будет описана обработка, выполняемая декодирующим устройством 1, имеющим описанную выше конфигурацию.Now, processing performed by the decoding apparatus 1 having the above configuration will be described.

Вначале со ссылкой на блок-схему по Фиг. 11 будет описана операция декодирования, выполняемая декодирующим устройством 1.First, with reference to the flowchart of FIG. 11, a decoding operation performed by the decoding apparatus 1 will be described.

Обработка по Фиг. 11 начинается, когда изображение некоторого размера, такого как макроблок размером 16×16 пикселов, считывается схемой 12 декодирования без потерь, например, из данных, сохраненных в запоминающем буфере 11. Обработка на последовательных этапах по Фиг. 11 при необходимости выполняется параллельно с обработкой на другом этапе или в измененном порядке. То же справедливо для обработки на последовательных этапах на отдельных блок-схемах, описанных ниже.The processing of FIG. 11 begins when an image of some size, such as a 16 × 16 pixel macroblock, is read out by the lossless decoding circuit 12, for example, from data stored in the storage buffer 11. The processing in successive steps of FIG. 11, if necessary, is performed in parallel with processing at another stage or in a modified order. The same is true for processing in sequential steps on separate flowcharts described below.

На этапе S1 схема 12 декодирования без потерь выполняет операцию декодирования изображения, считанного из запоминающего буфера 11, и выводит квантованный коэффициент преобразования на схему 13 обратного квантования. Кроме того, схема 12 декодирования без потерь выводит данные режима внутрикадрового предсказания на схему 22 внутрикадрового предсказания, если изображение, подлежащее декодированию, является изображением с внутрикадровым кодированием, и выводит вектор движения и идентификационную метку на схему 21 предсказания-компенсации движения, если изображение, подлежащее декодированию, является изображением с межкадровым кодированием.In step S1, the lossless decoding circuit 12 performs the decoding operation of an image read from the storage buffer 11 and outputs the quantized transform coefficient to the inverse quantization circuit 13. In addition, the lossless decoding circuit 12 outputs the intra prediction mode data to the intra prediction circuit 22 if the image to be decoded is an intra-coded image and outputs a motion vector and an identification mark to the motion prediction-compensation circuit 21 if the image to be decoding, is an image with inter-frame encoding.

На этапе S2 схема 13 обратного квантования выполняет обратное квантование способом, соответствующим способу квантования, использованному кодирующей стороной, и выводит коэффициент преобразования на схему 14 обратного ортогонального преобразования.In step S2, the inverse quantization circuit 13 performs inverse quantization in a manner corresponding to the quantization method used by the encoding side, and outputs the transform coefficient to the inverse orthogonal transform circuit 14.

На этапе S3 схема 14 обратного ортогонального преобразования выполняет обратное ортогональное преобразование коэффициента преобразования, поданного из схемы 13 обратного квантования, и выводит полученное изображение на суммирующую схему 15.In step S3, the inverse orthogonal transform circuit 14 performs the inverse orthogonal transform of the transform coefficient supplied from the inverse quantization circuit 13 and outputs the obtained image to the summing circuit 15.

На этапе S4 суммирующая схема 15 совмещает декодированное изображение, поданное из схемы 14 обратного ортогонального преобразования, и предсказанное изображение, поданное из схемы 21 предсказания-компенсации движения или из схемы 22 внутрикадрового предсказания, и выводит комбинированное изображение на фильтр 16 устранения блочности.In step S4, the summing circuit 15 combines the decoded image supplied from the inverse orthogonal transform circuit 14 and the predicted image supplied from the motion prediction-compensation circuit 21 or from the intra prediction circuit 22 and outputs the combined image to the deblocking filter 16.

На этапе S5 фильтр 16 устранения блочности выполняет фильтрацию, чтобы устранить блоковый шум, включенный в комбинированное изображение, и выводит изображение, из которого удален блоковый шум.In step S5, the deblocking filter 16 filters to eliminate block noise included in the composite image and outputs an image from which block noise is removed.

На этапе S6 кадровая память 19 временно сохраняет изображение, поданное с фильтра 16 устранения блочности.In step S6, the frame memory 19 temporarily stores the image supplied from the deblocking filter 16.

На этапе S7 управляющая схема 31 оценивает, является ли целевое изображение изображением с внутрикадровым кодированием.In step S7, the control circuit 31 evaluates whether the target image is an intra-frame encoded image.

Если на этапе S7 установлено, что целевое изображение является изображением с внутрикадровым кодированием, схема 22 внутрикадрового предсказания на этапе S8 выполняет внутрикадровое предсказание, чтобы генерировать предсказанное изображение, и выводит генерированное предсказанное изображение на суммирующую схему 15.If it is determined in step S7 that the target image is an intra-frame encoded image, the intra-frame prediction circuit 22 in step S8 performs intra-frame prediction to generate the predicted image, and outputs the generated predicted image to the adder circuit 15.

С другой стороны, если на этапе S7 установлено, что целевое изображение не является изображением с внутрикадровым кодированием, то есть является изображением с межкадровым кодированием, на этапе S9 схема 21 предсказания-компенсации движения выполняет операцию предсказания-компенсации движения. Предсказанное изображение, генерированное путем выполнения обработки предсказания-компенсации движения, выводится на суммирующую схему 15. Операция предсказания-компенсации движения будет описана ниже со ссылкой на блок-схему по Фиг. 12.On the other hand, if it is determined in step S7 that the target image is not an intra-frame encoded image, that is, it is an inter-frame encoded image, in step S9, the motion prediction-compensation circuit 21 performs a motion-prediction-compensation operation. The predicted image generated by performing the motion prediction-compensation processing is output to the adder circuit 15. The motion-prediction-compensation operation will be described below with reference to the flowchart of FIG. 12.

На этапе S10 управляющая схема 31 оценивает, была ли описанная выше операция выполнена по отношению к макроблокам во всем кадре. Если управляющая схема 31 установила, что операция не была выполнена по отношению к макроблокам во всем кадре, операция повторяется для другого макроблока с этапа S1.In step S10, the control circuit 31 evaluates whether the above operation has been performed with respect to the macroblocks in the entire frame. If the control circuit 31 determines that the operation has not been performed with respect to the macroblocks in the entire frame, the operation is repeated for another macroblock from step S1.

С другой стороны, если на этапе S10 установлено, что операция была выполнена по отношению к макроблокам во всем кадре, на этапе S11 переупорядочивающий буфер 17 выводит генерированный кадр на цифроаналоговую преобразовательную схему 18 в соответствии с управляющим воздействием, осуществляемым управляющей схемой 31.On the other hand, if it is determined in step S10 that the operation was performed with respect to the macroblocks in the entire frame, in step S11, the reordering buffer 17 outputs the generated frame to the digital-analog converter circuit 18 in accordance with the control action by the control circuit 31.

На этапе S12 цифроаналоговая преобразовательная схема 18 выполняет цифроаналоговое преобразование кадра, поданного из переупорядочивающего буфера 17, и выводит аналоговый сигнал вовне. Описанная выше операция выполняется по отношению к отдельным кадрам.In step S12, the digital-to-analog conversion circuit 18 performs digital-to-analog conversion of the frame supplied from the reordering buffer 17 and outputs the analog signal to the outside. The operation described above is performed with respect to individual frames.

Далее операция предсказания-компенсации движения, которая выполняется на этапе S9 по Фиг. 11, будет описана со ссылкой на блок-схему по Фиг. 12.Next, the motion prediction-compensation operation that is performed in step S9 of FIG. 11 will be described with reference to the block diagram of FIG. 12.

На этапе S31 схема 41 определения режима предсказания в схеме 21 предсказания-компенсации движения оценивает, означает ли идентификационная метка, поданная из схемы 12 декодирования без потерь, что операция должна быть выполнена в режиме фильтрационного предсказания.In step S31, the prediction mode determination circuit 41 in the motion prediction-compensation circuit 21 evaluates whether the identification tag supplied from the lossless decoding circuit 12 means that the operation should be performed in the filter prediction mode.

Если на этапе S31 установлено, что идентификационная метка означает, что операция должна быть выполнена в режиме фильтрационного предсказания, обработка переходит к этапу S32. На этапе S32 предсказывающая схема 44 выполняет операцию извлечения изображений компенсации движения. Подробности обработки извлечения будут описаны ниже.If it is determined in step S31 that the identification mark means that the operation should be performed in the filter prediction mode, the processing proceeds to step S32. In step S32, the predictive circuit 44 performs an operation of extracting motion compensation images. Details of the extraction processing will be described below.

После того, как извлечены изображения компенсации движения, на этапе S33 фильтрующая схема 45 выполняет операцию фильтрационного предсказания.After the motion compensation images are extracted, in step S33, the filtering circuit 45 performs a filtering prediction operation.

После завершения обработки на этапе S33 завершается операция предсказания-компенсации движения, и обработка возвращается к этапу S9 по Фиг. 11 и переходит к этапу S10.After the processing is completed in step S33, the motion prediction-compensation operation is completed, and the processing returns to step S9 of FIG. 11 and proceeds to step S10.

Кроме того, если на этапе S31 установлено, что идентификационная метка не означает, что операция должна быть выполнена в режиме фильтрационного предсказания, на этапе S32 выполняется однонаправленное или двунаправленное предсказание и генерируется предсказанное изображение.In addition, if it is determined in step S31 that the identification tag does not mean that the operation should be performed in the filter prediction mode, in step S32, unidirectional or bidirectional prediction is performed and a predicted image is generated.

То есть, если идентификационная метка означает, что операция должна быть выполнена в режиме однонаправленного предсказания, вектор движения подается из схемы 41 определения режима предсказания на схему 42 однонаправленного предсказания, и в схеме 42 однонаправленного предсказания выполняется однонаправленное предсказание. Кроме того, если идентификационная метка означает, что операция должна быть выполнена в режиме двунаправленного предсказания, вектор движения подается из схемы 41 определения режима предсказания на схему 43 двунаправленного предсказания, и в схеме 43 двунаправленного предсказания выполняется двунаправленное предсказание. После вывода предсказанного изображения на суммирующую схему 15 операция предсказания-компенсации движения завершается, обработка возвращается к этапу S9 по Фиг. 11 и переходит к этапу S10.That is, if the identification mark means that the operation should be performed in the unidirectional prediction mode, the motion vector is supplied from the prediction mode determination circuit 41 to the unidirectional prediction circuit 42, and in the unidirectional prediction circuit 42, unidirectional prediction is performed. In addition, if the identification mark means that the operation is to be performed in the bidirectional prediction mode, the motion vector is supplied from the prediction mode determination circuit 41 to the bidirectional prediction circuit 43, and in the bidirectional prediction circuit 43, bidirectional prediction is performed. After the predicted image is output to the summing circuit 15, the motion prediction-compensation operation is completed, the processing returns to step S9 of FIG. 11 and proceeds to step S10.

Далее пример процедуры обработки извлечения, выполняемой на этапе S32 по Фиг.12, будет описан со ссылкой на блок-схему по Фиг. 13.Next, an example of the extraction processing procedure performed in step S32 of FIG. 12 will be described with reference to the flowchart of FIG. 13.

Когда операция извлечения начата, предсказывающая схема 44 на этапе S51 устанавливает значение переменной i равным нулю. На этапе S52 схема 51 компенсации движения выполняет компенсацию движения i-го опорного кадра, то есть опорной плоскости 0, тем самым извлекая изображение МС0 компенсации движения. На этапе S53 схема 51 компенсации движения выводит изображение МС0 компенсации движения на фильтрующую схему 45.When the extraction operation is started, the predictive circuit 44 in step S51 sets the value of the variable i to zero. In step S52, the motion compensation circuit 51 performs motion compensation of the ith reference frame, that is, the reference plane 0, thereby extracting the motion compensation image MS 0 . In step S53, the motion compensation circuit 51 outputs an image of the motion compensation MC 0 to the filter circuit 45.

На этапе S54 предсказывающая схема 44 оценивает, удовлетворяет ли значение переменной i условию «меньше или равно N». Если установлено, что значение переменной i равно некоторому натуральному числу N или меньше, обработка переходит к этапу S55.In step S54, the predictor circuit 44 evaluates whether the value of the variable i satisfies the condition “less than or equal to N”. If it is determined that the value of the variable i is equal to some natural number N or less, the processing proceeds to step S55.

На этапе S55 схема 52 предсказания движения дает переменной i приращение. На этапе S56 схема 52 предсказания движения выполняет предсказание движения, такое как сопоставление, опорной плоскости i с помощью изображения МС0 компенсации движения, благодаря чему генерируется изображение MCi компенсации движения. На этапе S57 схема 52 предсказания движения выводит изображение MCi компенсации движения. После завершения обработки на этапе S57 обработка возвращается к этапу S54, и выполняется дальнейшая операция.In step S55, the motion prediction circuitry 52 increments the variable i. In step S56, the motion prediction circuit 52 performs motion prediction, such as matching, to the reference plane i using the motion compensation image MC 0 , whereby a motion compensation image MC i is generated. In step S57, the motion prediction circuit 52 outputs a motion compensation image MC i . After the processing in step S57 is completed, the processing returns to step S54, and a further operation is performed.

Если на этапе S54 установлено, что значение переменной i больше некоторого натурального числа N, операция извлечения завершается, и обработка возвращается к этапу S32 по Фиг. 12 и переходит к этапу S33.If it is determined in step S54 that the value of the variable i is greater than some natural number N, the extraction operation is completed, and the processing returns to step S32 of FIG. 12 and proceeds to step S33.

Далее пример процедуры обработки фильтрации, которая выполняется на этапе S33 по Фиг. 12, будет описан со ссылкой на блок-схему по Фиг. 14.The following is an example of a filtering processing procedure that is performed in step S33 of FIG. 12 will be described with reference to the block diagram of FIG. fourteen.

Когда после извлечения изображения компенсации движения начата обработка фильтрации, схема 61 вычисления разности фильтрующей схемы 45 вычисляет разность между изображением МС0 компенсации движения и изображением MC1 компенсации движения и на этапе S71 выводит разностное изображение на схему 62 фильтра нижних частот.When filtering processing is started after extraction of the motion compensation image, the difference calculating circuit 61 of the filtering circuit 45 calculates a difference between the motion compensation image MS 0 and the motion compensation image MC 1, and outputs a differential image to the low pass filter circuit 62 in step S71.

На этапе S72 схема 62 фильтра нижних частот выполняет фильтрацию нижних частот разностного изображения, поданного из схемы 61 вычисления разности, и выводит изображение, полученное в результате этого, на схему 63 настройки усиления и схему 64 фильтра верхних частот.In step S72, the low-pass filter circuit 62 performs low-pass filtering of the differential image supplied from the difference calculating circuit 61 and outputs the image obtained as a result to the gain tuning circuit 63 and the high-pass filter circuit 64.

На этапе S73 схема 63 настройки усиления настраивает усиление изображения, поданного из схемы 62 фильтра нижних частот, и выводит изображение, в котором настроено усиление, на суммирующую схему 66.In step S73, the gain adjusting circuit 63 adjusts the gain of the image supplied from the low-pass filter circuit 62 and outputs the image in which the gain is tuned to the summing circuit 66.

На этапе S74 схема 64 фильтра верхних частот выполняет фильтрацию верхних частот разностного изображения, поданного из схемы 62 фильтра нижних частот, и выводит изображение, полученное в результате этого, на схему 65 настройки усиления.In step S74, the high-pass filter circuit 64 performs high-pass filtering of the differential image supplied from the low-pass filter circuit 62 and outputs the image obtained as a result to the gain tuning circuit 65.

На этапе S75 схема 65 настройки усиления настраивает усиление разностного изображения, поданного из схемы 64 фильтра верхних частот, и выводит изображение, в котором настроено усиление, на суммирующую схему 66.In step S75, the gain tuning circuit 65 adjusts the gain of the differential image supplied from the high-pass filter circuit 64 and outputs the image in which the gain is tuned to the summing circuit 66.

На этапе S76 суммирующая схема 66 суммирует изображение, поданное из схемы 63 настройки усиления (выходные данные фильтра нижних частот), и изображение, поданное из схемы 65 настройки усиления (выходные данные фильтра верхних частот), тем самым получая высокочастотный компонент изображения. Полученный высокочастотный компонент подается из суммирующей схемы 66 на суммирующую схему 67.In step S76, the summing circuit 66 summarizes the image supplied from the gain tuning circuit 63 (low-pass filter output) and the image fed from the gain tuning circuit 65 (high-pass filter output), thereby obtaining a high-frequency image component. The resulting high-frequency component is supplied from the summing circuit 66 to the summing circuit 67.

На этапе S77 суммирующая схема 67 суммирует изображение, поданное с суммирующей схемы 66 (высокочастотный компонент), с изображением МС0 компенсации движения и выводит полученное в результате этого изображение, служащее предсказанным изображением, на суммирующую схему 15. На этапе S78 фильтрующая схема 45 оценивает, все ли изображения компенсации движения были обработаны. Если установлено, что имеется необработанное изображение компенсации движения, обработка возвращается к этапу S71, и дальнейшая обработка повторяется.In step S77, the summing circuit 67 summarizes the image supplied from the summing circuit 66 (high-frequency component) with the motion compensation image MS 0 and outputs the resulting image serving as the predicted image to the summing circuit 15. In step S78, the filtering circuit 45 estimates, whether all motion compensation images have been processed. If it is determined that there is an unprocessed motion compensation image, the processing returns to step S71, and further processing is repeated.

С другой стороны, если на этапе S78 установлено, что все изображения компенсации движения обработаны, операция фильтрационного предсказания завершается, обработка возвращается к этапу S33 по Фиг. 12, операция предсказания-компенсации движения завершается, обработка возвращается к этапу S9 по Фиг. 11 и переходит к этапу S10.On the other hand, if it is determined in step S78 that all the motion compensation images are processed, the filtering prediction operation is completed, the processing returns to step S33 of FIG. 12, the motion prediction-compensation operation is completed, the processing returns to step S9 of FIG. 11 and proceeds to step S10.

При этом выполняется декодирование с помощью предсказанного изображения, которое генерируется посредством фильтрационного предсказания, так что может быть получено декодированное изображение с высоким разрешением. К тому же, в этот момент часть изображений компенсации движения получается с помощью вектора движения, а оставшееся изображение компенсации движения получается посредством предсказания движения (сопоставление или т.п.) изображения компенсации движения, полученного с помощью вектора движения. Соответственно, число векторов движения, подлежащих кодированию, может быть снижено. То есть, декодирующее устройство 1 способно генерировать предсказанное изображение высокой точности с помощью малого объема управляющих данных.In this case, decoding is performed using the predicted image, which is generated by the filtering prediction, so that a high-resolution decoded image can be obtained. Moreover, at this moment, part of the motion compensation images is obtained using the motion vector, and the remaining motion compensation image is obtained by motion prediction (matching or the like) of the motion compensation image obtained using the motion vector. Accordingly, the number of motion vectors to be encoded can be reduced. That is, the decoding device 1 is capable of generating a predicted image of high accuracy using a small amount of control data.

Второй вариант осуществленияSecond Embodiment

Конфигурация кодирующего устройстваEncoder Configuration

Далее будет описана конфигурация и работа устройства на кодирующей стороне.Next will be described the configuration and operation of the device on the encoding side.

Фиг. 15 является блок-схемой, иллюстрирующей пример конфигурации кодирующего устройства 101. Сжатые данные изображения, которые получены посредством кодирования, выполненного кодирующим устройством 101, вводятся в декодирующее устройство 1 по Фиг. 4.FIG. 15 is a block diagram illustrating a configuration example of an encoder 101. Compressed image data that is obtained by encoding performed by the encoder 101 is input to the decoder 1 of FIG. four.

Аналого-цифровая преобразовательная схема 111 выполняет аналого-цифровое преобразование введенного сигнала и выводит изображение в переупорядочивающий буфер 112.An analog-to-digital conversion circuit 111 performs an analog-to-digital conversion of the input signal and outputs the image to the reordering buffer 112.

Переупорядочивающий буфер 112 выполняет переупорядочивание кадров в соответствии со структурой группы картинок для сжатых данных изображения и выводит изображения определенными блоками, такими как макроблоки. Изображение, выведенное из переупорядочивающего буфера 112, подается на суммирующую схему 113, схему 123 определения режима, схему 125 предсказания-компенсации движения и схему 126 внутрикадрового предсказания.The reordering buffer 112 reorders the frames according to the structure of the picture group for compressed image data and outputs the images in specific blocks, such as macroblocks. The image output from the reordering buffer 112 is supplied to a summing circuit 113, a mode determination circuit 123, a motion compensation prediction circuit 125, and an intra prediction circuit 126.

Суммирующая схема 113 получает разность между изображением, поданным из переупорядочивающего буфера 112, и предсказанным изображением, которое генерируется схемой 125 предсказания-компенсации движения или схемой 126 внутрикадрового предсказания и которое подается через переключатель 127, и выводит остаток на схему 114 ортогонального преобразования. Коль скоро предсказанное изображение более сходно с исходным изображением, и коль скоро полученный здесь остаток меньше, объем кода, закрепленный за остатком, меньше. И, таким образом, эффективность кодирования выше.The summing circuit 113 receives the difference between the image supplied from the reordering buffer 112 and the predicted image that is generated by the motion compensation / prediction circuit 125 or the intra prediction circuit 126 and which is supplied through the switch 127 and outputs the remainder to the orthogonal transform circuit 114. Since the predicted image is more similar to the original image, and since the remainder obtained here is less, the amount of code assigned to the remainder is less. And thus, the coding efficiency is higher.

Схема 114 ортогонального преобразования выполняет ортогональное преобразование, такое как дискретное косинусное преобразование или преобразование Карунена-Лоэва, остатка, поданного из суммирующей схемы 113, и выводит коэффициент преобразования, полученный путем выполнения ортогонального преобразования, на квантующую схему 115.The orthogonal transform circuit 114 performs an orthogonal transform, such as a discrete cosine transform or the Karunen-Loeve transform of the remainder supplied from the summing circuit 113, and outputs the transform coefficient obtained by performing the orthogonal transform to the quantizing circuit 115.

Квантующая схема 115 квантует коэффициент преобразования, поданный из схемы 114 ортогонального преобразования, в соответствии с управляющим воздействием схемы 118 управления скоростью и выводит квантованный коэффициент преобразования. Коэффициент преобразования, квантованный квантующей схемой 115, подается на схему 116 кодирования без потерь и схему 119 обратного квантования.The quantizing circuit 115 quantizes the transform coefficient supplied from the orthogonal transform circuit 114 in accordance with the control action of the speed control circuit 118 and outputs the quantized transform coefficient. The transform coefficient quantized by the quantizing circuit 115 is supplied to the lossless coding circuit 116 and the inverse quantization circuit 119.

Схема 116 кодирования без потерь сжимает коэффициент преобразования, поданный из квантующей схемы 115, путем выполнения кодирования без потерь, такого как кодирование с переменной длиной слова или арифметическое кодирование, и выводит данные в запоминающий буфер 117.The lossless encoding circuit 116 compresses the transform coefficient supplied from the quantizing circuit 115 by performing lossless encoding, such as variable-length encoding or arithmetic encoding, and outputs the data to the storage buffer 117.

Кроме того, схема 116 кодирования без потерь устанавливает значение идентификационной метки в соответствии с данными, поданными из схемы 123 определения режима, и описывает идентификационную метку в заголовке изображения. На основе идентификационной метки, описанной схемой 116 кодирования без потерь, в декодирующем устройстве 1 определяется, как описано выше, режим предсказания.In addition, the lossless encoding circuit 116 sets the value of the identification mark in accordance with the data supplied from the mode determination circuit 123, and describes the identification mark in the image header. Based on the identification tag described by the lossless encoding circuit 116, a prediction mode is determined in the decoding apparatus 1, as described above.

Схема 116 кодирования без потерь также описывает данные, поданные из схемы 125 предсказания-компенсации движения или схемы 126 внутрикадрового предсказания, в заголовке изображения. Векторы движения и так далее, обнаруженные при выполнении межкадрового предсказания, подаются из схемы 125 предсказания-компенсации движения, а данные о примененном режиме внутрикадрового предсказания подаются из схемы 126 внутрикадрового предсказания.The lossless encoding circuit 116 also describes the data supplied from the motion compensation prediction circuit 125 or the intra prediction circuit 126 in the image header. Motion vectors and so on, detected when performing inter-frame prediction, are supplied from the motion prediction-compensation circuit 125, and data about the applied intra-frame prediction mode is supplied from the intra-frame prediction circuit 126.

Запоминающий буфер 117 временно сохраняет данные, поданные из схемы 116 кодирования без потерь, и выводит их в качестве сжатых данных изображения в определенный момент. Запоминающий буфер 117 выводит данные об объеме генерированного кода на схему 118 управления скоростью.A storage buffer 117 temporarily stores data supplied from the lossless encoding circuit 116 and outputs them as compressed image data at a specific point. The storage buffer 117 outputs data on the amount of generated code to the speed control circuit 118.

Схема 118 управления скоростью вычисляет уровень квантования на основе объема кода, выведенного с запоминающего буфера 117, и управляет квантующей схемой 115 так, что квантование выполняется с вычисленным уровнем квантования.The speed control circuit 118 calculates a quantization level based on the amount of code output from the storage buffer 117, and controls the quantization circuit 115 so that quantization is performed with the calculated quantization level.

Схема 119 обратного квантования выполняет обратное квантование коэффициента преобразования, квантованного квантующей схемой 115, и выводит коэффициент преобразования на схему 120 обратного ортогонального преобразования.The inverse quantization circuit 119 performs inverse quantization of the transform coefficient quantized by the quantizing circuit 115, and outputs the transform coefficient to the inverse orthogonal transform circuit 120.

Схема 120 обратного ортогонального преобразования выполняет обратное ортогональное преобразование коэффициента преобразования, поданного из схемы 119 обратного квантования, и выводит полученное изображение на фильтр 121 устранения блочности.The inverse orthogonal transform circuit 120 performs the inverse orthogonal transform of the transform coefficient supplied from the inverse quantization circuit 119 and outputs the resulting image to the deblocking filter 121.

Фильтр 121 устранения блочности удаляет блоковый шум, который появляется в локально декодированном изображении, и выводит изображение, из которого удален блоковый шум, в кадровую память 122.The deblocking filter 121 removes the block noise that appears in the locally decoded image and outputs the image from which the block noise is removed to the frame memory 122.

Кадровая память 122 сохраняет изображение, поданное с фильтра 121 устранения блочности. Изображение, сохраненное в кадровой памяти 122, при необходимости считывается схемой 123 определения режима.Frame memory 122 stores an image filed from deblocking filter 121. The image stored in the frame memory 122 is, if necessary, read by the mode determination circuit 123.

Схема 123 определения режима определяет, должно ли выполняться внутрикадровое кодирование или межкадровое кодирование, на основе изображения, сохраненного в кадровой памяти 122, и исходного изображения, поданного из переупорядочивающего буфера 112. Кроме того, если схема 123 определения режима определяет, что нужно выполнить межкадровое кодирование, схема 123 определения режима назначает любой режим из трех: режима однонаправленного предсказания, режима двунаправленного предсказания и режима фильтрационного предсказания. Схема 123 определения режима выводит данные, обозначающие результат определения, как данные режима, на схему 116 кодирования без потерь.The mode determination circuit 123 determines whether intra-frame coding or inter-frame coding should be performed based on the image stored in the frame memory 122 and the original image supplied from the reordering buffer 112. In addition, if the mode determination circuit 123 determines that inter-coding is to be performed , the mode determination circuit 123 assigns any of three modes: a unidirectional prediction mode, a bi-directional prediction mode, and a filtering prediction mode. The mode determination circuit 123 outputs data indicative of the determination result as mode data to the lossless encoding circuit 116.

Если схема 123 определения режима определяет, что нужно выполнить межкадровое кодирование, схема 123 определения режима выводит кадр, сохраненный в кадровой памяти 122 и полученный посредством локального декодирования, на схему 125 предсказания-компенсации движения через переключатель 124.If the mode determination circuit 123 determines that inter-frame coding is to be performed, the mode determination circuit 123 outputs a frame stored in the frame memory 122 and obtained by local decoding to the motion prediction-compensation circuit 125 through the switch 124.

Кроме того, если схема 123 определения режима определяет, что нужно выполнить внутрикадровое кодирование, схема 123 определения режима выводит кадр, сохраненный в кадровой памяти 122 и полученный посредством локального декодирования, на схему 126 внутрикадрового предсказания.In addition, if the mode determination circuit 123 determines that intra-frame coding is to be performed, the mode determination circuit 123 outputs a frame stored in the frame memory 122 and obtained by local decoding to the intra-frame prediction circuit 126.

Когда выполняется межкадровое кодирование, переключатель 124 соединяется с терминалом a11, а когда выполняется внутрикадровое кодирование - с терминалом b11. Переключением переключателя 124 управляет, например, управляющая схема 131.When interframe coding is performed, the switch 124 is connected to terminal a11, and when intra-frame coding is performed with terminal b11. The switch 124 is controlled, for example, by a control circuit 131.

Схема 125 предсказания-компенсации движения выявляет векторы движения на основе исходного изображения, поданного из переупорядочивающего буфера 112, и опорных кадров, считанных из кадровой памяти 122, и выводит обнаруженные векторы движения на схему 116 кодирования без потерь. Кроме того, схема 125 предсказания-компенсации движения выполняет компенсацию движения с помощью обнаруженных векторов движения и опорных кадров, чтобы генерировать предсказанное изображение, и выводит генерированное предсказанное изображение на суммирующую схему 113 через переключатель 127.The motion prediction-compensation circuit 125 detects motion vectors based on the original image supplied from the reordering buffer 112 and the reference frames read from the frame memory 122, and outputs the detected motion vectors to the lossless encoding circuit 116. In addition, the motion prediction-compensation circuit 125 performs motion compensation using the detected motion vectors and reference frames to generate the predicted image, and outputs the generated predicted image to the adder circuit 113 via the switch 127.

Схема 126 внутрикадрового предсказания выполняет внутрикадровое предсказание на основе исходного изображения, поданного из переупорядочивающего буфера 112, и опорных кадров, которые локально декодированы и сохранены в кадровой памяти 122, чтобы генерировать предсказанное изображение. Схема 126 внутрикадрового предсказания выводит генерированное предсказанное изображение на суммирующую схему 113 через переключатель 127 и выводит данные режима внутрикадрового предсказания на схему 116 кодирования без потерь.The intra-frame prediction circuit 126 performs intra-frame prediction based on the original image supplied from the reordering buffer 112 and the reference frames that are locally decoded and stored in the frame memory 122 to generate the predicted image. The intra prediction circuit 126 outputs the generated predicted image to the adder circuit 113 through the switch 127 and outputs the intra prediction mode data to the lossless encoding circuit 116.

Переключатель 127 соединяется с терминалом a12 или терминалом b12 и выводит предсказанное изображение, генерированное схемой 125 предсказания-компенсации движения или схемой 126 внутрикадрового предсказания, на суммирующую схему 113.A switch 127 is connected to terminal a12 or terminal b12 and outputs the predicted image generated by motion prediction-compensation circuitry 125 or intra-frame prediction circuitry 126 to summing circuit 113.

Управляющая схема 131 переключает соединение переключателей 124 и 127 в соответствии с режимом, определенным схемой 123 определения режима, и управляет всей работой кодирующего устройства 101.The control circuit 131 switches the connection of the switches 124 and 127 in accordance with the mode defined by the mode determination circuit 123, and controls the entire operation of the encoder 101.

Фиг. 16 является блок-схемой, иллюстрирующей пример конфигурации схемы 123 определения режима по Фиг. 15.FIG. 16 is a block diagram illustrating an example configuration of the mode determination circuit 123 of FIG. fifteen.

Как показано на Фиг. 16, схема 123 определения режима состоит из схемы 141 внутрикадрового предсказания, схемы 142 межкадрового предсказания, схемы 143 вычисления погрешности предсказания и определяющей схемы 144. В схеме 123 определения режима выполняются внутрикадровое предсказание и межкадровое предсказание по отношению к блокам, отличающимся друг от друга по размеру, и на основе результата определяется режим предсказания, используемый для предсказания. Что касается межкадрового предсказания, обработка выполняется в индивидуальных режимах предсказания: режиме однонаправленного предсказания, режиме двунаправленного предсказания или режиме фильтрационного предсказания. Исходное изображение, поданное из переупорядочивающего буфера 112, вводится в схему 141 внутрикадрового предсказания, схему 142 межкадрового предсказания и схему 143 вычисления погрешности предсказания.As shown in FIG. 16, the mode determination circuit 123 consists of an intra-frame prediction circuit 141, an inter-frame prediction circuit 142, a prediction error calculating circuit 143, and a determining circuit 144. In the mode determination circuit 123, intra-frame prediction and inter-frame prediction are performed with respect to blocks differing in size from each other , and based on the result, the prediction mode used for prediction is determined. As for inter-frame prediction, the processing is performed in individual prediction modes: unidirectional prediction mode, bidirectional prediction mode or filter prediction mode. The original image filed from the reordering buffer 112 is input to the intra prediction circuit 141, the inter prediction circuit 142, and the prediction error calculation circuit 143.

Схема 141 внутрикадрового предсказания выполняет внутрикадровое предсказание в элементах блоков, отличающихся друг от друга по размеру, на основе исходного изображения и изображения, считанного из кадровой памяти 122, и выводит генерированное предсказанное изображение на схему 143 вычисления погрешности предсказания. В схеме 151-1 предсказания 4×4 внутрикадровое предсказание выполняется в элементах блоков размером 4×4 пиксела. В схеме 151-2 предсказания 8×8 внутрикадровое предсказание выполняется в элементах блоков размером 8×8 пикселов. В схеме 151-3 предсказания 16×16 внутрикадровое предсказание выполняется в элементах блоков размером 16×16 пикселов.Intra-frame prediction circuitry 141 performs intra-frame prediction on block elements of different sizes from each other based on the original image and the image read from the frame memory 122, and outputs the generated predicted image to the prediction error calculation circuit 143. In the 4x4 prediction scheme 151-1, intra-frame prediction is performed on 4x4 pixel block elements. In the 8 × 8 prediction scheme 151-2, intra-frame prediction is performed on block elements of 8 × 8 pixels. In the 16 × 16 prediction scheme 151-3, intra-frame prediction is performed on block elements of 16 × 16 pixels.

Схема 161 предсказания в схеме 142 межкадрового предсказания выявляет векторы движения в элементах блоков, отличающихся друг от друга по размеру, на основе исходного изображения и опорных кадров, считанных из кадровой памяти 122. Кроме того, схема 161 предсказания выполняет компенсацию движения на основе обнаруженных векторов движения и выводит изображения компенсации движения, используемые для генерирования предсказанного изображения.The prediction circuit 161 in the inter-frame prediction circuit 142 detects motion vectors in block elements differing in size from the original image and reference frames read from the frame memory 122. In addition, the prediction circuit 161 performs motion compensation based on the detected motion vectors and outputs motion compensation images used to generate the predicted image.

В схеме 161-1 предсказания 16×16 обработка выполняется по отношению к изображениям в элементах блоков размером 16×16 пикселов. В схеме 161-2 предсказания 16×8 обработка выполняется по отношению к изображениям в элементах блоков размером 16×8 пикселов. Кроме того, в схеме 161-(n-1) предсказания 4×4 обработка выполняется по отношению к изображениям в элементах блоков размером 4×4 пиксела. В схеме 161-n скачкообразного/прямого предсказания векторы движения выявляются в режиме скачкообразного предсказания или в режиме прямого предсказания, и с помощью обнаруженных векторов движения выполняется компенсация движения.In 16 × 16 prediction scheme 161-1, processing is performed with respect to images in block elements of 16 × 16 pixels. In 16 × 8 prediction scheme 161-2, processing is performed with respect to images in block elements of 16 × 8 pixels. In addition, in the 4 × 4 prediction scheme 161- (n-1), processing is performed with respect to images in block elements of 4 × 4 pixels. In the hopping / forward prediction circuit 161-n, the motion vectors are detected in the hopping mode or the direct prediction mode, and motion compensation is performed using the detected motion vectors.

Изображения компенсации движения, извлеченные из множества опорных кадров, упорядоченных в одном направлении относительно текущего кадра, подаются из соответствующих схем в схеме 161 предсказания на схему 162 однонаправленного предсказания. Кроме того, изображения компенсации движения, извлеченные из множества опорных кадров, упорядоченных в двух направлениях относительно текущего кадра, подаются из соответствующих схем в схеме 161 предсказания на схему 163 двунаправленного предсказания.Motion compensation images extracted from a plurality of reference frames arranged in one direction with respect to the current frame are supplied from the respective schemes in the prediction circuit 161 to the unidirectional prediction circuit 162. In addition, motion compensation images extracted from a plurality of reference frames arranged in two directions relative to the current frame are supplied from the respective circuits in the prediction circuit 161 to the bidirectional prediction circuit 163.

В случае, если фильтрационное предсказание выполняется с помощью изображений компенсации движения, извлеченных из множества опорных кадров, упорядоченных в одном направлении, как описано выше, изображения компенсации движения, извлеченные из множества опорных кадров, упорядоченных в одном направлении, подаются из соответствующих схем в схеме 161 предсказания на схему 164 фильтрационного предсказания. В случае, если фильтрационное предсказание выполняется с помощью изображений компенсации движения, извлеченных из множества опорных кадров, упорядоченных в двух направлениях, изображения компенсации движения, извлеченные из множества опорных кадров, упорядоченных в двух направлениях, подаются из соответствующих схем в схеме 161 предсказания на схему 164 фильтрационного предсказания.In the event that the filter prediction is performed using motion compensation images extracted from a plurality of reference frames arranged in one direction, as described above, motion compensation images extracted from a plurality of reference frames arranged in one direction are supplied from the respective circuits in scheme 161 predictions to the filtering prediction circuit 164. In the event that the filter prediction is performed using motion compensation images extracted from a plurality of reference frames arranged in two directions, motion compensation images extracted from a plurality of reference frames arranged in two directions are supplied from the corresponding circuits in the prediction circuit 161 to the circuit 164 filtration prediction.

Схема 162 однонаправленного предсказания выполняет однонаправленное предсказание с помощью изображений компенсации движения, отличающихся друг от друга по размеру, поданных с соответствующих схем схемы 161 предсказания, благодаря чему генерируется предсказанное изображение, и выводит генерированное предсказанное изображение на схему 143 вычисления погрешности предсказания. Например, схема 162 однонаправленного предсказания генерирует предсказанное изображение путем рассмотрения пиксельных значений любого из множества изображений компенсации движения размером 16×16 пикселов, поданных из схемы 161-1 предсказания в качестве пиксельных значений предсказанного изображения.The unidirectional prediction circuit 162 performs unidirectional prediction using motion compensation images of different sizes supplied from the respective circuitry of the prediction circuit 161, whereby a predicted image is generated and outputs the generated predicted image to the prediction error calculation circuit 143. For example, the unidirectional prediction circuit 162 generates a predicted image by considering the pixel values of any of a plurality of 16 × 16 pixel motion compensation images supplied from the prediction circuit 161-1 as the pixel values of the predicted image.

Схема 163 двунаправленного предсказания выполняет двунаправленное предсказание с помощью изображений компенсации движения, отличающихся друг от друга по размеру, поданных с соответствующих схем схемы 161 предсказания, благодаря чему генерируется предсказанное изображение, и выводит генерированное предсказанное изображение на схему 143 вычисления погрешности предсказания. Например, схема 163 двунаправленного предсказания генерирует предсказанное изображение путем рассмотрения средних значений пиксельных значений множества изображений компенсации движения размером 16×16 пикселов, поданных из схемы 161-1 предсказания в качестве пиксельных значений предсказанного изображения.The bidirectional prediction circuit 163 performs bidirectional prediction using motion compensation images of different sizes supplied from the respective circuitry of the prediction circuit 161, whereby a predicted image is generated and outputs the generated predicted image to the prediction error calculation circuit 143. For example, the bidirectional prediction circuit 163 generates a predicted image by considering average pixel values of a plurality of 16 × 16 pixel motion compensation images supplied from the prediction circuit 161-1 as the pixel values of the predicted image.

Схема 164 фильтрационного предсказания выполняет фильтрационное предсказание с помощью изображений компенсации движения, отличающихся друг от друга по размеру, поданных с соответствующих схем схемы 161 предсказания, благодаря чему генерируется предсказанное изображение, и выводит генерированное предсказанное изображение на схему 143 вычисления погрешности предсказания. Схема 164 фильтрационного предсказания соответствует фильтрующей схеме 45 декодирующего устройства 1 и имеет такую же конфигурацию, как показанная на Фиг. 10.The filter prediction circuit 164 performs filter prediction using motion compensation images of different sizes supplied from the respective circuit of the prediction circuit 161, whereby a predicted image is generated, and outputs the generated predicted image to the prediction error calculation circuit 143. The filter prediction circuit 164 corresponds to the filter circuit 45 of the decoding apparatus 1 and has the same configuration as that shown in FIG. 10.

Например, в случае генерирования предсказанного изображения с помощью изображений МС0 и MC1 компенсации движения размером 16×16 пикселов, поданных из схемы 161-1 предсказания, фильтрующая схема 164 получает разность между изображениями МС0 и MC1 компенсации движения и выполняет фильтрацию нижних частот в полученном разностном изображении. Кроме того, фильтрующая схема 164 выполняет фильтрацию верхних частот в выходных данных фильтрации нижних частот и суммирует изображение, выведенное после нее, в котором настроено усиление, и изображение, выведенное после фильтрации нижних частот, в котором настроено усиление. Фильтрующая схема 164 суммирует изображение как результат суммирования, представляющий собой высокочастотный компонент, с изображением МС0 компенсации движения, благодаря чему генерируется предсказанное изображение, и выводит генерированное предсказанное изображение на схему 143 вычисления погрешности предсказания.For example, in the case of generating a predicted image using 16 × 16 pixel motion compensation images MS 0 and MC 1 supplied from the prediction circuit 161-1, the filtering circuit 164 obtains the difference between the motion compensation images MS 0 and MC 1 and performs low-pass filtering in the resulting difference image. In addition, the filter circuit 164 performs high-pass filtering in the output of the low-pass filtering and sums the image output after it in which the gain is adjusted, and the image output after the low-pass filter in which the gain is set. The filter circuit 164 summarizes the image as a summing result, which is a high-frequency component, with a motion compensation image MS 0 , whereby a predicted image is generated, and outputs the generated predicted image to the prediction error calculation circuit 143.

Схема 143 вычисления погрешности предсказания получает разности между исходным изображением и соответственными предсказанными изображениями, поданными из соответствующих схем в схеме 141 внутрикадрового предсказания, и выводит остаточный сигнал, представляющий собой полученные разности, на определяющую схему 144. Кроме того, схема 143 вычисления погрешности предсказания получает разности между исходным изображением и соответствующими предсказанными изображениями, поданными из схемы 162 однонаправленного предсказания, схемы 163 двунаправленного предсказания и фильтрующей схемы 164 в схеме 142 межкадрового предсказания, и выводит остаточный сигнал, представляющий собой полученные разности, на определяющую схему 144. Кроме того, схема 143 вычисления погрешности предсказания получает разности между исходным изображением и соответственными предсказанными изображениями, поданными из схемы 162 однонаправленного предсказания, схемы 163 двунаправленного предсказания и фильтрующей схемы 164 схемы 142 межкадрового предсказания, и выводит остаточный сигнал, представляющий собой полученные разности, на определяющую схему 144.The prediction error calculation circuit 143 receives the differences between the original image and the corresponding predicted images supplied from the corresponding circuits in the intra prediction circuit 141, and outputs the residual signal representing the differences obtained to the determining circuit 144. In addition, the prediction error calculation circuit 143 receives the differences between the original image and the corresponding predicted images filed from the unidirectional prediction circuit 162, the bidirectional circuit 163 prediction and filter circuit 164 in the inter prediction circuit 142, and outputs the residual signal representing the differences obtained to the determining circuit 144. In addition, the prediction error calculation circuit 143 receives the differences between the original image and the corresponding predicted images filed from the unidirectional circuit 162 predictions, bidirectional prediction circuits 163, and filter circuit 164 of inter prediction circuit 142, and outputs a residual signal representing s difference in the determining circuit 144.

Определяющая схема 144 измеряет интенсивность остаточных сигналов, поданных из схемы 143 вычисления погрешности предсказания, и определяет способ предсказания, используемый для генерирования предсказанного изображения, имеющего малую разность с исходным изображением, в качестве способа предсказания для генерирования предсказанного изображения для использования при кодировании. Определяющая схема 144 выводит данные, представляющие собой результат определения, которые являются данными режима, на схему 116 кодирования без потерь. Данные режима включают в себя данные, представляющие размер блока для использования в качестве единицы обработки.The determination circuit 144 measures the intensity of the residual signals supplied from the prediction error calculation circuit 143, and determines the prediction method used to generate the predicted image having a small difference with the original image as the prediction method for generating the predicted image for use in encoding. The determining circuit 144 outputs data representing the result of the determination, which are mode data, to the lossless encoding circuit 116. The mode data includes data representing a block size for use as a processing unit.

Кроме того, если определяющая схема 144 определяет, что предсказанное изображение будет генерироваться с помощью межкадрового предсказания (определяет, что будет выполнено межкадровое кодирование), определяющая схема 144 выводит опорные кадры, считанные из кадровой памяти 122, на схему 125 предсказания-компенсации движения вместе с данными режима. Если определяющая схема 144 определяет, что предсказанное изображение будет генерироваться с помощью внутрикадрового предсказания (определяет, что будет выполнено внутрикадровое кодирование), определяющая схема 144 выводит изображение, считанное из кадровой памяти 122 и подлежащее использованию для внутрикадрового предсказания, на схему 126 внутрикадрового предсказания вместе с данными режима.In addition, if the determining circuit 144 determines that the predicted image will be generated using inter-frame prediction (determines that inter-frame coding will be performed), the determining circuit 144 outputs reference frames read from the frame memory 122 to the motion prediction-compensation circuit 125 together with mode data. If the determining circuit 144 determines that the predicted image will be generated using intra-frame prediction (determines that intra-frame coding will be performed), the determining circuit 144 outputs an image read from the frame memory 122 and to be used for intra-frame prediction to the intra-frame prediction circuit 126 together with mode data.

Фиг. 17 является блок-схемой, иллюстрирующей пример конфигурации схемы 125 предсказания-компенсации движения по Фиг. 15.FIG. 17 is a block diagram illustrating an example configuration of the motion prediction-compensation circuit 125 of FIG. fifteen.

Как показано на Фиг. 17, схема 125 предсказания-компенсации движения состоит из схемы 181 обнаружения вектора движения, схемы 182 однонаправленного предсказания, схемы 183 двунаправленного предсказания, предсказывающей схемы 184 и фильтрующей схемы 185. Схема 125 предсказания-компенсации движения имеет конфигурацию, сходную с конфигурацией схемы 21 предсказания-компенсации движения, показанной на Фиг. 8, за исключением того, что вместо схемы 41 определения режима предсказания имеется схема 181 обнаружения вектора движения.As shown in FIG. 17, the motion compensation prediction-circuit 125 consists of a motion vector detection circuit 181, a unidirectional prediction circuit 182, a bi-directional prediction circuit 183, a prediction circuit 184 and a filter circuit 185. The motion-compensation prediction circuit 125 has a configuration similar to that of the prediction circuit 21 motion compensation shown in FIG. 8, except that instead of the prediction mode determination circuit 41, there is a motion vector detection circuit 181.

Схема 181 обнаружения вектора движения выявляет векторы движения путем выполнения сопоставления блоков или тому подобного на основе исходного изображения, поданного из переупорядочивающего буфера 112, и опорных кадров, поданных из схемы 123 определения режима. Схема 181 обнаружения вектора движения сверяется с данными режима, поданными из схемы 123 определения режима, и выводит векторы движения вместе с опорными кадрами на любую из трех схем: схему 182 однонаправленного предсказания, схему 183 двунаправленного предсказания или предсказывающую схему 184.The motion vector detection circuit 181 detects motion vectors by matching blocks or the like based on the original image supplied from the reordering buffer 112 and the reference frames supplied from the mode determination circuit 123. The motion vector detection circuit 181 is checked with the mode data supplied from the mode determination circuit 123 and outputs the motion vectors together with the reference frames to any of three circuits: the unidirectional prediction circuit 182, the bi-directional prediction circuit 183, or the predictive circuit 184.

Схема 181 обнаружения вектора движения выводит векторы движения вместе с опорными кадрами на схему 182 однонаправленного предсказания, если выбрано однонаправленное предсказание, и выводит эти фрагменты данных на схему 183 двунаправленного предсказания, если выбрано выполнение двунаправленного предсказания. Схема 181 обнаружения вектора движения выводит векторы движения вместе с опорными кадрами на предсказывающую схему 184, если выбрано выполнение фильтрационного предсказания.The motion vector detection circuit 181 outputs the motion vectors together with the reference frames to a unidirectional prediction circuit 182 if a unidirectional prediction is selected, and outputs these pieces of data to a bi-directional prediction circuit 183 if a bi-directional prediction is selected. The motion vector detection circuit 181 outputs the motion vectors together with the reference frames to the predictive circuit 184 if filtering prediction is selected.

Как и схема 42 однонаправленного предсказания по Фиг. 8, схема 182 однонаправленного предсказания генерирует предсказанное изображение путем выполнения однонаправленного предсказания. Схема 182 однонаправленного предсказания выводит генерированное предсказанное изображение на суммирующую схему 113.Like the unidirectional prediction circuit 42 of FIG. 8, the unidirectional prediction circuit 182 generates a predicted image by performing unidirectional prediction. The unidirectional prediction circuit 182 outputs the generated predicted image to the adder circuit 113.

Как и схема 43 двунаправленного предсказания по Фиг. 8, схема 183 двунаправленного предсказания генерирует предсказанное изображение путем выполнения двунаправленного предсказания. Схема 183 двунаправленного предсказания выводит генерированное предсказанное изображение на суммирующую схему 113.Like the bidirectional prediction circuit 43 of FIG. 8, a bidirectional prediction circuit 183 generates a predicted image by performing bidirectional prediction. The bidirectional prediction circuit 183 outputs the generated predicted image to the adder circuit 113.

Как и предсказывающая схема 44 по Фиг. 8, предсказывающая схема 184 извлекает изображения компенсации движения из множества (к примеру, двух) опорных кадров и выводит извлеченное множество изображений компенсации движения на фильтрующую схему 185.Like the predictive circuit 44 of FIG. 8, the predictive circuit 184 extracts motion compensation images from a plurality of (eg, two) reference frames and outputs the extracted plurality of motion compensation images to a filtering circuit 185.

Как и фильтрующая схема 45 по Фиг. 8, фильтрующая схема 185 генерирует предсказанное изображение путем выполнения фильтрационного предсказания. Фильтрующая схема 185 выводит генерированное предсказанное изображение на суммирующую схему 113. Отметим, что фильтрующая схема 185 имеет конфигурацию, сходную с конфигурацией фильтрующей схемы 45, показанной на Фиг. 12. Далее при описании в качестве конфигурации фильтрующей схемы 185 будет при возможности цитироваться конфигурация фильтрующей схемы 45, показанной на Фиг. 12.Like the filter circuit 45 of FIG. 8, the filtering circuit 185 generates a predicted image by performing filtering prediction. The filtering circuit 185 outputs the generated predicted image to the summing circuit 113. Note that the filtering circuit 185 has a configuration similar to that of the filtering circuit 45 shown in FIG. 12. Further, when describing as the configuration of the filter circuit 185, the configuration of the filter circuit 45 shown in FIG. 12.

Предсказанное изображение, генерированное посредством фильтрационного предсказания, включает в себя большой объем высокочастотного компонента по сравнению с предсказанным изображением, генерированным посредством однонаправленного или двунаправленного предсказания, и является изображением, имеющим малую разность с исходным изображением. Таким образом, объем кода, закрепленного за остатком, мал, и тем самым возможно увеличить эффективность кодирования.The predicted image generated by the filtering prediction includes a large volume of the high-frequency component compared to the predicted image generated by the unidirectional or bidirectional prediction, and is an image having a small difference with the original image. Thus, the amount of code assigned to the remainder is small, and thus it is possible to increase the coding efficiency.

Кроме того, фильтрационное предсказание может быть выполнено, если число опорных кадров равно по меньшей мере двум, и, таким образом, такого увеличения эффективности кодирования можно достичь, не усложняя обработку. Например, остаток от исходного изображения может быть снижен, а эффективность кодирования увеличена путем генерирования и использования предсказанного изображения высокой точности с использованием большого числа опорных кадров при межкадровом предсказании. В этом случае, однако, обработка усложняется, потому что число опорных кадров велико.In addition, filtering prediction can be performed if the number of reference frames is at least two, and thus, such an increase in coding efficiency can be achieved without complicating the processing. For example, the remainder of the original image can be reduced, and the coding efficiency is increased by generating and using a predicted high-precision image using a large number of reference frames in inter-frame prediction. In this case, however, the processing is complicated because the number of reference frames is large.

Отметим, что, когда нужно выбрать способ предсказания, к интенсивности остаточного сигнала может быть добавлен вес в соответствии с объемом кода с учетом объема кода данных, таких как векторы движения, требуемых для предсказания и режима кодирования, так что выбирается оптимальный способ предсказания. Соответственно, затем может быть улучшена эффективность кодирования. Кроме того, для упрощения обработки кодирования способ предсказания может адаптивно выбираться с помощью количества свойств во временном и пространственном направлениях введенного исходного изображения.Note that when it is necessary to select a prediction method, a weight can be added to the residual signal intensity according to the code size, taking into account the amount of data code, such as the motion vectors required for the prediction and the encoding mode, so that the optimal prediction method is selected. Accordingly, coding efficiency can then be improved. In addition, to simplify the encoding processing, the prediction method can be adaptively selected using the number of properties in the temporal and spatial directions of the input source image.

Описание процедуры обработки кодированияDescription of the encoding processing procedure

Далее будет описана обработка, выполняемая кодирующим устройством 101 с описанной выше конфигурацией.Next, processing performed by the encoder 101 with the above configuration will be described.

Операция кодирования, выполняемая кодирующим устройством 101, будет описана со ссылкой на блок-схему по Фиг. 18. Эта операция начинается, когда изображение выводится из переупорядочивающего буфера 112 некоторой единицей, такой как макроблок.The encoding operation performed by the encoder 101 will be described with reference to the flowchart of FIG. 18. This operation begins when the image is output from the reordering buffer 112 by some unit, such as a macroblock.

На этапе S101 суммирующая схема 113 получает разность между изображением, поданным из переупорядочивающего буфера 112, и предсказанным изображением, генерированным схемой 125 предсказания-компенсации движения или схемой 126 внутрикадрового предсказания, и выводит остаток на схему 114 ортогонального преобразования.In step S101, the adder circuit 113 obtains the difference between the image supplied from the reordering buffer 112 and the predicted image generated by the motion compensation prediction circuit 125 or the intra prediction circuit 126 and outputs the remainder to the orthogonal transform circuit 114.

На этапе S102 схема 114 ортогонального преобразования выполняет ортогональное преобразование остатка, поданного с суммирующей схемы 113, и выводит коэффициент преобразования на квантующую схему 115.In step S102, the orthogonal transform circuit 114 performs orthogonal transform of the remainder supplied from the summing circuit 113 and outputs the transform coefficient to the quantizing circuit 115.

На этапе S103 квантующая схема 115 квантует коэффициент преобразования, поданный из схемы 114 ортогонального преобразования, и выводит квантованный коэффициент преобразования.In step S103, the quantizing circuit 115 quantizes the transform coefficient supplied from the orthogonal transform circuit 114 and outputs the quantized transform coefficient.

На этапе S104 схема 119 обратного квантования выполняет обратное квантование коэффициента преобразования, квантованного квантующей схемой 115, и выводит коэффициент преобразования на схему 120 обратного ортогонального преобразования.In step S104, the inverse quantization circuit 119 performs inverse quantization of the transform coefficient quantized by the quantizing circuit 115, and outputs the transform coefficient to the inverse orthogonal transform circuit 120.

На этапе S105 схема 120 обратного ортогонального преобразования выполняет обратное ортогональное преобразование коэффициента преобразования, поданного из схемы 119 обратного квантования, и выводит полученное изображение на фильтр 121 устранения блочности.In step S105, the inverse orthogonal transform circuit 120 performs the inverse orthogonal transform of the transform coefficient supplied from the inverse quantization circuit 119 and outputs the obtained image to the deblocking filter 121.

На этапе S106 фильтр 121 устранения блочности выполняет фильтрацию для удаления блокового шума и выводит изображение, из которого удален блоковый шум, на кадровую память 122.In step S106, the deblocking filter 121 performs filtering to remove block noise and outputs an image from which block noise is removed to the frame memory 122.

На этапе S107 кадровая память 122 сохраняет изображение, поданное из фильтра 121 устранения блочности.In step S107, the frame memory 122 stores the image supplied from the deblocking filter 121.

На этапе S108 схемой 123 определения режима выполняется операция определения режима. Режим предсказания для использования при генерировании предсказанного изображения, определяется посредством обработки определения режима. Обработка определения режима будет описана ниже.In step S108, the mode determination operation 123 performs the mode determination operation. The prediction mode for use in generating the predicted image is determined by the mode determination processing. The processing of the mode definition will be described below.

На этапе S109 управляющая схема 131 оценивает, должно ли быть выполнено внутрикадровое предсказание, на основе определения, сделанного схемой 123 определения режима.In step S109, the control circuit 131 judges whether intra-frame prediction should be performed based on a determination made by the mode determination circuit 123.

Если на этапе S109 установлено, что должно быть выполнено внутрикадровое предсказание, на этапе S110 схема 126 внутрикадрового предсказания выполняет внутрикадровое предсказание и выводит предсказанное изображение на суммирующую схему 113.If it is determined in step S109 that intra-frame prediction should be performed, in step S110, the intra-frame prediction circuit 126 performs intra-frame prediction and outputs the predicted image to the adder circuit 113.

С другой стороны, если на этапе S109 установлено, что внутрикадровое предсказание не должно быть выполнено, то есть должно быть выполнено межкадровое предсказание, на этапе S111 схема 125 предсказания-компенсации движения выполняет операцию предсказания-компенсации движения, и предсказанное изображение выводится на суммирующую схему 113. Обработка предсказания-компенсации движения будет описана ниже.On the other hand, if it is determined in step S109 that intra-frame prediction should not be performed, that is, inter-frame prediction should be performed, in step S111, the motion prediction-compensation circuit 125 performs the motion-prediction-compensation operation, and the predicted image is output to the summing circuit 113 The processing of prediction-motion compensation will be described below.

На этапе S212 схема 116 кодирования без потерь сжимает коэффициент преобразования, поданный с квантующей схемы 115, и выводит его в запоминающий буфер 117. Кроме того, схема 116 кодирования без потерь описывает идентификационную метку в заголовке изображения в соответствии с данными, поданными из схемы 123 определения режима, и описывает вектор движения, поданный из схемы 125 предсказания-компенсации движения, в заголовке изображения.In step S212, the lossless encoding circuit 116 compresses the transform coefficient supplied from the quantizing circuit 115 and outputs it to the storage buffer 117. In addition, the lossless encoding circuit 116 describes an identification mark in the image header in accordance with the data supplied from the determination circuit 123 mode, and describes the motion vector filed from the motion prediction-compensation circuit 125 in the image header.

На этапе S113 запоминающий буфер 117 временно сохраняет данные, поданные из схемы 116 кодирования без потерь.In step S113, the storage buffer 117 temporarily stores data supplied from the lossless encoding circuit 116.

На этапе S114 управляющая схема 131 оценивает, выполнена ли описанная выше обработка по отношению к макроблокам во всем кадре. Если установлено, что обработка не была выполнена по отношению к макроблокам во всем кадре, обработка повторяется для другого макроблока, начиная с этапа S111.In step S114, the control circuit 131 evaluates whether the processing described above is performed with respect to the macroblocks in the entire frame. If it is determined that processing has not been performed with respect to the macroblocks in the whole frame, the processing is repeated for another macroblock, starting from step S111.

С другой стороны, если на этапе S114 установлено, что обработка была выполнена по отношению к макроблокам во всем кадре, запоминающий буфер 117 выводит сжатые данные изображения в соответствии с управляющим воздействием управляющей схемы 131 на этапе S115. Описанная выше обработка выполняется по отношению к отдельным кадрам.On the other hand, if it is determined in step S114 that the processing was performed with respect to the macroblocks in the whole frame, the storage buffer 117 outputs compressed image data in accordance with the control action of the control circuit 131 in step S115. The processing described above is performed with respect to individual frames.

Далее операция определения режима, которая выполняется на этапе S108 по Фиг. 18, будет описана со ссылкой на блок-схему по Фиг. 19.Next, the mode determination operation that is performed in step S108 of FIG. 18 will be described with reference to the block diagram of FIG. 19.

На этапе S131 схема 141 внутрикадрового предсказания и схема 142 межкадрового предсказания выполняют внутрикадровое и межкадровое предсказание, соответственно, по отношению к блокам, отличающимся друг от друга по размеру, тем самым генерируются предсказанные изображения. Генерированные предсказанные изображения подаются на схему 143 вычисления погрешности предсказания.In step S131, the intra prediction circuit 141 and the inter prediction circuit 142 perform intra prediction and inter prediction, respectively, with respect to blocks differing in size, thereby generating predicted images. The generated predicted images are supplied to the prediction error calculation circuit 143.

На этапе S132 схема 143 вычисления погрешности предсказания получает разности между исходным изображением и соответствующими предсказанными изображениями, поданными из соответствующих схем в схеме 141 внутрикадрового предсказания и из схемы 162 однонаправленного предсказания, схемы 163 двунаправленного предсказания и фильтрующей схемы 164 в схеме 142 межкадрового предсказания. Схема 143 вычисления погрешности предсказания выводит остаточный сигнал на определяющую схему 144.In step S132, the prediction error calculating circuit 143 obtains the differences between the original image and the corresponding predicted images supplied from the respective circuits in the intra prediction circuit 141 and from the unidirectional prediction circuit 162, the bidirectional prediction circuit 163 and the filtering circuit 164 in the inter prediction circuit 142. The prediction error calculation circuit 143 outputs a residual signal to the determining circuit 144.

На этапе S133 определяющая схема 144 определяет способ предсказания для генерирования предсказанного изображения, которое подлежит подаче на суммирующую схему 113, на основе интенсивности остаточного сигнала, поданного из схемы 143 вычисления погрешности предсказания.In step S133, the determining circuit 144 determines the prediction method for generating the predicted image to be supplied to the summing circuit 113 based on the intensity of the residual signal supplied from the prediction error calculating circuit 143.

На этапе S134 определяющая схема 144 выводит данные режима, то есть данные об определенном способе предсказания, на схему 116 кодирования без потерь. После этого обработка возвращается к этапу S108 по Фиг. 18, и выполняется дальнейшая обработка.In step S134, the determining circuit 144 outputs the mode data, that is, data about the determined prediction method, to the lossless encoding circuit 116. After that, the processing returns to step S108 of FIG. 18, and further processing is performed.

Далее операция предсказания-компенсации движения, которая выполняется на этапе S111 по Фиг. 18, будет описана со ссылкой на блок-схему по Фиг. 20.Next, the motion prediction-compensation operation that is performed in step S111 of FIG. 18 will be described with reference to the block diagram of FIG. twenty.

На этапе S151 схема 181 обнаружения вектора движения выявляет векторы движения на основе исходного изображения и опорных кадров.In step S151, the motion vector detection circuit 181 detects motion vectors based on the original image and reference frames.

На этапе S152 схема 181 обнаружения вектора движения оценивает, определила ли схема 123 определения режима, что операция должна выполняться в режиме фильтрационного предсказания.In step S152, the motion vector detection circuit 181 evaluates whether the mode determination circuit 123 has determined that the operation should be performed in the filter prediction mode.

Если установлено, что определено выполнение обработки в режиме фильтрационного предсказания, обработка переходит к этапу S153. Соответствующие обработки на этапах S153 и S154 выполняются способом, сходным с этапами S32 и S33 по Фиг. 12. То есть на этапе S153 выполняется операция извлечения способом, описанным выше со ссылкой на блок-схему по Фиг. 13. На этапе S154 выполняется операция фильтрационного предсказания способом, описанным выше со ссылкой на блок-схему по Фиг. 14.If it is determined that the processing in the filtration prediction mode has been determined, the processing proceeds to step S153. The corresponding processing in steps S153 and S154 are performed in a manner similar to steps S32 and S33 of FIG. 12. That is, in step S153, the extraction operation is performed in the manner described above with reference to the flowchart of FIG. 13. In step S154, the filter prediction operation is performed in the manner described above with reference to the flowchart of FIG. fourteen.

После завершения обработки на этапе S154 операция предсказания-компенсации движения завершается, обработка возвращается к этапу S111 по Фиг. 18 и переходит к этапу S112.After the processing is completed in step S154, the motion prediction-compensation operation is completed, the processing returns to step S111 of FIG. 18 and proceeds to step S112.

Кроме того, если на этапе S152 по Фиг. 20 установлено, что выполнение обработки в режиме фильтрационного предсказания не определено, обработка переходит к этапу S155. На этапе S155 схема 182 однонаправленного предсказания или схема 183 двунаправленного предсказания выполняет однонаправленное или двунаправленное предсказание, благодаря чему генерируется предсказанное изображение.Furthermore, if in step S152 of FIG. 20, it is established that the processing in the filtering prediction mode is not defined, the processing proceeds to step S155. In step S155, the unidirectional prediction circuit 182 or the bidirectional prediction circuit 183 performs unidirectional or bidirectional prediction, whereby a predicted image is generated.

То есть, если определено выполнение обработки в режиме однонаправленного предсказания, векторы движения подаются из схемы 181 обнаружения вектора движения на схему 182 однонаправленного предсказания, и однонаправленное предсказание выполняется в схеме 182 однонаправленного предсказания. Кроме того, если определено выполнение обработки в режиме двунаправленного предсказания, векторы движения подаются из схемы 181 обнаружения вектора движения на схему 183 двунаправленного предсказания, и двунаправленное предсказание выполняется в схеме 183 двунаправленного предсказания. После вывода предсказанного изображения на суммирующую схему 113 и завершения обработки на этапе S155 по Фиг. 20 обработка предсказания-компенсации движения завершается, обработка возвращается к этапу S111 по Фиг. 18 и переходит к этапу S112.That is, if the execution of processing in the unidirectional prediction mode is determined, the motion vectors are supplied from the motion vector detection circuit 181 to the unidirectional prediction circuit 182, and the unidirectional prediction is performed in the unidirectional prediction circuit 182. In addition, if it is determined that the processing in the bidirectional prediction mode is performed, the motion vectors are supplied from the motion vector detection circuit 181 to the bidirectional prediction circuit 183, and bidirectional prediction is performed in the bidirectional prediction circuit 183. After the predicted image is output to the summing circuit 113 and the processing is completed in step S155 of FIG. 20, motion prediction-compensation processing ends, the processing returns to step S111 of FIG. 18 and proceeds to step S112.

Как описано выше, за счет выполнения кодирования с помощью предсказанного изображения, генерированного посредством фильтрационного предсказания, может быть увеличена эффективность кодирования.As described above, by performing encoding with the predicted image generated by the filtering prediction, encoding efficiency can be increased.

Третий вариант осуществленияThird Embodiment

Модификация фильтрующей схемыModification of the filter circuit

В приведенном выше описании фильтрующие схемы 45 и 185 имеют конфигурацию, показанную на Фиг. 10, но эта конфигурация при необходимости может быть изменена.In the above description, the filter circuits 45 and 185 have the configuration shown in FIG. 10, but this configuration can be changed if necessary.

Фиг. 21 является блок-схемой, иллюстрирующей другой пример конфигурации фильтрующей схемы 45. Конфигурации, соответствующие конфигурациям, показанным на Фиг. 10, обозначены теми же ссылочными позициями. Избыточное описание будет по возможности опущено.FIG. 21 is a block diagram illustrating another example configuration of the filter circuit 45. Configurations corresponding to the configurations shown in FIG. 10 are denoted by the same reference numerals. Excessive descriptions will be omitted whenever possible.

Схема 61 вычисления разности по Фиг. 21 вычисляет разность между изображением МС0 компенсации движения и изображением MC1 компенсации движения и выводит разностное изображение на схему 62 фильтра нижних частот.The difference calculation circuit 61 of FIG. 21 calculates the difference between the motion compensation image MS 0 and the motion compensation image MC 1 and outputs the differential image to the low pass filter circuit 62.

Схема 62 фильтра нижних частот выполняет фильтрацию нижних частот в разностном изображении, поданном из схемы 61 вычисления разности, и выводит полученное изображение на суммирующую схему 67.The low-pass filter circuit 62 performs low-pass filtering in the difference image filed from the difference calculating circuit 61 and outputs the obtained image to the summing circuit 67.

Суммирующая схема 67 суммирует изображение, поданное из схемы 62 фильтра нижних частот, с изображением МС0 компенсации движения и выводит полученное изображение в качестве предсказанного изображения.The summing circuit 67 summarizes the image supplied from the low-pass filter circuit 62 with the motion compensation image MS 0 and outputs the obtained image as a predicted image.

С помощью конфигурации, показанной на Фиг. 21, объем обработки может быть снижен по сравнению со случаем использования конфигурации по Фиг. 10, и может быть осуществлена высокоскоростная операция.Using the configuration shown in FIG. 21, the amount of processing can be reduced compared with the case of using the configuration of FIG. 10, and a high speed operation can be performed.

Фиг. 22 является блок-схемой, иллюстрирующей еще один пример конфигурации фильтрующей схемы 45. Конфигурации, соответствующие конфигурациям, показанным на Фиг. 10, обозначены теми же ссылочными позициями. Избыточное описание будет по возможности опущено.FIG. 22 is a block diagram illustrating another example configuration of the filter circuit 45. Configurations corresponding to the configurations shown in FIG. 10 are denoted by the same reference numerals. Excessive descriptions will be omitted whenever possible.

В фильтрующей схеме 45 по Фиг. 22 выполняется фильтрация сигнала в частотной области, а не во временной области. Обе фильтрующие схемы 45, показанные на Фиг. 10 и 21, выполняют фильтрацию сигнала во временной области.In the filter circuit 45 of FIG. 22, the signal is filtered in the frequency domain, and not in the time domain. Both filter circuits 45 shown in FIG. 10 and 21, filter the signal in the time domain.

Схема 61 вычисления разности по Фиг. 22 вычисляет разность между изображением МС0 компенсации движения и изображением МС1 компенсации движения и выводит разностное изображение на схему 201 ортогонального преобразования.The difference calculation circuit 61 of FIG. 22 calculates the difference between the motion compensation image MS 0 and the motion compensation image MS 1 and outputs the difference image to the orthogonal transform circuit 201.

Схема 201 ортогонального преобразования выполняет ортогональное преобразование, являющееся дискретным косинусным преобразованием (DCT) (ДКП), преобразованием Адамара или преобразованием Карунена-Лоэва, для разностного изображения, и выводит сигнал после ортогонального преобразования на схему 202 полосового фильтра. Ортогональное преобразование и фильтрация выполняются по отношению к сигналу в частотной области, тем самым операция фильтрации высокой точности может быть выполнена более гибко по сравнению с выполнением фильтрации сигнала во временной области.The orthogonal transform circuit 201 performs the orthogonal transform, which is a discrete cosine transform (DCT) (DCT), a Hadamard transform, or a Karunen-Loeve transform for a difference image, and outputs the signal after the orthogonal transform to a bandpass filter circuit 202. Orthogonal conversion and filtering are performed with respect to the signal in the frequency domain, thereby the high-precision filtering operation can be performed more flexibly in comparison with performing signal filtering in the time domain.

Когда в качестве ортогонального преобразования используется DCT, выходные данные DF после ортогонального преобразования выражены нижеследующим уравнением (12). В уравнении (12) DCT (X) обозначает, что выполняется операция двумерного ДКП над сигналом X.When DCT is used as the orthogonal transform, the output DF after the orthogonal transform is expressed by the following equation (12). In equation (12), DCT (X) means that a two-dimensional DCT operation is performed on signal X.

Figure 00000012
Figure 00000012

Схема 202 полосового фильтра выполняет фильтрацию выходных данных схемы ортогонального преобразования и выводит сигнал в некотором диапазоне.The bandpass filter circuit 202 filters the output of the orthogonal transform circuit and outputs a signal in a certain range.

Схема 203 настройки усиления настраивает усиление выходных данных схемы 202 полосового фильтра путем умножения их на α, а также настраивает частотный компонент. Выходные данные XF схемы 203 настройки усиления выражены нижеследующим уравнением (13). В уравнении (13) BPF(X) обозначает, что операция полосовой фильтрации выполняется над сигналом X.The gain tuning circuit 203 adjusts the gain of the output data of the bandpass filter circuit 202 by multiplying them by α, and also tunes the frequency component. The output XF of the gain tuning circuit 203 is expressed by the following equation (13). In equation (13), BPF (X) means that the bandpass filtering operation is performed on the signal X.

Figure 00000013
Figure 00000013

Схема 204 обратного ортогонального преобразования выполняет обратное ортогональное преобразование способом, соответствующим ортогональному преобразованию, выполненному схемой 201 ортогонального преобразования, чтобы преобразовать сигнал в частотной области, поданный из схемы 203 настройки усиления, в сигнал во временной области. Например, когда в качестве ортогонального преобразования в схеме 201 ортогонального преобразования используется ДКП, в схеме 204 обратного ортогонального преобразования выполняется обратное дискретное косинусное преобразование (IDCT) (ОДКП). Выходные данные X схемы 204 обратного ортогонального преобразования выражены нижеследующим уравнением (14). В уравнении (14) IDCT(X) обозначает, что выполняется двумерная операция ОДКП над сигналом X.The inverse orthogonal transform circuit 204 performs the inverse orthogonal transform in a manner corresponding to the orthogonal transform performed by the orthogonal transform circuit 201 to convert the signal in the frequency domain supplied from the gain tuning circuit 203 to a signal in the time domain. For example, when DCT is used as the orthogonal transform in the orthogonal transform circuit 201, the inverse discrete cosine transform (IDCT) (ODCT) is performed in the inverse orthogonal transform circuit 204. The output X of the inverse orthogonal transform circuit 204 is expressed by the following equation (14). In equation (14), IDCT (X) denotes that a two-dimensional ODKP operation is performed on signal X.

Figure 00000014
Figure 00000014

Суммирующая схема 57 суммирует сигнал X, поданный из схемы 204 обратного ортогонального преобразования, с изображением МС0 компенсации движения во временной области и выводит полученное изображение в качестве предсказанного изображения. Предсказанное изображение S(i, j), которое является окончательными выходными данными суммирующей схемы 57, выражено нижеследующим уравнением (15).Adder circuit 57 summarizes the signal X supplied from the inverse orthogonal transform circuit 204 with the time-domain motion compensation image MS 0 and outputs the obtained image as a predicted image. The predicted image S (i, j), which is the final output of the summing circuit 57, is expressed by the following equation (15).

Figure 00000015
Figure 00000015

При этом предсказанное изображение высокой точности может генерироваться также путем выполнения фильтрации сигнала в частотной области.Moreover, a predicted image of high accuracy can also be generated by performing signal filtering in the frequency domain.

Кроме того, в приведенном выше описании фильтрационное предсказание выполняется с помощью двух опорных кадров, но в качестве опорных кадров могут быть использованы два и более кадра.In addition, in the above description, filter prediction is performed using two reference frames, but two or more frames can be used as reference frames.

Фиг. 23 является схемой, иллюстрирующей пример случая использования трех опорных кадров.FIG. 23 is a diagram illustrating an example of a case of using three reference frames.

В примере по Фиг. 23, где время предсказанного кадра взято за основу, в качестве опорных кадров рассматриваются три кадра, предшествующие ему на одну единицу времени, на две единицы времени и на три единицы времени. Кадр, ближайший к предсказанному кадру и предшествующий ему на одну единицу времени, рассматривается в качестве опорного кадра R0, кадр, на одну единицу времени предшествующий опорному кадру R0, рассматривается в качестве опорного кадра R1, кадр, на одну единицу времени предшествующий опорному кадру R1, рассматривается в качестве опорного кадра R2.In the example of FIG. 23, where the time of the predicted frame is taken as a basis, three frames preceding it by one unit of time, by two units of time and by three units of time are considered as reference frames. The frame closest to the predicted frame and preceding it by one unit of time is considered as the reference frame R 0 , the frame one unit of time preceding the reference frame R 0 is considered as the reference frame R 1 , the frame one unit of time preceding the reference frame R 1 , is considered as a reference frame R 2 .

Фиг. 24 является блок-схемой, иллюстрирующей пример конфигурации фильтрующей схемы в случае использования трех опорных кадров.FIG. 24 is a block diagram illustrating an example configuration of a filter circuit in the case of using three reference frames.

Как показано на Фиг. 24, фильтрующая схема 211 состоит из фильтрующей схемы 221 и фильтрующей схемы 222. Обе фильтрующие схемы 221 и 222 имеют конфигурацию, показанную на Фиг. 10, 21 или 22. То есть фильтрующая схема 211 выполнена так, чтобы работать в качестве схемы с тремя вводами и одним выводом, путем расположения каскадом фильтрующей схемы 45, которая используется для двух вводов и одного вывода.As shown in FIG. 24, the filter circuit 211 consists of a filter circuit 221 and a filter circuit 222. Both filter circuits 221 and 222 have the configuration shown in FIG. 10, 21 or 22. That is, the filter circuit 211 is configured to operate as a circuit with three inputs and one output by cascading the filter circuit 45, which is used for two inputs and one output.

Здесь при описании изображение компенсации движения, извлеченное из опорного кадра R0, будет рассматриваться в качестве изображения МС0 компенсации движения, изображение компенсации движения, извлеченное из опорного кадра R1 - в качестве изображения MC1 компенсации движения, а изображение компенсации движения, извлеченное из опорного кадра R2 - в качестве изображения МС2 компенсации движения. Изображения MC1 и МС2 компенсации движения вводятся в фильтрующую схему 221, а изображение МС0 компенсации движения вводится в фильтрующую схему 222.Here, in the description, the motion compensation image extracted from the reference frame R 0 will be considered as the motion compensation image MS 0, the motion compensation image extracted from the reference frame R 1 as the motion compensation image MC 1 , and the motion compensation image extracted from reference frame R 2 - as the image of the MS 2 motion compensation. The motion compensation images MC 1 and MS 2 are input to the filter circuit 221, and the motion compensation image MS 0 is input to the filter circuit 222.

Фильтрующая схема 221 выполняет фильтрацию, рассматривая изображения MC1 и МС2 компенсации движения в качестве изображений МС0 и MC1 компенсации движения по Фиг. 10, и т.д., соответственно, и выводит промежуточные выходные данные X, которые являются результатом фильтрации, на фильтрующую схему 222.The filter circuit 221 performs filtering by considering the motion compensation images MC 1 and MS 2 as the motion compensation images MC 0 and MC 1 of FIG. 10, etc., respectively, and outputs the intermediate output X, which are the result of filtering, to the filtering circuit 222.

Фильтрующая схема 221 выполняет фильтрацию, рассматривая промежуточные выходные данные X и изображение МС0 компенсации движения в качестве изображений МС0 и МС1 компенсации движения по Фиг. 10, и т.д., соответственно, и выводит результат фильтрации, служащий в качестве предсказанного изображения.The filter circuit 221 performs filtering by considering the intermediate output X and the motion compensation image MS 0 as the motion compensation images MS 0 and MS 1 of FIG. 10, etc., respectively, and outputs a filtering result serving as a predicted image.

Возможно также, что фильтрующая схема 211, которая поддерживает три опорных кадра, имеется в декодирующем устройстве 1 по Фиг. 4 или в кодирующем устройстве 101 по Фиг. 15 вместо фильтрующей схемы 45.It is also possible that a filtering circuit 211 that supports three reference frames is present in the decoding apparatus 1 of FIG. 4 or in the encoder 101 of FIG. 15 instead of the filter circuit 45.

Помимо этого, фильтрующие схемы 221 и 222 не обязательно имеют одинаковую конфигурацию, и индивидуальные конфигурации могут отличаться друг от друга. Например, одна имеет конфигурацию, показанную на Фиг. 10, а другая имеет конфигурацию, показанную на Фиг. 21. Кроме того, возможно варьировать параметр, используемый для фильтра, в зависимости от характеристик ввода-вывода до и после фильтрации.In addition, filter circuits 221 and 222 do not necessarily have the same configuration, and individual configurations may differ from each other. For example, one has the configuration shown in FIG. 10, and the other has the configuration shown in FIG. 21. In addition, it is possible to vary the parameter used for the filter, depending on the I / O characteristics before and after filtering.

Фильтрация может быть выполнена фильтрующей схемой 211 по отношению к изображениям компенсации движения, извлеченным из трех опорных кадров, упорядоченных в двух временных направлениях, а не по отношению к изображениям компенсации движения, извлеченным из опорных кадров, упорядоченных в одном временном направлении.Filtering may be performed by filtering circuit 211 with respect to motion compensation images extracted from three reference frames arranged in two time directions, and not with respect to motion compensation images extracted from reference frames arranged in one time direction.

Отметим, что в случае использования кадров, предшествующих по времени и следующих за предсказанным кадром, в качестве опорных кадров, включая случай, описанный выше со ссылкой на Фиг. 8, такой параметр, как коэффициент отвода, используемый для фильтрации, может быть динамически изменен в соответствии с временным направлением или расстоянием опорных кадров.Note that in the case of using frames previous in time and following the predicted frame as reference frames, including the case described above with reference to FIG. 8, a parameter such as the tap coefficient used for filtering can be dynamically changed in accordance with the time direction or distance of the reference frames.

Передача сжатых данных изображения из кодирующего устройства 101 на декодирующее устройство 1 выполняется посредством различных типов носителей, таких как носитель записи, включая оптический диск, магнитный диск и флэш-память, спутниковое вещание, кабельное ТВ, Интернет и мобильную телефонную сеть.The transmission of compressed image data from the encoding device 101 to the decoding device 1 is accomplished through various types of media, such as a recording medium, including an optical disk, a magnetic disk and flash memory, satellite broadcasting, cable TV, the Internet and a mobile telephone network.

Описанный выше ряд обработок может быть выполнен с помощью аппаратного обеспечения и программного обеспечения. В случае выполнения ряда операций с помощью программного обеспечения программа, составляющая программное обеспечение, устанавливается посредством носителя записи на компьютер, встроенный в специализированное аппаратное обеспечение, персональный компьютер общего назначения, способный выполнять различные типы функций, если на него установлены различные типы программ, или т.п.The above-described series of treatments can be performed using hardware and software. In the case of performing a number of operations using software, the program making up the software is installed by means of a recording medium onto a computer built into specialized hardware, a general purpose personal computer capable of performing various types of functions if various types of programs are installed on it, or so on. P.

Фиг. 25 является блок-схемой, иллюстрирующей пример конфигурации аппаратного обеспечения компьютера 300, который выполняет описанный выше ряд обработок в соответствии с программой.FIG. 25 is a block diagram illustrating an example hardware configuration of a computer 300 that performs the above series of processes in accordance with a program.

ЦП (центральный процессор) 301, ПЗУ (постоянно запоминающее устройство) 302 и ОЗУ (оперативное запоминающее устройство) 303 взаимно соединены через шину 304.A CPU (central processing unit) 301, ROM (read-only memory) 302 and RAM (random access memory) 303 are interconnected via bus 304.

Интерфейс 310 ввода-вывода далее соединен с шиной 304. Блок 311 ввода, состоящий из клавиатуры, мыши, микрофона и т.д., блок 312 вывода, состоящий из дисплея, громкоговорителя и т.д., блок 313 памяти, состоящий из жесткого диска, энергонезависимой памяти и т.д., блок 314 связи, состоящий из сетевого интерфейса и т.д. и привод 315, который управляет съемным носителем 321, таким как оптический диск или полупроводниковая память, соединены с интерфейсом 310 ввода-вывода.The input / output interface 310 is further connected to a bus 304. An input unit 311, consisting of a keyboard, mouse, microphone, etc., an output unit 312, consisting of a display, a speaker, etc., a memory unit 313, consisting of a hard a disk, non-volatile memory, etc., a communication unit 314 consisting of a network interface, etc. and a drive 315 that controls removable media 321, such as an optical disk or semiconductor memory, is connected to an input / output interface 310.

В компьютере 300, имеющем приведенную выше конфигурацию, ЦП 301, например, загружает программу, сохраненную в блоке 313 памяти, в ОЗУ 303 через интерфейс 310 ввода-вывода и шину 304 и выполняет ее, тем самым выполняя описанный выше ряд обработок.In the computer 300 having the above configuration, the CPU 301, for example, downloads the program stored in the memory unit 313 to the RAM 303 via the input / output interface 310 and the bus 304 and performs it, thereby performing the above series of processes.

Программа, выполняемая ЦП 301, предусматривается, будучи записанной, например, на съемный носитель 321 или через проводную или беспроводную передающую среду, такую как локальная сеть, Интернет или цифровое вещание, и устанавливается в блок 313 памяти.A program executed by the CPU 301 is provided, being recorded, for example, on a removable medium 321 or via a wired or wireless transmission medium such as a local area network, the Internet or digital broadcasting, and is installed in the memory unit 313.

Дополнительно, программа, выполняемая компьютером, может являться программой, в которой обработки выполняются во временной последовательности в соответствии с порядком, описанным в этом описании, или может быть программой, в которой обработки выполняются параллельно или в необходимый момент, такой как момент телефонного звонка.Additionally, the program executed by the computer may be a program in which the processing is performed in a time sequence in accordance with the procedure described in this description, or it may be a program in which the processing is performed in parallel or at the right time, such as the moment of a telephone call.

Кроме того, в этом описании этапы, описывающие программу, записанную на носитель записи, конечно, включают в себя обработки, выполняемые во временной последовательности в соответствии с описанным порядком, и также включают в себя обработки, выполняемые параллельно или обособленно, не во временной последовательности.In addition, in this description, the steps describing the program recorded on the recording medium, of course, include processing performed in a time sequence in accordance with the described order, and also include processing performed in parallel or separately, not in a time sequence.

Кроме того, в этом описании система является целым устройством, состоящим из множества устройств.In addition, in this description, the system is an entire device consisting of many devices.

Кроме того, относительно приведенного выше описания, описанная как одиночное устройство (или блок обработки данных) конфигурация может быть разделена на множество устройств (или блоков обработки данных). И наоборот, конфигурация, описанная как множество устройств (или блоков обработки данных) может быть объединена в единственное устройство (или блок обработки данных). Альтернативно, к каждому устройству (или каждому блоку обработки данных), конечно, может быть добавлена конфигурация, отличная от описанной выше конфигурации. Далее, часть конфигурации некоторого устройства (или блока обработки данных) может быть включена в конфигурацию другого устройства (или блока обработки данных), коль скоро конфигурация и работа всей системы практически одно и то же. То есть варианты осуществления настоящего изобретения не ограничены описанными выше вариантами осуществления, и возможны различные изменения, не отходящие от сущности настоящего изобретения.In addition, with respect to the above description, described as a single device (or data processing unit), the configuration can be divided into many devices (or data processing units). Conversely, a configuration described as a plurality of devices (or data processing units) can be combined into a single device (or data processing unit). Alternatively, of course, a configuration different from the configuration described above can be added to each device (or each data processing unit). Further, part of the configuration of a device (or data processing unit) can be included in the configuration of another device (or data processing unit), as long as the configuration and operation of the entire system is almost the same. That is, embodiments of the present invention are not limited to the embodiments described above, and various changes are possible without departing from the spirit of the present invention.

Например, описанные выше декодирующее устройство 1 и кодирующее устройство 101 могут быть применены к произвольным электронным устройствам. Далее будут описаны их примеры.For example, the above-described decoding apparatus 1 and encoding apparatus 101 may be applied to arbitrary electronic devices. Next, their examples will be described.

Фиг. 26 является блок-схемой, иллюстрирующей пример основной конфигурации телевизионного приемника, в котором использовано декодирующее устройство 1, к которому применено настоящее изобретение.FIG. 26 is a block diagram illustrating an example of a basic configuration of a television receiver using a decoding apparatus 1 to which the present invention is applied.

Телевизионный приемник 1000, показанный на Фиг. 26, включает в себя эфирный тюнер 1013, видеодекодер 1015, схему 1018 обработки видеосигнала, схему 1019 генерирования графики, схему 1020 управления табло и отображающее табло 1021.The television receiver 1000 shown in FIG. 26 includes an air tuner 1013, a video decoder 1015, a video signal processing circuit 1018, a graphics generating circuit 1019, a display control circuit 1020, and a display board 1021.

Эфирный тюнер 1013 принимает волновой вещательный сигнал аналогового эфирного вещания через антенну, демодулирует его, получает видеосигнал и подает его на видеодекодер 1015. Видеодекодер 1015 выполняет операцию декодирования видеосигнала, поданного с эфирного тюнера 1013, и подает полученный цифровой составной сигнал на схему 1018 обработки видеосигнала.The air tuner 1013 receives the wave broadcast signal of analogue broadcasting via the antenna, demodulates it, receives the video signal and feeds it to the video decoder 1015. The video decoder 1015 decodes the video signal supplied from the air tuner 1013 and supplies the received digital composite signal to the video signal processing circuit 1018.

Схема 1018 обработки видеосигнала выполняет определенную операцию, такую как устранение шумов, по отношению к видеоданным, поданным с видеодекодера 1015, и подает полученные видеоданные на схему 1019 генерирования графики.The video signal processing circuit 1018 performs a specific operation, such as eliminating noise, with respect to the video data supplied from the video decoder 1015, and provides the received video data to the graphics generating circuit 1019.

Схема 1019 генерирования графики генерирует видеоданные программы, которая подлежит отображению на отображающем табло 1021, данные изображения на основе обработки, основанной на программе, поданной по сети, и т.п. и подает генерированные видеоданные и данные изображения на схему 1020 управления табло. Кроме того, схема 1019 генерирования графики выполняет операцию генерирования видеоданных (графики) для отображения экрана, подлежащего использованию пользователем для выбора пункта меню, наложения его на видеоданные программы и подачи полученных таким образом видеоданных на схему 1020 управления табло, при необходимости.The graphics generating circuit 1019 generates video data of a program to be displayed on a display board 1021, image data based on processing based on a program filed over a network, and the like. and supplies the generated video data and image data to the circuit board 1020. In addition, the graphics generating circuit 1019 performs the operation of generating video data (graphics) to display a screen to be used by a user to select a menu item, superimpose it on the program video data and feed the thus obtained video data to the board control circuit 1020, if necessary.

Схема 1020 управления табло управляет отображающим табло 1021 на основе данных, поданных из схемы 1019 генерирования графики, и заставляет отображающее табло 1021 отображать видео программы и описанные выше различные типы экранов.The board control circuit 1020 controls the display board 1021 based on data supplied from the graphics generating circuit 1019, and causes the display board 1021 to display video programs and the various types of screens described above.

Отображающее табло 1021 состоит из ЖКД (жидкокристаллического дисплея) или т.п. и отображает видео программы или т.п. в соответствии с управляющим воздействием, осуществляемым схемой 1020 управления табло.The display board 1021 consists of an LCD (liquid crystal display) or the like. and displays a video program or the like. in accordance with the control action carried out by the circuit board 1020.

Кроме того, телевизионный приемник 1000 включает в себя схему 1014 аналого-цифрового преобразователя аудиосигнала, схему 1022 обработки аудиосигнала, схему 1023 компенсации эхо-сигналов/аудио синтеза, схему 1024 аудио усилителя и громкоговоритель 1025.In addition, the television receiver 1000 includes an A / D converter circuit 1014, an audio signal processing circuit 1022, an echo / audio synthesis compensation circuit 1023, an audio amplifier circuit 1024, and a speaker 1025.

Эфирный тюнер 1013 демодулирует принятый волновой вещательный сигнал, тем самым получая не только видеосигнал, но также и аудиосигнал. Эфирный тюнер 1013 подает полученный аудиосигнал на схему 1014 аналого-цифрового преобразователя аудиосигнала.The air tuner 1013 demodulates the received wave broadcast signal, thereby receiving not only a video signal, but also an audio signal. The air tuner 1013 supplies the received audio signal to the analog-to-digital audio converter circuit 1014.

Схема 1014 аналого-цифрового преобразователя аудиосигнала выполняет операцию аналого-цифрового преобразования аудиосигнала, поданного с эфирного тюнера 1013, и подает полученный цифровой аудиосигнал на схему 1022 обработки аудиосигнала.An analog-to-digital audio signal converter circuit 1014 performs an analog-to-digital conversion operation of the audio signal supplied from the broadcast tuner 1013, and supplies the received digital audio signal to the audio signal processing circuit 1022.

Схема 1022 обработки аудиосигнала выполняет определенную операцию, такую как устранение шумов, по отношению к аудиоданным, поданным из схемы 1014 аналого-цифрового преобразователя аудиосигнала, и подает полученные аудиоданные на схему 1023 компенсации эхо-сигналов/аудио синтеза.The audio signal processing circuit 1022 performs a certain operation, such as eliminating noise, with respect to the audio data supplied from the analog-to-digital audio converter circuit 1014 and supplies the received audio data to the echo / audio synthesis circuit 1023.

Схема 1023 компенсации эхо-сигналов/аудио синтеза подает аудиоданные, поданные из схемы 1022 обработки аудиосигнала, на схему 1024 аудио усилителя.The echo / audio synthesis compensation circuit 1023 supplies the audio data supplied from the audio signal processing circuit 1022 to the audio amplifier circuit 1024.

Схема 1024 аудио усилителя выполняет операцию цифроаналогового преобразования и операцию усиления аудиоданных, поданных из схемы 1023 компенсации эхо-сигналов/аудио синтеза, чтобы отрегулировать их по уровню громкости, и заставляет громкоговоритель 1025 выводить аудиосигнал.The audio amplifier circuit 1024 performs a digital-to-analog conversion operation and an amplification operation of audio data supplied from the echo / audio synthesis circuit 1023 to adjust them according to the volume level, and causes the loudspeaker 1025 to output an audio signal.

К тому же, телевизионный приемник 1000 включает в себя цифровой тюнер 1016 и MPEG-декодер 1017.In addition, the television receiver 1000 includes a digital tuner 1016 and an MPEG decoder 1017.

Цифровой тюнер 1016 принимает волновой вещательный сигнал цифрового вещания (эфирного цифрового вещания, цифрового вещания с ВС (вещательного спутника) или СС (спутника связи)) через антенну, демодулирует его, получает транспортный поток (ТП) MPEG и подает его на MPEG-декодер 1017.The digital tuner 1016 receives a wave broadcast digital broadcast signal (digital terrestrial broadcasting, digital broadcasting from the Sun (broadcast satellite) or SS (communication satellite)) through the antenna, demodulates it, receives MPEG transport stream (TP) and feeds it to MPEG decoder 1017 .

MPEG-декодер 1017 убирает скремблирование ТП MPEG, поданного с цифрового тюнера 1016, и извлекает поток, включающий в себя данные программы, подлежащей воспроизведению (просмотру-прослушиванию). MPEG-декодер 1017 декодирует аудио пакеты, составляющие извлеченный поток, и подает полученные аудиоданные на схему 1022 обработки аудиосигнала, а также декодирует видео пакеты, составляющие поток, и подает полученные видеоданные на схему 1018 обработки аудиосигнала. Кроме того, MPEG-декодер 1017 подает данные электронного телегида, извлеченные из ТП MPEG, на ЦП 1032 по тракту, который не показан.The MPEG decoder 1017 removes the scrambling of the MPEG TP supplied from the digital tuner 1016, and extracts a stream including data of the program to be played back (view-listen). The MPEG decoder 1017 decodes the audio packets constituting the extracted stream, and supplies the received audio data to the audio signal processing circuit 1022, and also decodes the video packets constituting the stream, and supplies the received video data to the audio signal processing circuit 1018. In addition, MPEG decoder 1017 provides electronic TV guide data extracted from MPEG TPs to CPU 1032 via a path that is not shown.

Телевизионный приемник 1000 использует описанное выше декодирующее устройство 1 в качестве MPEG-декодера 1017, который декодирует видео пакеты этим способом. Отметим, что ТП MPEG, переданный со станции вещания или т.п., кодирован с помощью кодирующего устройства 101.The television receiver 1000 uses the decoding device 1 described above as an MPEG decoder 1017 that decodes video packets in this manner. Note that MPEG TP transmitted from a broadcast station or the like is encoded using an encoder 101.

Как и в случае с декодирующим устройством 1, MPEG-декодер 1017 выполняет декодирование с помощью предсказанного изображения, которое генерируется посредством фильтрационного предсказания. Кроме того, в этот момент, как и в случае с декодирующим устройством 1, MPEG-декодер 1017 получает часть изображений компенсации движения с помощью вектора движения и получает оставшееся изображение (оставшиеся изображения) посредством предсказания движения изображения компенсации движения, полученного с помощью вектора движения. Таким образом, MPEG-декодер 1017 может снизить число векторов движения, подлежащих кодированию.As with decoder 1, MPEG decoder 1017 performs decoding using the predicted image that is generated by filtering prediction. In addition, at this moment, as in the case of the decoding apparatus 1, the MPEG decoder 1017 receives a portion of the motion compensation images using the motion vector and obtains the remaining image (remaining images) by predicting the motion of the motion compensation image obtained by the motion vector. Thus, the MPEG decoder 1017 can reduce the number of motion vectors to be encoded.

Видеоданные, поданные с MPEG-декодера 1017, подвергаются определенной обработке на схеме 1018 обработки видеосигнала, как в случае с видеоданными, поданными с видео декодера 1015, на них при необходимости накладываются видеоданные или т.п., генерированные в схеме 1019 генерирования графики, эти видеоданные подаются на отображающее табло 1021 через схему 1020 управления табло, и относящееся к ним изображение отображается.The video data supplied from the MPEG decoder 1017 is subjected to certain processing on the video signal processing circuit 1018, as is the case with the video data supplied from the video decoder 1015, if necessary, video data or the like generated in the graphics generating circuit 1019 is superimposed, these video data is supplied to a display board 1021 through a board control circuit 1020, and an image related thereto is displayed.

Аудиоданные, поданные с MPEG-декодера 1017, подвергаются определенной обработке на схеме 1022 обработки аудиосигнала, как в случае с аудиоданными, поданными из схемы 1014 аналого-цифрового преобразования аудиосигнала, подаются на схему 1024 аудио усилителя через схему 1023 компенсации эхо-сигналов/аудио синтеза и подвергаются обработке цифроаналогового преобразования и обработке усиления. В результате аудиосигнал, отрегулированный по громкости, выводится из громкоговорителя 1025.The audio data supplied from the MPEG decoder 1017 is subjected to certain processing on the audio signal processing circuit 1022, as is the case with the audio data supplied from the analog-to-digital audio conversion circuit 1014, supplied to the audio amplifier circuit 1024 via the echo / audio synthesis circuit 1023 and are subjected to digital-to-analog conversion processing and gain processing. As a result, the volume-adjusted audio signal is output from the loudspeaker 1025.

Кроме того, телевизионный приемник 1000 включает в себя микрофон 1026 и схему 1027 аналого-цифрового преобразования.In addition, the television receiver 1000 includes a microphone 1026 and an analog-to-digital conversion circuit 1027.

Схема 1027 аналого-цифрового преобразования принимает звуковой сигнал от пользователя, уловленный микрофоном 1026, который имеется в телевизионном приемнике 1000 для речевого общения, выполняет операцию аналого-цифрового преобразования принятого аудиосигнала и подает полученные цифровые аудиоданные на схему 1023 компенсации эхо-сигналов/аудио синтеза.An analog-to-digital conversion circuit 1027 receives an audio signal from a user captured by a microphone 1026, which is available in the television receiver 1000 for voice communication, performs an analog-to-digital conversion operation of the received audio signal, and provides the received digital audio data to the echo / audio synthesis circuit 1023.

В случае, если звуковой сигнал от пользователя (пользователя А) телевизионного приемника 1000 подаются из схемы 1027 аналого-цифрового преобразования, схема 1023 компенсации эхо-сигналов/аудио синтеза выполняет компенсацию эхо-сигналов аудиоданных пользователя А и выводит эти аудиоданные, которые получены посредством синтеза с другими аудиоданными, из громкоговорителя 1025 через схему 1024 аудио усилителя.In the event that the audio signal from the user (user A) of the television receiver 1000 is supplied from the analog-to-digital conversion circuit 1027, the echo / audio synthesis compensation circuit 1023 performs the echo compensation of the audio data of user A and outputs these audio data that are obtained by synthesis with other audio data from speaker 1025 through a 1024 audio amplifier circuit.

Далее, телевизионный приемник 1000 имеет звуковой кодер-декодер 1028, внутреннюю шину 1029 и синхронное динамическое оперативное запоминающее устройство (СДОЗУ) 1030, флэш-память 1031, ЦП 1032, USB-интерфейс 1033 и сетевой интерфейс 1034.Further, the television receiver 1000 has an audio encoder 1028, an internal bus 1029, and a synchronous dynamic random access memory (SDRM) 1030, flash memory 1031, CPU 1032, USB interface 1033, and network interface 1034.

Схема 1027 аналого-цифрового преобразования принимает звуковой сигнал от пользователя, уловленный микрофоном 1026, который имеется в телевизионном приемнике 1000 для речевого общения, выполняет операцию аналого-цифрового преобразования принятого аудиосигнала и подает полученные цифровые аудиоданные на звуковой ко дер-декодер 1028.An analog-to-digital conversion circuit 1027 receives an audio signal from a user captured by a microphone 1026, which is available in a television receiver 1000 for voice communication, performs an analog-to-digital conversion operation on a received audio signal and supplies the received digital audio data to an audio decoder 1028.

Звуковой кодер-декодер 1028 преобразует аудиоданные, поданные из схемы 1027 аналого-цифрового преобразования, в данные определенного формата для передачи их по сети и подает их на сетевой интерфейс 1034 через внутреннюю шину 1029.The audio codec-decoder 1028 converts the audio data supplied from the analog-to-digital conversion circuit 1027 into data of a specific format for transmission over a network and feeds them to a network interface 1034 via an internal bus 1029.

Сетевой интерфейс 1034 соединен с сетью через кабель, прикрепленный к сетевому терминалу 1035. Сетевой интерфейс 1034 передает аудиоданные, поданные со звукового кодера-декодера 1028, например, на другое устройство, соединенное с сетью. Кроме того, сетевой интерфейс 1034 через сетевой терминал 1035 принимает аудиоданные, переданные, например, с другого устройства, соединенного по сети, и подает их на звуковой кодер-декодер 1028 через внутреннюю шину 1029.The network interface 1034 is connected to the network through a cable attached to the network terminal 1035. The network interface 1034 transmits audio data supplied from the audio encoder-decoder 1028, for example, to another device connected to the network. In addition, the network interface 1034 through the network terminal 1035 receives audio data transmitted, for example, from another device connected via the network, and feeds them to the audio codec 1028 via the internal bus 1029.

Звуковой кодер-декодер 1028 преобразует аудиоданные, поданные с сетевого интерфейса 1034, в данные определенного формата и подает их на схему 1023 компенсации эхо-сигналов/аудио синтеза.The audio codec 1028 converts the audio data supplied from the network interface 1034 into data of a specific format and feeds it to the echo / audio synthesis compensation circuit 1023.

Схема 1023 компенсации эхо-сигналов/аудио синтеза выполняет компенсацию эхо-сигналов аудиоданных, поданных со звукового кодера-декодера 1028, и выводит аудиоданные, полученные посредством синтеза с другими аудиоданными, из громкоговорителя 1025 через схему 1024 аудио усилителя.The echo / audio synthesis compensation circuit 1023 compensates for the echo of the audio data supplied from the audio encoder-decoder 1028, and outputs the audio data obtained by synthesis with other audio data from the speaker 1025 through the audio amplifier circuit 1024.

СДОЗУ 1030 сохраняет различные типы данных, необходимых ЦП 1032 для выполнения обработки.SDOZU 1030 stores various types of data required by the CPU 1032 to perform processing.

Флэш-память 1031 сохраняет программу, выполняемую ЦП 1032. Программа, сохраненная во флэш-памяти 1031, считывается ЦП 1032 в определенный момент, например, при включении телевизионного приемника 1000. Флэш-память 1031 также сохраняет данные электронного телегида, полученные через цифровое вещание, и данные, полученный с определенного сервера по сети.The flash memory 1031 stores the program executed by the CPU 1032. The program stored in the flash memory 1031 is read by the CPU 1032 at a certain point, for example, when the television receiver 1000 is turned on. The flash memory 1031 also stores the data of the electronic TV guide received through digital broadcasting, and data received from a specific server over the network.

Например, флэш-память 1031 сохраняет ТП MPEG, включающий в себя данные контента, полученные с определенного сервера по сети, под управлением, осуществляемым, например, ЦП 1032.For example, flash memory 1031 stores MPEG TPs, including content data received from a specific server over a network, under control carried out, for example, by CPU 1032.

MPEG-декодер 1017 обрабатывает ТП MPEG, как в случае с ТП MPEG, поданным с цифрового тюнера 1016. Таким образом, телевизионный приемник 1000 способен принимать данные контента видео, аудио и т.п. по сети, декодировать их с помощью MPEG-декодера 1017 и отображать видео или выводить звук.MPEG decoder 1017 processes MPEG TPs, as is the case with MPEG TPs supplied from digital tuner 1016. Thus, the television receiver 1000 is capable of receiving video, audio, and other content data. over the network, decode them using MPEG decoder 1017 and display video or sound output.

Кроме того, телевизионный приемник 1000 имеет блок 1037 приема светового сигнала для приема инфракрасного сигнала с пульта 1051 дистанционного управления.In addition, the television receiver 1000 has a light signal receiving unit 1037 for receiving an infrared signal from a remote control 1051.

Блок 1037 приема светового сигнала принимает инфракрасный луч с пульта 1051 дистанционного управления и выводит управляющий код, представляющий собой поданную пользователем команду, полученную посредством демодуляции, на ЦП 1032.The light signal receiving unit 1037 receives the infrared beam from the remote control 1051 and outputs a control code representing a user-supplied command obtained by demodulation to the CPU 1032.

ЦП 1032 выполняет программу, сохраненную во флэш-памяти 1031, и управляет всей работой телевизионного приемника 1000 в соответствии с управляющим кодом или т.п., поданным с блока 1037 приема светового сигнала. ЦП 1032 соединен с отдельными блоками телевизионного приемника 1000 по трактам, которые не показаны.The CPU 1032 executes the program stored in the flash memory 1031, and controls the entire operation of the television receiver 1000 in accordance with a control code or the like supplied from the light signal receiving unit 1037. The CPU 1032 is connected to individual units of the television receiver 1000 via paths that are not shown.

USB-интерфейс 1033 выполняет передачу данных на внешнее устройство телевизионного приемника 1000 или прием данных с него, причем это устройство соединено через USB-кабель, подключенный к USB-терминалу 1036. Сетевой интерфейс 1034 соединяется с сетью через кабель, подключенный к сетевому терминалу 1035, и выполняет передачу данных, отличных от аудиоданных, на различные типов устройств, соединенных с сетью, или прием от них этих данных.The USB interface 1033 transmits data to or receives data from an external device of the television receiver 1000, the device being connected via a USB cable connected to the USB terminal 1036. The network interface 1034 is connected to the network via a cable connected to the network terminal 1035, and transmits data other than audio data to various types of devices connected to the network, or receives this data from them.

Телевизионный приемник 1000 использует декодирующее устройство 1 в качестве MPEG-декодера 1017, в результате чего он способен генерировать предсказанное изображение высокой точности с помощью малого объема управляющих данных во время декодирования, выполняемого по отношению к видео пакетам, образующим поток. В результате телевизионный приемник 100 способен увеличить эффективность кодирования, подавляя при этом возрастание объема обработки.The television receiver 1000 uses the decoding device 1 as the MPEG decoder 1017, as a result of which it is able to generate a predicted image of high accuracy using a small amount of control data during decoding performed in relation to the video packets forming the stream. As a result, the television receiver 100 is able to increase the coding efficiency, while suppressing the increase in processing volume.

Фиг. 27 является блок-схемой, иллюстрирующей пример основной конфигурации мобильного телефонного аппарата, который использует декодирующее устройство 1 и кодирующее устройство 101, к которым применено настоящее изобретение.FIG. 27 is a block diagram illustrating an example of a basic configuration of a mobile telephone that uses decoding apparatus 1 and encoding apparatus 101 to which the present invention is applied.

Мобильный телефонный аппарат 1100, показанный на Фиг. 27, включает в себя основной управляющий блок 1150, выполненный так, чтобы совместно управлять отдельными блоками, блок 1151 схемы питания, блок 1152 управления вводом команд, кодер 1153 изображений, блок 1154 интерфейса фотокамеры, блок 1155 управления ЖКД, декодер 1156 изображений, блок 1157 мультиплексора-демультиплексора, блок 1162 записи-воспроизведения, блок 1158 схемы модуляции-демодуляции и звуковой кодер-декодер 1159. Они взаимно соединены через шину 1160.The mobile telephone apparatus 1100 shown in FIG. 27, includes a main control unit 1150 configured to jointly control the individual units, a power supply unit 1151, an instruction input control unit 1152, an image encoder 1153, a camera interface unit 1154, an LCD control unit 1155, an image decoder 1156, an 1157 unit multiplexer-demultiplexer, block 1162 recording-playback, block 1158 circuit modulation-demodulation and audio codec decoder 1159. They are mutually connected via bus 1160.

Кроме того, мобильный телефонный аппарат 1100 включает в себя рабочую клавишу 1119, ПЗС-фотокамеру (прибор с зарядовой связью) 1116, жидкокристаллический дисплей 1118, запоминающий блок 1123, блок 1163 схемы передачи-приема, антенну 1114, микрофон 1121 и громкоговоритель 1117.In addition, the mobile telephone 1100 includes an operation key 1119, a CCD camera (charge-coupled device) 1116, a liquid crystal display 1118, a storage unit 1123, a transmit-receive circuit unit 1163, an antenna 1114, a microphone 1121, and a speaker 1117.

При завершении звонка или нажатии пользователем клавиши «вкл.» блок 1151 схемы питания подает питание с комплекта аккумуляторов на отдельные блоки, тем самым приводя мобильный телефонный аппарат 1100 в рабочее состояние.When the call is completed or the user presses the “on” key, the power circuit unit 1151 supplies power from the battery pack to the individual units, thereby bringing the mobile telephone 1100 to working condition.

Мобильный телефонный аппарат 1100 выполняет различные типы действий, такие как передача-прием аудиосигнала, передача-прием электронной почты или данных изображения, получение изображения или запись данных в различных типах режимов, таких как режим звукового звонка или режим цифровой связи, на основе управляющего воздействия, осуществляемого основным управляющим блоком 1150, включающим в себя ЦП, ПЗУ, ОЗУ и т.д.The mobile telephone 1100 performs various types of actions, such as transmitting / receiving an audio signal, transmitting / receiving email or image data, receiving an image or recording data in various types of modes, such as a sound call mode or a digital communication mode, based on a control action, carried out by the main control unit 1150, including a CPU, ROM, RAM, etc.

Например, в режиме звукового звонка мобильный телефонный аппарат 1100 преобразует аудиосигнал, уловленный микрофоном 1121, в цифровые аудиоданные с помощью звукового кодера-декодера 1159, выполняет операцию расширения спектра с помощью блока 1158 схемы модуляции-демодуляции и выполняет операцию цифроаналогового преобразования и операцию частотного преобразования с помощью блока 1163 схемы передачи-приема. Мобильный телефонный аппарат 1100 передает сигнал, подлежащий передаче, полученный посредством операций преобразования, на непоказанную базовую станцию через антенну 1114. Сигнал, подлежащий передаче (аудиосигнал), переданный на базовую станцию, подается на мобильный телефонный аппарат собеседника через общедоступную сеть телефонных линий.For example, in the sound call mode, the mobile telephone 1100 converts the audio signal picked up by the microphone 1121 into digital audio data using an audio encoder-decoder 1159, performs a spreading operation using a modulation-demodulation block 1158, and performs a digital-to-analog conversion operation and a frequency conversion operation with using block 1163 of the transmission-reception scheme. The mobile telephone 1100 transmits a signal to be transmitted obtained by conversion operations to an unshown base station via an antenna 1114. The signal to be transmitted (audio signal) transmitted to the base station is supplied to the interlocutor’s mobile telephone through a public telephone network.

Кроме того, например, в режиме звукового звонка мобильный телефонный аппарат 1100 усиливает сигнал приема, принятый антенной 1114, с помощью блока 1163 передачи-приема, далее выполняет операцию частотного преобразования и операцию аналого-цифрового преобразования, выполняет операцию, обратную расширению спектра, с помощью блока 1158 схемы модуляции-демодуляции и преобразует его в аналоговый аудиосигнал с помощью звукового кодера-декодера 1159. Мобильный телефонный аппарат 1100 выводит аналоговый аудиосигнал, полученный посредством преобразования, через громкоговоритель 1117.In addition, for example, in the sound call mode, the mobile telephone 1100 amplifies the reception signal received by the antenna 1114 using the transmit-receive unit 1163, then performs the frequency conversion operation and the analog-to-digital conversion operation, performs the opposite operation of spreading using block 1158 of the modulation-demodulation circuit and converts it into an analog audio signal using an audio encoder-decoder 1159. The mobile telephone 1100 outputs an analog audio signal obtained by converting me, through loudspeaker 1117.

К тому же, например, в случае передачи электронной почты в режиме цифровой связи мобильный телефонный аппарат 1100 принимает на блок 1152 управления вводом команд текстовые данные электронной почты, введенные посредством управления рабочей клавишей 1119. Мобильный телефонный аппарат 1100 обрабатывает текстовые данные на основном управляющем блоке 1150 и заставляет отображать их в качестве изображения на жидкокристаллическом дисплее 1118 через блок 1155 управления ЖКД.In addition, for example, in the case of electronic mail transmission in digital communication mode, the mobile telephone 1100 receives text email data entered by the operation key 1119 on the command input control unit 1152. The mobile telephone 1100 processes the text data on the main control unit 1150 and causes them to be displayed as image quality on the liquid crystal display 1118 through the LCD control unit 1155.

Кроме того, мобильный телефонный аппарат 1100 в основном управляющем блоке 1150 генерирует данные электронной почты на основе текстовых данных или команд пользователя, принятых блоком 1152 управления вводом команд. Мобильный телефонный аппарат 1100 выполняет операцию расширения спектра данных электронной почты с помощью блока 1158 схемы модуляции-демодуляции и выполняет операцию цифроаналогового преобразования и операцию частотного преобразования с помощью блока 1163 схемы приема-передачи. Мобильный телефонный аппарат 1100 передает сигнал, подлежащий передаче, полученный посредством операций преобразования, на недоказанную базовую станцию через антенну 1114. Сигнал, подлежащий передаче (электронная почта), переданный на базовую станцию, подается определенному адресату по сети и почтовый сервер или т.п.In addition, the mobile telephone 1100 in the main control unit 1150 generates email data based on text data or user commands received by the command input control unit 1152. The mobile telephone 1100 performs the operation of expanding the range of e-mail data using block 1158 of the modulation-demodulation scheme and performs the operation of digital-to-analog conversion and the operation of frequency conversion using block 1163 of the transmit-receive circuit. The mobile telephone 1100 transmits a signal to be transmitted obtained by conversion operations to an unproven base station via an antenna 1114. The signal to be transmitted (e-mail) transmitted to the base station is supplied to a specific destination via a network and a mail server or the like.

Кроме того, например, в случае приема электронной почты в режиме цифровой связи мобильный телефонный аппарат 1100 принимает сигнал, переданный с базовой станции, через антенну 1114 с помощью блока 1163 схемы передачи-приема, усиливает его и далее выполняет операцию частотного преобразования и операцию аналого-цифрового преобразования. Мобильный телефонный аппарат 1100 выполняет операцию, обратную расширению спектра принятого сигнала, с помощью блока 1158 схемы модуляции-демодуляции для восстановления исходных данных электронной почты. Мобильный телефонный аппарат 1100 отображает восстановленные данные электронной почты на жидкокристаллическом дисплее 1118 через блок 1155 управления ЖКД.In addition, for example, in the case of receiving electronic mail in digital communication mode, the mobile telephone 1100 receives the signal transmitted from the base station through the antenna 1114 using the transmit-receive circuit unit 1163, amplifies it, and then performs the frequency conversion operation and the analog- digital conversion. Mobile telephone 1100 performs the opposite of expanding the spectrum of the received signal using block 1158 of the modulation-demodulation scheme to restore the original email data. The mobile telephone 1100 displays the recovered email data on the liquid crystal display 1118 through the LCD control unit 1155.

Дополнительно, мобильный телефонный аппарат 1100 способен записывать принятые данные электронной почты в запоминающем блоке 1123 через блок 1162 записи-воспроизведения.Additionally, the mobile telephone 1100 is capable of recording received e-mail data in a storage unit 1123 through a recording / reproducing unit 1162.

Запоминающий блок 1123 является произвольным перезаписываемым носителем записи. Запоминающий блок 1123 может быть полупроводниковой памятью, такой как ОЗУ или встроенная флэш-память, или съемным носителем, таким как магнитный диск, магнитооптический диск, оптический диск, USB-память или карта памяти. Разумеется, могут быть использованы другие типы носителей.The storage unit 1123 is an arbitrary rewritable recording medium. The storage unit 1123 may be a semiconductor memory, such as RAM or built-in flash memory, or removable media, such as a magnetic disk, magneto-optical disk, optical disk, USB memory or memory card. Of course, other types of media may be used.

Далее, например, в случае передачи данных изображения в режиме цифровой связи мобильный телефонный аппарат 1100 генерирует данные изображения посредством фиксации с помощью ПЗС-фотокамеры 1116. ПЗС-фотокамера 1116 имеет оптические устройства, такие как линза и диафрагма, а ПЗС, служащий в качестве элемента фотоэлектрического преобразования, фиксирует изображение объекта, преобразует интенсивность принятого света в электрический сигнал и генерирует данные изображения для изображения объекта. ПЗС-фотокамера 1116 кодирует данные изображения с помощью кодера 1153 изображений через блок 1154 интерфейса фотокамеры, благодаря чему данные изображения преобразуются в кодированные данные изображения.Further, for example, in the case of transmitting image data in digital communication mode, the mobile telephone 1100 generates image data by fixing with a CCD camera 1116. The CCD camera 1116 has optical devices such as a lens and aperture, and the CCD serving as an element photoelectric conversion, captures the image of the object, converts the intensity of the received light into an electrical signal and generates image data for the image of the object. The CCD camera 1116 encodes the image data using the image encoder 1153 through the camera interface unit 1154, whereby the image data is converted to encoded image data.

Мобильный телефонный аппарат 1100 использует описанное выше кодирующее устройство 101 в качестве кодера 1153 изображений, который выполняет такую операцию. Как в случае с кодирующим устройством 101, кодер 1153 изображений выполняет кодирование с помощью предсказанного изображения, которое генерируется посредством фильтрационного предсказания. Кроме того, в этот момент, как в случае с кодирующим устройством 101, кодер 1153 изображений получает часть изображений компенсации движения с помощью вектора движения и получает оставшееся изображение (оставшиеся изображения) компенсации движения посредством предсказания движения изображения компенсации движения, полученного с помощью компенсации движения. Соответственно, кодер 1153 изображений может снизить число векторов движения, подлежащих кодированию.Mobile telephone 1100 uses the encoder 101 described above as an image encoder 1153 that performs such an operation. As with the encoder 101, the image encoder 1153 performs encoding using the predicted image that is generated by the filter prediction. In addition, at this point, as in the case of the encoder 101, the image encoder 1153 receives a portion of the motion compensation images using the motion vector and obtains the remaining motion compensation image (s) by predicting the motion of the motion compensation image obtained by the motion compensation. Accordingly, image encoder 1153 can reduce the number of motion vectors to be encoded.

Дополнительно, в то же время мобильный телефонный аппарат 1100 выполняет на звуковом кодере-декодере 1159 аналого-цифровое преобразование звука, уловленного микрофоном 1121 во время фиксации изображения с помощью ПЗС-фотокамеры 1116, и далее кодирует его.Additionally, at the same time, the mobile telephone 1100 performs, on an audio encoder / decoder 1159, an analog-to-digital conversion of the sound captured by the microphone 1121 during image capturing using the CCD camera 1116, and then encodes it.

Мобильный телефонный аппарат 1100 на блоке 1157 мультиплексирования-демультиплексирования мультиплексирует кодированные данные изображения, поданные из кодера 1153 изображений, и цифровые аудиоданные, поданные из звукового кодера-декодера 1159, определенным способом. Мобильный телефонный аппарат 1100 выполняет операцию расширения спектра мультиплексированных данных, полученных в результате, с помощью блока 1158 схемы модуляции-демодуляции и выполняет операцию цифро-аналогового преобразования и операцию частотного преобразования с помощью блока 1163 схемы передачи-приема. Мобильный телефонный аппарат 1100 передает сигнал, подлежащий передаче, полученный посредством операций преобразования, на непоказанную базовую станцию через антенну 1114. Сигнал, подлежащий передаче (данные изображения), переданный на базовую станцию, подается на противоположный конец линии связи по сети или т.п.The mobile telephone 1100 at the multiplexing-demultiplexing unit 1157 multiplexes the encoded image data supplied from the image encoder 1153 and the digital audio data supplied from the audio encoder-decoder 1159 in a specific manner. Mobile telephone 1100 performs the operation of expanding the spectrum of multiplexed data obtained as a result using block 1158 of the modulation-demodulation circuit and performs the digital-to-analog conversion operation and the frequency conversion operation using block 1163 of the transmit-receive circuit. The mobile telephone 1100 transmits a signal to be transmitted obtained by conversion operations to an unshown base station via an antenna 1114. The signal to be transmitted (image data) transmitted to the base station is supplied to the opposite end of a communication line over a network or the like.

Отметим, что в случае, когда данные изображения не передаются, мобильный телефонный аппарат 1100 может отобразить данные изображения, генерированные ПЗС-фотокамерой 1116, на жидкокристаллическом дисплее 1118 через блок 1155 управления ЖКД, а не через кодер 1153 изображений.Note that in the case where image data is not transmitted, the mobile telephone 1100 can display the image data generated by the CCD camera 1116 on the liquid crystal display 1118 through the LCD control unit 1155, and not through the image encoder 1153.

Кроме того, например, в случае приема данных файла динамического изображения, который соединен с простой веб-страницей или т.п., в режиме цифровой связи, мобильный телефонный аппарат 1100 принимает сигнал, переданный с базовой станции, через антенну 1114 с помощью блока 1163 схемы передачи-приема, усиливает его и далее выполняет операцию частотного преобразования и операцию аналого-цифрового преобразования. Мобильный телефонный аппарат 1100 выполняет операцию, обратную расширению спектра принятого сигнала, чтобы восстановить исходные мультиплексированные данные, с помощью блока 1158 схемы модуляции-демодуляции. Мобильный телефонный аппарат 1100 демультиплексирует мультиплексированные данные до кодированных данных изображения и аудиоданных с помощью блока 1157 мультиплексирования-демультиплексирования.In addition, for example, in the case of receiving data of a dynamic image file that is connected to a simple web page or the like, in digital communication mode, the mobile telephone 1100 receives a signal transmitted from the base station through the antenna 1114 using block 1163 transmission-reception scheme, amplifies it and then performs the frequency conversion operation and the analog-to-digital conversion operation. The mobile telephone 1100 performs the reverse operation of expanding the spectrum of the received signal to restore the original multiplexed data using block 1158 of the modulation-demodulation scheme. Mobile telephone 1100 demultiplexes the multiplexed data to encoded image data and audio data using the multiplexing-demultiplexing unit 1157.

Мобильный телефонный аппарат 1100 декодирует кодированные данные изображения с помощью декодера 1156 изображений для генерирования воспроизведенных данных динамического изображения и отображает данные на жидкокристаллическом дисплее 1118 через блок 1155 управления ЖКД. Соответственно, например, данные динамического изображения, включенные в файл динамического изображения, соединенный с простой веб-страницей, отображаются на жидкокристаллическом дисплее 1118.The mobile telephone 1100 decodes the encoded image data using the image decoder 1156 to generate reproduced dynamic image data and displays the data on the liquid crystal display 1118 through the LCD control unit 1155. Accordingly, for example, dynamic image data included in a dynamic image file connected to a simple web page is displayed on the liquid crystal display 1118.

Мобильный телефонный аппарат 1100 использует описанное выше декодирующее устройство 1 в качестве декодера 1156 изображений для выполнения такой обработки. То есть, как и в случае с декодирующим устройством 1, декодер 1156 изображений получает часть изображений компенсации движения с помощью вектора движения и получает оставшееся изображение (оставшиеся изображения) компенсации движения посредством предсказания движения изображения компенсации движения, полученного с помощью компенсации движения. Соответственно, декодер 1156 изображений может снизить число векторов движения, подлежащих кодированию.Mobile telephone 1100 uses the decoding device 1 described above as image decoder 1156 to perform such processing. That is, as with the decoding apparatus 1, the image decoder 1156 obtains a portion of the motion compensation images using the motion vector and obtains the remaining motion compensation image (s) by predicting the motion of the motion compensation image obtained by the motion compensation. Accordingly, image decoder 1156 can reduce the number of motion vectors to be encoded.

В этот момент мобильный телефонный аппарат 1100 преобразует цифровые аудиоданные в аналоговый аудиосигнал с помощью звукового кодера-декодера 1159, и выводит его с громкоговорителя 1117. Соответственно, например, воспроизводятся аудиоданные, включенные в файл динамического изображения, соединенный с простой веб-страницей.At this point, the mobile telephone 1100 converts the digital audio data into an analog audio signal using an audio encoder-decoder 1159, and outputs it from a speaker 1117. Accordingly, for example, audio data included in a dynamic image file connected to a simple web page is reproduced.

Отметим, что, как и в случае с электронной почтой, мобильный телефонный аппарат 1100 может также записывать (сохранять) принятые данные, соединенные с простой веб-страницей или т.п., в запоминающем блоке 1123 через блок 1162 записи-воспроизведения.Note that, as with email, the mobile telephone 1100 can also record (store) received data connected to a simple web page or the like in a storage unit 1123 through a recording-reproducing unit 1162.

Кроме того, мобильный телефонный аппарат 1100 может анализировать двумерный код, полученный ПЗС-фотокамерой 1116 посредством фиксации изображений, и получать данные, записанные в двумерном коде, с помощью основного управляющего блока 1150.In addition, the mobile telephone 1100 can analyze the two-dimensional code obtained by the CCD camera 1116 by capturing images, and obtain data recorded in the two-dimensional code using the main control unit 1150.

К тому же, мобильный телефонный аппарат 1100 может связываться с внешним устройством посредством инфракрасных лучей с помощью блока 1181 инфракрасной связи.In addition, the mobile telephone 1100 can communicate with an external device via infrared rays using the infrared communication unit 1181.

Используя кодирующее устройство 101 в качестве кодера 1153 изображений, мобильный телефонный аппарат 1100 может снизить число векторов движения, подлежащих передаче, во время кодирования данных изображения, генерированных ПЗС-фотокамерой 1116, и передачи данных изображения, тем самым увеличивая эффективность кодирования.Using the encoder 101 as the image encoder 1153, the mobile telephone 1100 can reduce the number of motion vectors to be transmitted during encoding the image data generated by the CCD camera 1116 and transmitting the image data, thereby increasing the encoding efficiency.

Кроме того, используя декодирующее устройство 1 в качестве декодера 1156 изображений, мобильный телефонный аппарат 1100 может генерировать предсказанное изображение высокой точности с помощью малого объема управляющих данных во время декодирования, которое выполняется во время приема данных (кодированных данных) файла динамического изображения, соединенного с простой веб-страницей или т.п. В результате мобильный телефонный аппарат 1100 может увеличить эффективность кодирования, подавляя возрастание объема обработки.Furthermore, using the decoding apparatus 1 as the image decoder 1156, the mobile telephone 1100 can generate a high-precision predicted image using a small amount of control data during decoding, which is performed while receiving data (encoded data) of a dynamic image file connected to a simple web page or the like As a result, mobile telephone 1100 can increase coding efficiency by suppressing an increase in processing volume.

Отметим, что, хотя в приведенном выше описании говорится о том, что мобильный телефонный аппарат 1100 использует ПЗС-фотокамеру 1116, вместо ПЗС-фотокамеры 1116 может быть использован сенсор изображений, использующий комплементарный металло-оксидный полупроводник (КМОП сенсор изображений). В этом случае мобильный телефонный аппарат 1100 также может фиксировать изображение объекта и генерировать данные изображения для изображения объекта, как в случае с использованием ПЗС-фотокамеры 1116.Note that although the above description says that the mobile telephone 1100 uses a CCD camera 1116, an image sensor using a complementary metal oxide semiconductor (CMOS image sensor) can be used instead of the CCD camera 1116. In this case, the mobile telephone 1100 can also capture the image of the object and generate image data for the image of the object, as is the case with the use of a CCD camera 1116.

Кроме того, хотя выше описан мобильный телефонный аппарат 1100, декодирующее устройство 1 и кодирующее устройство 101 могут быть применены к любому устройству, обладающему функциями фиксации изображений и связи, сходными с функциями мобильного телефонного аппарата 1100, такому как PDA (персональный электронный помощник), смартфон, УМПК (ультрамобильный персональный компьютер), нетбук или персональный ноутбук, как в случае с мобильным телефонным аппаратом 1100.In addition, although the mobile telephone 1100 is described above, the decoding device 1 and the encoding device 101 can be applied to any device having image capturing and communication functions similar to those of the mobile telephone 1100, such as a PDA (personal electronic assistant), smartphone , UMPK (ultramobile personal computer), netbook or personal laptop, as is the case with the mobile phone 1100.

Фиг. 28 является блок-схемой, иллюстрирующей пример основной конфигурации устройства записи на жесткий диск, которое использует декодирующее устройство 1 и кодирующее устройство 101, к которым применено настоящее изобретение.FIG. 28 is a block diagram illustrating an example of a basic configuration of a hard disk recorder that uses decoding apparatus 1 and encoding apparatus 101 to which the present invention is applied.

Устройство 1200 записи на жесткий диск (устройство записи на ЖД), показанное на Фиг. 28, является устройством, которое сохраняет аудио- и видеоданные программ вещания, включенных в волновой вещательный сигнал (телевизионный сигнал), который передается со спутника, эфирной антенны или т.п., и который принимается тюнером на жестком диске, включенном в него, и которое предоставляет сохраненные данные пользователю в момент, соответствующий поступившей от пользователя команде.The hard disk recorder 1200 (HDD recorder) shown in FIG. 28 is a device that stores audio and video data of broadcast programs included in a wave broadcast signal (television signal) that is transmitted from a satellite, broadcast antenna, or the like, and which is received by a tuner on a hard disk included therein, and which provides the stored data to the user at the moment corresponding to the command received from the user.

Устройство 1200 записи на жесткий диск может извлекать аудио- и видеоданные из волнового вещательного сигнала, декодировать их соответствующим образом и сохранять, например, на включенный в него жесткий диск. Кроме того, устройство 1200 записи на жесткий диск может получать аудио- и видеоданные с другого устройства по сети, декодировать их соответствующим образом и сохранять, например, на включенный в него жесткий диск.The hard disk recorder 1200 can extract audio and video data from a wave broadcast signal, decode them accordingly, and save, for example, to the included hard disk. In addition, the hard disk recorder 1200 may receive audio and video data from another device over the network, decode them accordingly, and save, for example, to the included hard disk.

К тому же, устройство 1200 записи на жесткий диск может декодировать аудио- и видеоданные, записанные на включенный в него жесткий диск, подавать их, например, на монитор 1260, отображать относящееся к ним изображение на экране монитора 1260 и выводить относящийся к ним звук с громкоговорителя монитора 1260. Кроме того, устройство 1200 записи на жесткий диск может декодировать аудио- и видеоданные, извлеченные из сигнала волнового вещания, полученного через тюнер, или аудио- и видеоданные, полученные с другого устройства по сети, подавать их, например, на монитор 1260, отображать относящееся к ним изображение на экране монитора 1260 и выводить относящийся к ним звук с громкоговорителя монитора 1260.In addition, the hard disk recorder 1200 can decode the audio and video data recorded on the included hard disk, supply them, for example, to the monitor 1260, display the image related thereto on the monitor 1260, and output sound related thereto from monitor speaker 1260. In addition, the hard disk recorder 1200 can decode audio and video data extracted from a wave broadcast signal received through a tuner, or audio and video data received from another device over a network, for example, on the monitor 1260, display the image relating to them on the screen of the monitor 1260 and output related sound from the speaker of the monitor 1260.

Разумеется, могут выполняться и другие действия.Of course, other actions may be performed.

Как показано на Фиг. 28, устройство 1200 записи на жесткий диск включает в себя приемный блок 1221, демодулирующий блок 1222, демультиплексор 1223, аудио декодер 1224, видеодекодер 1225 и блок 1226 управления устройством записи. Далее устройство 1200 записи на жесткий диск включает в себя память 1227 данных электронного телегида, программную память 1228, рабочую память 1229, преобразователь 1230 дисплея, блок 1231 управления отображением дополнительной информации (ОДИ), блок 1232 управления дисплеем, блок 1233 записи-воспроизведения, цифроаналоговый преобразователь 1234 и блок 1235 связи.As shown in FIG. 28, the hard disk recorder 1200 includes a receiving unit 1221, a demodulating unit 1222, a demultiplexer 1223, an audio decoder 1224, a video decoder 1225, and a recording device control unit 1226. Further, the hard disk recorder 1200 includes an electronic TV guide data memory 1227, program memory 1228, working memory 1229, display converter 1230, additional information display control unit (ODI) 1231, display control unit 1232, recording-reproducing unit 1233, digital-to-analog a converter 1234 and a communication unit 1235.

Кроме того, преобразователь 1230 дисплея включает в себя видеокодер 1241. Блок 1233 записи-воспроизведения включает в себя кодер 1251 и декодер 1252.In addition, the display converter 1230 includes a video encoder 1241. The recording / reproducing unit 1233 includes an encoder 1251 and a decoder 1252.

Приемный блок 1221 принимает инфракрасный сигнал с пульта дистанционного управления (не показан), преобразует в электрический сигнал и выводит его на блок 1226 управления записывающим устройством. Блок 1226 управления записывающим устройством состоит, например, из микропроцессора и т.п. и выполняет различные типы операций в соответствии с программой, сохраненной в программной памяти 1228. В этот момент блок 1226 управления записывающим устройством при необходимости использует рабочую память 1229.A receiving unit 1221 receives an infrared signal from a remote control (not shown), converts it into an electrical signal, and outputs it to a recording device control unit 1226. The recorder control unit 1226 consists, for example, of a microprocessor or the like. and performs various types of operations in accordance with a program stored in program memory 1228. At this point, the recorder control unit 1226 uses working memory 1229 if necessary.

Блок 1235 связи подключен к сети и выполняет операцию соединения с другим устройством по сети. Например, блок 1235 связи, управляемый блоком 1226 управления записывающим устройством, соединяется с тюнером (не показан) и выводит сигнал управления выбором канала преимущественно на тюнер.The communication unit 1235 is connected to the network and performs a connection operation with another device over the network. For example, the communication unit 1235, controlled by the recording device control unit 1226, connects to a tuner (not shown) and outputs a channel selection control signal mainly to the tuner.

Демодулирующий блок 1222 демодулирует сигнал, поданный с тюнера, и выводит на демультиплексор 1233. Демультиплексор 1233 демультиплексирует данные, поданные с демодулирующего блока 1222, на аудиоданные, видеоданные и данные электронного телегида и выводит их на аудиодекодер 1224, видеодекодер 1225 и блок 1226 управления записывающим устройством соответственно.Demodulating unit 1222 demodulates the signal supplied from the tuner and outputs to demultiplexer 1233. Demultiplexer 1233 demultiplexes the data supplied from demodulating unit 1222 to audio data, video data and electronic TV guide data and outputs them to audio decoder 1224, video decoder 1225 and recording control unit 1226 respectively.

Аудиодекодер 1224 декодирует введенные в него аудиоданные и выводит их на блок 1233 записи-воспроизведения. Видеодекодер 1225 декодирует введенные в него видеоданные и выводит их на преобразователь 1230 дисплея. Блок 1226 управления записывающим устройством подает введенные в него данные электронного телегида в память 1227 данных ЭТГ для сохранения.The audio decoder 1224 decodes the audio data entered therein and outputs it to the recording-reproducing unit 1233. Video decoder 1225 decodes the input video data into it and outputs it to a display converter 1230. The recorder control unit 1226 supplies the electronic TV guide data entered therein to the ETG data memory 1227 for storage.

Преобразователь 1230 дисплея с помощью видеокодера 1241 кодирует видеоданные, поданные с видеодекодера 1225 или блока 1226 управления записывающим устройством, в видеоданные, соответствующие, например, системе НКТС (Национального комитета по телевизионным стандартам), и выводит на блок 1233 записи-воспроизведения. Кроме того, преобразователь 1230 дисплея преобразует размер экрана видеоданных, поданных с видеодекодера 1225 или блока 1226 управления записывающим устройством, в размер, соответствующий размеру монитора 1260, преобразует их в видеоданные, соответствующие системе НКТС, с помощью видеокодера 1241, преобразует их в аналоговые сигналы и выводит их на блок 1232 управления дисплеем.The display converter 1230, using a video encoder 1241, encodes the video data supplied from the video decoder 1225 or the recorder control unit 1226 into video data corresponding, for example, to the NTSC system (National Committee for Television Standards), and outputs to the recording-reproducing unit 1233. In addition, the display converter 1230 converts the screen size of the video data supplied from the video decoder 1225 or the recorder control unit 1226 into a size corresponding to the size of the monitor 1260, converts them into video data corresponding to the NTCS system using the video encoder 1241, converts them into analog signals and displays them on a display control unit 1232.

Блок 1232 управления дисплеем под управлением блока 1226 управления записывающим устройством накладывает сигнал отображением дополнительной информации (ОДИ), выведенный с блока 1231 управления ОДИ, на видеосигнал, введенный с преобразователя 1230 дисплея, выводит его на дисплей монитора 1260 и отображает его.The display control unit 1232, under the control of the recorder control unit 1226, superimposes a signal by displaying additional information (ODI) output from the ODI control unit 1231 onto the video signal input from the display converter 1230, displays it on the monitor display 1260, and displays it.

Кроме того, на монитор 1260 подаются аудиоданные, которые выведены с аудиодекодера 1224 и преобразованы в аналоговый сигнал цифроаналоговым преобразователем 1234. Монитор 1260 выводит этот аудиосигнал со встроенного в него громкоговорителя.In addition, audio data is output to monitor 1260 that is output from audio decoder 1224 and converted into an analog signal by a digital to analog converter 1234. Monitor 1260 outputs this audio signal from a built-in speaker.

Блок 1233 записи-воспроизведения включает в себя жесткий диск в качестве носителя записи для хранения на нем видеоданных, аудиоданных и т.п.The recording / reproducing unit 1233 includes a hard disk as a recording medium for storing video, audio, and the like on it.

Блок 1233 записи-воспроизведения с помощью кодера 1251 кодирует, например, аудиоданные, поданные с аудиодекодера 1224. Кроме того, блок 1233 записи-воспроизведения с помощью кодера 1251 кодирует видеоданные, поданные с видеокодера 1241 преобразователя 1230 дисплея. Блок 1233 записи-воспроизведения с помощью уплотнителя совмещает кодированные данные аудиоданных и кодированные данные видеоданных. Блок 1233 записи-воспроизведения выполняет канальное кодирование комбинированных данных для их усиления и записывает данные на жесткий диск с помощью записывающей головки.The recording and reproducing unit 1233 by means of the encoder 1251 encodes, for example, the audio data supplied from the audio decoder 1224. In addition, the recording and reproducing unit 1233 by the encoder 1251 encodes the video data supplied from the video encoder 1241 of the display converter 1230. A recording / reproducing unit 1233, using a compressor, combines encoded audio data and encoded video data. A recording / reproducing unit 1233 performs channel coding of the combined data to amplify it and writes the data to the hard disk using a recording head.

Блок 1233 записи-воспроизведения воспроизводит данные, записанные на жесткий диск, с помощью воспроизводящей головки, усиливает их и демультиплексирует их на аудио- и видеоданные с помощью демультиплексора. Блок 1233 записи-воспроизведения с помощью декодера 1252 декодирует аудио- и видеоданные. Блок 1233 записи-воспроизведения выполняет цифроаналоговое преобразование декодированных аудиоданных и выводит их на громкоговоритель монитора 1260. Кроме того, блок 1233 записи-воспроизведения выполняет цифроаналоговое преобразование декодированных видеоданных и выводит их на дисплей монитора 1260.The recording-reproducing unit 1233 reproduces the data recorded on the hard disk using the reproducing head, amplifies them and demultiplexes them to the audio and video data using the demultiplexer. Block 1233 recording-playback using the decoder 1252 decodes the audio and video data. The recording-reproducing unit 1233 performs digital-to-analog conversion of the decoded audio data and outputs them to the monitor speaker 1260. In addition, the recording-reproducing unit 1233 performs the digital-to-analog conversion of decoded video data and displays them on the monitor display 1260.

Блок 1226 управления записывающим устройством считывает последние данные электронного телегида из памяти 1227 данных электронного телегида на основе команды пользователя, обозначенной инфракрасным сигналом, который поступает с пульта дистанционного управления и принимается через приемный блок 1221, и подает их на блок 1231 управления ОДИ. Блок 1231 управления ОДИ генерирует данные изображения, соответствующие введенным данным электронного телегида, и выводит их на блок 1232 управления дисплеем. Блок 1232 управления дисплеем выводит видеоданные, введенные с блока 1231 управления ОДИ, на дисплей монитора 1260 и отображает их. Соответственно, электронный телегид (ЭТГ) отображается на дисплее монитора 1260.The recording device control unit 1226 reads the latest electronic TV guide data from the electronic TV guide data memory 1227 based on a user command indicated by the infrared signal that is received from the remote control and received through the receiving unit 1221 and provides them to the ODI control unit 1231. The ODI control unit 1231 generates image data corresponding to the entered electronic TV guide data and outputs it to the display control unit 1232. The display control unit 1232 outputs the video data inputted from the ODI control unit 1231 to the monitor display 1260 and displays them. Accordingly, the electronic TV guide (ETG) is displayed on the monitor 1260.

Кроме того, устройство 1200 записи на жесткий диск может получать различные типы данных, такие как видеоданные, аудиоданные или данные ЭТГ, подаваемые с другого устройства по сети, такой как Интернет.In addition, the hard disk recorder 1200 may receive various types of data, such as video data, audio data, or ETG data supplied from another device over a network, such as the Internet.

Блок 1235 связи управляется блоком 1226 управления записывающим устройством, получает кодированные данные видеоданных, аудиоданных и данных электронного телегида, передаваемые с другого устройства по сети, и подает на блок 1226 управления записывающим устройством. Блок 1226 управления записывающим устройством подает полученные кодированные данные видео- и аудиоданных на блок 1233 записи-воспроизведения и, например, сохраняет на жестком диске. В этот момент блок 1226 управления записывающим устройством и блок 1233 записи-воспроизведения могут при необходимости выполнить такую операцию, как повторное кодирование.The communication unit 1235 is controlled by the recording device control unit 1226, receives encoded video data, audio data, and electronic TV guide data transmitted from another device over the network, and provides to the recording device control unit 1226. The recording device control unit 1226 supplies the obtained encoded video and audio data to the recording / reproducing unit 1233 and, for example, stores it on the hard disk. At this point, the recorder control unit 1226 and the recording / reproducing unit 1233 can, if necessary, perform an operation such as re-encoding.

Кроме того, блок 1226 управления записывающим устройством декодирует полученные кодированные данные видео- и аудиоданных и подает полученные видеоданные на преобразователь 1230 дисплея. Преобразователь 1230 дисплея обрабатывает видеоданные, поданные с блока 1226 управления записывающим устройством, так же, как и видеоданные, поданные с видеодекодера 1225, подает на монитор 1260 через блок 1232 управления дисплеем и отображает изображение.In addition, the recorder control unit 1226 decodes the received encoded video and audio data and provides the received video data to the display converter 1230. The display converter 1230 processes the video data supplied from the recorder control unit 1226, as well as the video data supplied from the video decoder 1225, provides to the monitor 1260 through the display control unit 1232 and displays an image.

Кроме того, в соответствии с отображением этого изображения блок 1226 управления записывающим устройством может подать декодированные аудиоданные на монитор 1260 через цифроаналоговый преобразователь 1234 и вывести звук с громкоговорителя.In addition, in accordance with the display of this image, the recorder control unit 1226 can supply the decoded audio data to the monitor 1260 through a digital-to-analog converter 1234 and output sound from the speaker.

Далее, блок 1226 управления записывающим устройством декодирует полученные кодированные данные данных электронного телегида и подает декодированные данные электронного телегида в память 1227 данных электронного телегида.Further, the recorder control unit 1226 decodes the received encoded data of the electronic TV guide data and supplies the decoded data of the electronic TV guide to the electronic TV guide data memory 1227.

Описанное выше устройство 1200 записи на жесткий диск использует декодирующее устройство 1 в качестве видеодекодера 1225, декодера 1252 и декодера, включенного в блок 1226 управления записывающим устройством. То есть, видеодекодер 1225, декодер 1252 и декодер, включенные в блок 1226 управления записывающим устройством, получают часть изображений компенсации движения с помощью вектора движения, и получают оставшееся изображение (оставшиеся изображения) компенсации движения посредством предсказания движения изображения компенсации движения, полученного с помощью вектора движения, как в случае декодирующего устройства 1. Соответственно, видеодекодер 1225, декодер 1252 и декодер, включенные в блок 1226 управления записывающим устройством, могут снизить число векторов движения, подлежащих кодированию.The hard disk recorder 1200 described above uses a decoding apparatus 1 as a video decoder 1225, a decoder 1252, and a decoder included in the recorder control unit 1226. That is, the video decoder 1225, the decoder 1252, and the decoder included in the recorder control unit 1226 obtain a portion of the motion compensation images using the motion vector, and the remaining motion compensation image (s) are obtained by predicting the motion compensation image motion obtained by the vector motion, as in the case of decoding apparatus 1. Accordingly, video decoder 1225, decoder 1252, and a decoder included in the recorder control unit 1226 can reduce a layer of motion vectors to be encoded.

Таким образом, устройство 1200 записи на жесткий диск может генерировать предсказанное изображение высокой точности с помощью малого объема управляющих данных во время декодирования, которое выполняется, когда тюнер или блок 1235 связи принимает видеоданные (кодированные данные), или когда блока 1233 записи-воспроизведения воспроизводит видеоданные (кодированные данные) с жесткого диска. В результате устройство 1200 записи на жесткий диск может увеличить эффективность кодирования, подавляя возрастание объема обработки.Thus, the hard disk recorder 1200 can generate a high-precision predicted image with a small amount of control data during decoding, which is performed when the tuner or communication unit 1235 receives video data (encoded data), or when the recording / reproducing unit 1233 reproduces video data (encoded data) from the hard drive. As a result, the hard disk recorder 1200 can increase coding efficiency by suppressing an increase in processing volume.

Кроме того, устройство 1200 записи на жесткий диск использует кодирующее устройство 101 в качестве кодера 1251. Таким образом, кодер 1251 получает часть изображений компенсации движения с помощью вектора движения и получает оставшееся изображение (оставшиеся изображения) компенсации движения посредством предсказания движения изображения компенсации движения, полученного с помощью вектора движения, как в случае кодирующего устройства 101.In addition, the hard disk recorder 1200 uses the encoder 101 as an encoder 1251. Thus, the encoder 1251 obtains a portion of the motion compensation images using the motion vector and obtains the remaining motion compensation image (s) by predicting the motion of the motion compensation image obtained using the motion vector, as in the case of the encoder 101.

Следовательно, устройство 1200 записи на жесткий диск может снизить число векторов движения, записывая кодированные данные на жесткий диск, тем самым увеличивая эффективность кодирования.Therefore, the hard disk recorder 1200 can reduce the number of motion vectors by writing encoded data to the hard disk, thereby increasing the encoding efficiency.

Отметим, что хотя выше приведено описание устройства 1200 записи на жесткий диск для записи видео- и аудиоданных на жесткий диск, конечно, могут использоваться любые типы носителей записи. Например, декодирующее устройство 1 и кодирующее устройство 101 могут быть применены к устройству записи, в котором применяется носитель записи, отличный от жесткого диска, например, флэш-память, оптический диск или видеокассета, как в случае с описанным выше устройством 1200 записи на жесткий диск.Note that although the above is a description of a hard disk recorder 1200 for recording video and audio data to a hard disk, of course, any type of recording medium may be used. For example, decoding device 1 and encoding device 101 can be applied to a recording device that uses a recording medium other than a hard disk, for example, a flash memory, an optical disk or a video cassette, as is the case with the above-described device 1200 recording to a hard disk .

Фиг. 29 является блок-схемой, иллюстрирующей пример основной конфигурации фотокамеры, которая использует декодирующее устройство 1 и кодирующее устройство 101, к которым применено настоящее изобретение.FIG. 29 is a block diagram illustrating an example of a basic configuration of a camera that uses a decoding apparatus 1 and an encoding apparatus 101 to which the present invention is applied.

Фотокамера 1300, показанная на Фиг. 29, фиксирует изображение объекта, отображает изображение объекта на ЖКД 1316 и записывает его на носитель 1333 записи в качестве данных изображения.The camera 1300 shown in FIG. 29 captures an image of an object, displays an image of an object on an LCD 1316, and writes it onto a recording medium 1333 as image data.

Линзовый блок 1311 пропускает свет (т.е. изображение объекта) на ПЗС/КМОП 1312. ПЗС/КМОП 1312 является датчиком изображения, использующим ПЗС или КМОП, он преобразует интенсивность принятого света в электрический сигнал и подает его на блок 1313 обработки сигнала фотокамеры.The lens unit 1311 transmits light (i.e., an image of the object) to the CCD / CMOS 1312. The CCD / CMOS 1312 is an image sensor using a CCD or CMOS, it converts the received light intensity into an electrical signal and feeds it to the camera signal processing unit 1313.

Блок 1313 обработки сигнала фотокамеры преобразует электрический сигнал, поданный с ПЗС-КМОП 1312, в цветоразностные сигналы Y, Cr и Cb и подает их на блок 1314 обработки сигнала изображения. Блок 1314 обработки сигнала изображения выполняет определенную обработку изображения по отношению к сигналу изображения, поданному с блока 1313 обработки сигнала фотокамеры, и кодирует сигнал изображения с помощью кодера 1341 под управлением управляющего устройства 1321. Блок 1314 обработки сигнала изображения подает кодированные данные, которые генерированы путем кодирования сигнала изображения, на декодер 1315. К тому же, блок 1314 обработки сигнала изображения получает данные, подлежащие отображению, генерированные на блоке 1320 отображения дополнительной информации (ОДИ), и подает их на декодер 1315.The camera signal processing unit 1313 converts the electrical signal supplied from the CCD-CMOS 1312 into color difference signals Y, Cr, and Cb and supplies them to the image signal processing unit 1314. The image signal processing unit 1314 performs certain image processing with respect to the image signal supplied from the camera signal processing unit 1313 and encodes the image signal using an encoder 1341 under the control of a control device 1321. The image signal processing unit 1314 provides encoded data that is generated by encoding the image signal to the decoder 1315. In addition, the image signal processing unit 1314 receives the data to be displayed generated on the additional display unit 1320 tional data (DAR), and supplies them to the decoder 1315.

При описанной выше обработке блок 1313 обработки сигнала фотокамеры соответствующим образом использует ДОЗУ (динамическое ОЗУ) 1318, подключенное через шину 1317, и при необходимости хранит в ДОЗУ 1318 данные изображения, кодированные данные, полученные путем кодирования данных изображения, и т.п.In the processing described above, the camera signal processing unit 1313 appropriately uses the DOS (Dynamic RAM) 1318 connected via the bus 1317 and, if necessary, stores image data, encoded data obtained by encoding the image data, and the like in the DOS 1318.

Декодер 1315 декодирует кодированные данные, поданные с блока 1314 обработки сигнала изображения, и подает полученные данные изображения (декодированные данные изображения) на ЖКД 1316. Кроме того, декодер 1315 подает данные, подлежащие отображению, поданные с блока 1314 обработки сигнала изображения, на ЖКД 1316. ЖКД 1316 соответствующим образом совмещает изображение декодированных данных изображения, поданных с декодера 1315, и изображение данных, подлежащих отображению, и отображает комбинированное изображение.The decoder 1315 decodes the encoded data supplied from the image signal processing unit 1314, and provides the received image data (decoded image data) to the LCD 1316. In addition, the decoder 1315 supplies the data to be displayed supplied from the image signal processing unit 1314 to the LCD 1316 The LCD 1316 appropriately combines the image of the decoded image data supplied from the decoder 1315 and the image of the data to be displayed, and displays the combined image.

Блок 1320 отображения дополнительной информации под управлением управляющего устройства 1321 выводит данные, подлежащие отображению, такие как экран меню, состоящий из символов, букв или цифр, и иконки, на блок 1314 обработки сигнала изображения через шину 1317.The additional information display unit 1320, under the control of the control device 1321, outputs data to be displayed, such as a menu screen consisting of characters, letters or numbers, and icons, to the image signal processing unit 1314 via the bus 1317.

Управляющее устройство 1321 выполняет различные типы операций на основе сигнала, обозначающего содержание команды, отданной пользователем с помощью командного блока 1322, и управляет блоком 1314 обработки сигнала изображения, ДОЗУ 1318, внешним интерфейсом 1319, блоком 1320 отображения дополнительной информации, приводом 1323 для носителей и т.д. через шину 1317. Программы, данные и т.п., которые необходимы управляющему устройству 1321 для выполнения различных типов операций, сохраняются на флэш-ПЗУ 1324.The control device 1321 performs various types of operations based on a signal indicating the contents of the command issued by the user using the command unit 1322, and controls the image signal processing unit 1314, the DOS 1318, the external interface 1319, the additional information display unit 1320, the drive 1323 for carriers, etc. .d. via bus 1317. Programs, data, etc., which are necessary for the control device 1321 to perform various types of operations are stored on a flash ROM 1324.

Например, управляющее устройство 1321 может кодировать данные изображения, сохраненные на ДОЗУ 1318, и декодировать кодированные данные, сохраненные на ДОЗУ 1318, для блока 1314 обработки сигнала изображения или декодера 1315. В этот момент управляющее устройство 1321 может выполнять операцию кодирования-декодирования способом, сходным со способом кодирования-декодирования блока 1314 обработки сигнала изображения или декодера 1315, или может выполнять операцию кодирования-декодирования способом, несовместимым с блоком 1314 обработки сигнала изображения или декодером 1315.For example, the control device 1321 can encode image data stored on the DOS 1318 and decode the encoded data stored on the DOS 1318 for the image signal processing unit 1314 or decoder 1315. At this point, the control device 1321 may perform an encoding-decoding operation in a manner similar to with the encoding-decoding method of the image signal processing unit 1314 or the decoder 1315, or may perform the encoding-decoding operation in a manner incompatible with the signal processing unit 1314 ia or decoder 1315.

Кроме того, например, если с командного блока 1322 поступила команда начать печать изображения, управляющее устройство 1320 считывает данные изображения с ДОЗУ 1318 и подает их на принтер 1334, подключенный к внешнему интерфейсу 1319 через шину 1317, для печати.In addition, for example, if a command was issued from the command unit 1322 to start printing the image, the control device 1320 reads the image data from the DOS 1318 and feeds them to a printer 1334 connected to the external interface 1319 via the bus 1317 for printing.

К тому же, например, если с командного блока 1322 поступила команда записать изображение, управляющее устройство 1321 считывает кодированные данные с ДОЗУ 1318 и подает их через шину 1317 для сохранения на носитель 1333 записи, установленный в приводе 1323 для носителей.In addition, for example, if the command to record the image was received from the command unit 1322, the control device 1321 reads the encoded data from the DOSE 1318 and supplies it via the bus 1317 for saving to the recording medium 1333 installed in the media drive 1323.

Носитель 1333 записи является произвольным съемным носителем с возможностью считывания и записи, таким как магнитный диск, магнитооптический диск, оптический диск или полупроводниковая память. Конечно, носитель 1333 записи может являться съемным носителем любого типа, он может являться запоминающим устройством на ленте, диском или картой памяти. Конечно, носитель 1333 записи может являться бесконтактной платой ИС или т.п.The recording medium 1333 is an optional removable and readable medium, such as a magnetic disk, magneto-optical disk, optical disk, or semiconductor memory. Of course, the recording medium 1333 can be any type of removable medium, it can be a storage device on a tape, disk or memory card. Of course, the recording medium 1333 may be a contactless IC card or the like.

Кроме того, привод 1323 для носителей и носитель 1333 записи могут быть объединены и выполнены в виде непереносного носителя записи, такого как встроенный жесткий диск или твердотельный накопитель (SSD, solid state drive) и т.п.In addition, the media drive 1323 and the recording medium 1333 can be combined and implemented as a non-portable recording medium, such as an internal hard drive or solid state drive (SSD, solid state drive) and the like.

Внешний интерфейс 1319 состоит из, например, USB-терминала ввода-вывода или т.п. и соединяется с принтером 1334 в случае выполнения печати изображения. Кроме того, привод 1331 при необходимости соединяется с внешним интерфейсом 1319, на который соответствующим образом устанавливается съемный носитель 1322, такой как магнитный диск, оптический диск или магнитооптический диск, и считанная с него компьютерная программа при необходимости устанавливается на флэш-ПЗУ 1324.The external interface 1319 consists of, for example, a USB I / O terminal or the like. and connected to the printer 1334 in the case of printing the image. In addition, the drive 1331 is optionally connected to an external interface 1319 onto which removable media 1322, such as a magnetic disk, optical disk or magneto-optical disk, is appropriately mounted, and the computer program read from it is installed on flash ROM 1324 if necessary.

Далее, внешний интерфейс 1319 включает в себя сетевой интерфейс, соединяемый с определенной сетью, такой как локальная сеть или Интернет. Управляющее устройство 1321 может считывать кодированные данные с ДОЗУ 1318 и подавать их с внешнего интерфейса 1319 на другое устройство, подключаемое по сети, в соответствии с командой, поступившей, например, с командного блока 1322. Кроме того, управляющее устройство 1321 может через внешний интерфейс 1319 получать кодированные данные или данные изображения, поданные с другого устройства по сети, и сохранять их на ДОЗУ 1318 или подавать их на блок 1314 обработки сигнала изображения.Further, the external interface 1319 includes a network interface connected to a specific network, such as a local area network or the Internet. The control device 1321 can read the encoded data from the DOSE 1318 and send it from the external interface 1319 to another device connected via the network, in accordance with the command received, for example, from the command unit 1322. In addition, the control device 1321 can through the external interface 1319 receive encoded data or image data filed from another device over the network, and save them to DOSE 1318 or submit them to the image signal processing unit 1314.

Описанная выше фотокамера 1300 использует декодирующее устройство 1 в качестве декодера 1315. То есть, декодер 1315 получает часть изображений компенсации движения с помощью вектора движения, и получает оставшееся изображение (оставшиеся изображения) посредством предсказания движения изображения компенсации движения, полученного с помощью вектора движения, как в случае декодирующего устройства 1. Соответственно, декодер 1315 может снизить число векторов движения, подлежащих кодированию.The camera 1300 described above uses the decoding apparatus 1 as a decoder 1315. That is, the decoder 1315 obtains a portion of the motion compensation images using the motion vector, and obtains the remaining image (remaining images) by predicting the motion of the motion compensation image obtained by the motion vector as in the case of decoding apparatus 1. Accordingly, decoder 1315 can reduce the number of motion vectors to be encoded.

Следовательно, фотокамера 1300 может генерировать предсказанное изображение высокой точности с помощью малого объема управляющих данных при считывании данных изображения, генерированных на ПЗС/КМОП 1312, или кодированных данных видеоданных с ДОЗУ 1318 или носителя 1333 записи, или при получении кодированных данных видеоданных по сети. В результате фотокамера 1300 может увеличить эффективность кодирования, подавляя возрастание объема обработки.Therefore, the camera 1300 can generate a high-precision predicted image using a small amount of control data when reading image data generated on a CCD / CMOS 1312, or encoded video data from a DOS 1318 or recording medium 1333, or when receiving encoded video data over a network. As a result, camera 1300 can increase coding efficiency by suppressing an increase in processing volume.

Кроме того, фотокамера 1300 использует кодирующее устройство 101 в качестве кодера 1341. Кодер 1341 получает часть изображений компенсации движения с помощью вектора движения, и получает оставшееся изображение (оставшиеся изображения) посредством предсказания движения изображения компенсации движения, полученного с помощью вектора движения, как в случае кодирующего устройства 101. Соответственно, кодер 1341 может снизить число векторов движения, подлежащих кодированию.In addition, the camera 1300 uses the encoder 101 as an encoder 1341. The encoder 1341 receives a portion of the motion compensation images using the motion vector, and obtains the remaining image (remaining images) by predicting the motion of the motion compensation image obtained by the motion vector, as in the case encoder 101. Accordingly, encoder 1341 may reduce the number of motion vectors to be encoded.

Следовательно, фотокамера 1300 может снизить число векторов движения при записи кодированных данных на ДОЗУ 1318 или носитель 1333 записи или при предоставлении кодированных данных другому устройству, например, и может увеличить эффективность кодирования.Therefore, the camera 1300 can reduce the number of motion vectors when writing encoded data to the DOS 1318 or recording medium 1333 or when providing encoded data to another device, for example, and can increase the encoding efficiency.

Помимо того, способ декодирования декодирующего устройства 1 может быть применен к обработке декодирования, выполняемой управляющим устройством 1321. Аналогично, способ кодирования кодирующего устройства 101 может быть применен к обработке кодирования, выполняемой управляющим устройством 1321.In addition, the decoding method of decoding device 1 can be applied to decoding processing performed by control device 1321. Similarly, the encoding method of encoding device 101 can be applied to encoding processing performed by control device 1321.

Кроме того, данные изображения, фиксируемые фотокамерой 1300, могут быть динамическим или неподвижным изображением.In addition, image data captured by the camera 1300 may be a dynamic or still image.

Конечно же, декодирующее устройство 1 и кодирующее устройство 101 могут быть применены к устройству или системе, отличным от описанных выше устройств.Of course, the decoding device 1 and the encoding device 101 can be applied to a device or system other than the devices described above.

Кроме того, размер макроблоков может быть задан произвольно. Настоящее изобретение может быть применено к различным размерам макроблоков, например, как показано на Фиг. 30. Например, настоящее изобретение может быть применено к расширенному макроблоку размером 32×32 пиксела (расширенному макроблоку), так же как и к обычному макроблоку размером 16×16 пикселов.In addition, the size of macroblocks can be set arbitrarily. The present invention can be applied to various sizes of macroblocks, for example, as shown in FIG. 30. For example, the present invention can be applied to an expanded macroblock of 32 × 32 pixels (extended macroblock), as well as to a conventional macroblock of 16 × 16 pixels.

В верхней части Фиг. 30 слева направо показаны макроблоки, состоящие из 32×32 пиксела, которые разделены на блоки (отделения) по 32×32 пиксела, 32×16 пикселов, 16×32 пиксела и 16×16 пикселов. Кроме того, в средней части слева направо показаны блоки, состоящие из 16×16 пикселов, которые разделены на блоки по 16×16 пикселов, 16×8 пикселов, 8×16 пикселов и 8×8 пикселов. Далее, в нижней части слева направо показаны блоки, состоящие из 8×8 пикселов, которые разделены на блоки по 8×8 пикселов, 8×4 пиксела, 4×8 пикселов и 4×4 пиксела.At the top of FIG. 30 from left to right shows macroblocks consisting of 32 × 32 pixels, which are divided into blocks (compartments) of 32 × 32 pixels, 32 × 16 pixels, 16 × 32 pixels and 16 × 16 pixels. In addition, in the middle part, blocks consisting of 16 × 16 pixels, which are divided into blocks of 16 × 16 pixels, 16 × 8 pixels, 8 × 16 pixels and 8 × 8 pixels, are shown from left to right. Further, in the lower part from left to right, blocks of 8 × 8 pixels are shown, which are divided into blocks of 8 × 8 pixels, 8 × 4 pixels, 4 × 8 pixels, and 4 × 4 pixels.

То есть макроблок размером 32×32 пиксела может быть обработан как блоки по 32×32 пиксела, 32×16 пикселов, 16×32 пиксела и 16×16 пикселов, показанные в верхней части.That is, a macroblock of 32 × 32 pixels can be processed as blocks of 32 × 32 pixels, 32 × 16 pixels, 16 × 32 pixels and 16 × 16 pixels shown in the upper part.

Блок размером 16×16 пикселов, показанный в верхней части справа, может быть обработан как блоки по 16×16 пикселов, 16×8 пикселов, 8×16 пикселов и 8×8 пикселов, показанные в средней части, как в способе H.264/AVC.A block of 16 × 16 pixels, shown in the upper right, can be processed as blocks of 16 × 16 pixels, 16 × 8 pixels, 8 × 16 pixels and 8 × 8 pixels, shown in the middle part, as in the H.264 method / Avc.

Блок размером 8×8 пикселов, показанный в средней части справа, может быть обработан как блоки по 8×8 пикселов, 8×4 пиксела, 4×8 пикселов и 4×4 пиксела, показанные в нижней части, как в способе H.264/AVC.A block of 8 × 8 pixels, shown in the middle part on the right, can be processed as blocks of 8 × 8 pixels, 8 × 4 pixels, 4 × 8 pixels and 4 × 4 pixels, shown in the lower part, as in the H.264 method / Avc.

Эти блоки могут быть распределены по следующим трем уровням. То есть, блоки по 32×32 пиксела, 32×16 пикселов и 16×32 пиксела, показанные в верхней части Фиг. 30, отнесены к первому уровню. Блок 16×16 пикселов, показанный в верхней части справа, и блоки по 16×16 пикселов, 16×8 пикселов и 8×16 пикселов, показанные в средней части, отнесены ко второму уровню. Блок 8×8 пикселов, показанный в средней части справа, и блоки по 8×8 пикселов, 8×4 пиксела, 4×8 пикселов и 4×4 пиксела, показанные в нижней части, к третьему уровню.These blocks can be divided into the following three levels. That is, blocks of 32 × 32 pixels, 32 × 16 pixels and 16 × 32 pixels shown at the top of FIG. 30 are assigned to the first level. The 16 × 16 pixel block shown at the top right and the 16 × 16 pixel blocks, 16 × 8 pixels and 8 × 16 pixels shown in the middle portion are assigned to the second level. A block of 8 × 8 pixels, shown in the middle part on the right, and blocks of 8 × 8 pixels, 8 × 4 pixels, 4 × 8 pixels and 4 × 4 pixels, shown in the lower part, to the third level.

Приняв такую иерархическую структуру, касающуюся блоков размером 16×16 пикселов или меньше, можно определить больший блок как надмножество блоков, сохраняя совместимость со способом H.264/AVC.By adopting such a hierarchical structure for blocks of 16 × 16 pixels or less, you can define a larger block as a superset of blocks, while maintaining compatibility with the H.264 / AVC method.

Например, декодирующее устройство 1 и кодирующее устройство 101 могут генерировать предсказанные изображения для отдельных уровней. Кроме того, например, предсказанное изображение, генерированное декодирующим устройством 1 и кодирующим устройством 101 в первом уровне, который является уровнем большего размера блока, чем во втором уровне, может также использоваться для второго уровня.For example, decoding apparatus 1 and encoding apparatus 101 may generate predicted images for individual layers. In addition, for example, the predicted image generated by the decoding apparatus 1 and the encoding apparatus 101 in the first level, which is a level of a larger block size than in the second level, can also be used for the second level.

Макроблоки, в которых кодирование выполняется с помощью относительно большого размера блока, как в первом и втором уровне, имеют относительно малый объем высокочастотного компонента. Напротив, считается, что макроблоки, в которых кодирование выполняется с помощью относительно малого размера блоков, как в третьем уровне, имеют относительно большой объем высокочастотного компонента.Macroblocks in which encoding is performed using a relatively large block size, as in the first and second level, have a relatively small volume of the high-frequency component. On the contrary, it is believed that macroblocks in which coding is performed using a relatively small block size, as in the third level, have a relatively large volume of high-frequency component.

Соответственно, путем индивидуального генерирования предсказанных изображений в соответствии с соответствующими уровнями различных размеров блока может быть достигнуто улучшение работы, удобное для локальных свойств изображения.Accordingly, by individually generating predicted images in accordance with corresponding levels of different block sizes, an improvement in performance convenient for local image properties can be achieved.

Список ссылочных позицийList of Reference Items

1 - Декодирующее устройство1 - Decoding device

21 - Схема предсказания-компенсации21 - Prediction-compensation scheme

41 - Схема определения режима предсказания41 - Prediction mode determination circuit

42 - Схема однонаправленного предсказания42 - Unidirectional prediction scheme

43 - Схема двунаправленного предсказания43 - Bidirectional prediction scheme

44 - Схема предсказания44 - Prediction Scheme

45 - Фильтрующая схема45 - Filter circuit

51 - Схема компенсации движения51 - Motion compensation circuit

52 - Схема предсказания движения52 - Motion prediction scheme

61 - Схема вычисления разности61 - Difference calculation circuit

62 - Схема фильтра нижних частот62 - Low-pass filter circuit

63 - Схема настройки усиления63 - Gain tuning circuit

64 - Схема фильтра верхних частот64 - High pass filter circuit

65 - Схема настройки усиления65 - gain tuning circuit

66 - Суммирующая схема66 - Summing scheme

67 - Суммирующая схема.67 - Summarizing scheme.

Claims (29)

1. Устройство обработки изображений, содержащее схему, выполненную с возможностью:1. An image processing device comprising a circuit configured to: декодирования кодированного изображения;decoding an encoded image; выполнения первой компенсации движения за счет использования первого вектора движения кодированного изображения, для генерирования первого изображения компенсации движения;performing a first motion compensation by using the first motion vector of the encoded image to generate a first motion compensation image; выполнения второй компенсации движения за счет использования второго вектора движения кодированного изображения, для генерирования второго изображения компенсации движения;performing a second motion compensation by using the second motion vector of the encoded image to generate a second motion compensation image; генерирования предсказанного изображения путем выполнения обработки фильтрации и обработки суммирования над первым изображением компенсации движения и вторым первым изображением компенсации движения.generating the predicted image by performing filtering processing and summing processing on the first motion compensation image and the second first motion compensation image. 2. Устройство обработки изображений по п. 1, в котором обработка фильтрации выделяет высокочастотный компонент изображения компенсации движения.2. The image processing apparatus of claim 1, wherein the filtering processing extracts a high-frequency component of the motion compensation image. 3. Устройство обработки изображений по п. 1, в котором генерирование первого изображения компенсации движения осуществляется из опорного кадра, образованного из декодируемого изображения; и3. The image processing device according to claim 1, wherein the first motion compensation image is generated from a reference frame formed from a decoded image; and генерирование второго изображения компенсации движения осуществляется из опорного кадра, отличного от опорного кадра, из которого сгенерировано первое изображение компенсации движения.the second motion compensation image is generated from a reference frame different from the reference frame from which the first motion compensation image is generated. 4. Устройство обработки изображений по п. 2, в котором выделение высокочастотного компонента изображения компенсации движения выполняется за счет использования корреляции во временном направлении, включенной в изображения компенсации движения.4. The image processing apparatus according to claim 2, wherein the high-frequency component of the motion compensation image is extracted by using the correlation in the time direction included in the motion compensation images. 5. Устройство обработки изображений по п. 1, в котором5. The image processing device according to claim 1, in which второе изображение компенсации движения совпадает или сходно с первым изображением компенсации движения, сгенерированным из опорного кадра с помощью определенной стоимостной функции, общей для кодирующего устройства, которое кодирует изображение, причем второе изображение компенсации движения служит в качестве изображения компенсации движения, соответствующего предсказанному изображению.the second motion compensation image is the same or similar to the first motion compensation image generated from the reference frame using a certain cost function common to an encoding device that encodes the image, the second motion compensation image serving as the motion compensation image corresponding to the predicted image. 6. Устройство обработки изображений по п. 5, в котором стоимостная функция является функцией для вычисления итоговой суммы абсолютных значений разностных значений отдельных пиксельных значений между первым изображением компенсации изображения и целевым для обработки блоком опорного кадра.6. The image processing device according to claim 5, in which the cost function is a function for calculating the total sum of the absolute values of the difference values of individual pixel values between the first image compensation image and the target block for processing the reference frame. 7. Устройство обработки изображений по п. 5, в котором стоимостная функция является функцией для вычисления минимальной квадратичной ошибки отдельных пиксельных значений между первым изображением компенсации изображения и целевым для обработки блоком опорного кадра.7. The image processing device according to claim 5, in which the cost function is a function for calculating the minimum quadratic error of individual pixel values between the first image compensation image and the target block for processing the reference frame. 8. Устройство обработки изображений по п. 1, в котором процесс генерирования предсказанного изображения включает в себя:8. The image processing apparatus of claim 1, wherein the predicted image generating process includes: выполнение фильтрации нижних частот разностного изображения между первым изображением компенсации движения и вторым изображением компенсации движения;performing low-pass filtering of the differential image between the first motion compensation image and the second motion compensation image; выполнение фильтрации верхних частот изображения, полученного посредством фильтрации нижних частот; иperforming high-pass filtering of an image obtained by low-pass filtering; and суммирование изображения, полученного посредством фильтрации нижних частот, и изображения, полученного посредством фильтрации верхних частот, с первым изображением компенсации движения или вторым изображением компенсации движения, благодаря чему генерируется предсказанное изображение.summing the image obtained by low-pass filtering and the image obtained by high-pass filtering with the first motion compensation image or the second motion compensation image, whereby a predicted image is generated. 9. Устройство обработки изображений по п. 8, в котором процесс суммирования включает суммирование изображения, полученное посредством фильтрации нижних частот, и изображение, полученное посредством фильтрации верхних частот, с изображением компенсации движения, сгенерированным из кадра, на одну единицу времени предшествующего времени предсказанного изображения.9. The image processing apparatus of claim 8, wherein the summing process includes summing the image obtained by low-pass filtering and the image obtained by high-pass filtering with the motion compensation image generated from the frame per unit time of the previous time of the predicted image . 10. Устройство обработки изображений по п. 1, дополнительно содержащее схему, выполненную с возможностью:10. The image processing device according to claim 1, further comprising a circuit configured to: приема идентификационной метки для определения того, должно ли предсказанное изображение генерироваться посредством однонаправленного предсказания, выполненного средством однонаправленного предсказания, должно ли предсказанное изображение генерироваться посредством двунаправленного предсказания, выполненного средством двунаправленного предсказания, или предсказанное изображение должно генерироваться посредством обработки фильтрации; иreceiving an identification mark for determining whether the predicted image should be generated by the unidirectional prediction performed by the unidirectional prediction means, whether the predicted image should be generated by the bi-directional prediction performed by the bidirectional prediction means, or the predicted image should be generated by filtering processing; and оценки, путем сверки с идентификационной меткой, принятой приемным средством, должно ли предсказанное изображение генерироваться посредством однонаправленного предсказания, должно ли предсказанное изображение генерироваться посредством двунаправленного предсказания, или предсказанное изображение должно генерироваться посредством обработки фильтрации.judging by checking with the identification mark received by the receiving means whether the predicted image should be generated by unidirectional prediction, whether the predicted image should be generated by bidirectional prediction, or the predicted image should be generated by filtering processing. 11. Устройство обработки изображений по п. 10, дополнительно содержащее схему, выполненную с возможностью:11. The image processing device according to claim 10, further comprising a circuit configured to: выполнения однонаправленного предсказания с помощью множества изображений компенсации движения для генерирования предсказанного изображения; иperforming unidirectional prediction using a plurality of motion compensation images to generate a predicted image; and выполнения двунаправленного предсказания с помощью множества изображений компенсации движения для генерирования предсказанного изображения.performing bidirectional prediction using a plurality of motion compensation images to generate a predicted image. 12. Способ обработки изображения, содержащий этапы, на которых:12. An image processing method comprising the steps of: декодируют кодированное изображение;decode the encoded image; выполняют первую компенсацию движения за счет использования первого вектора движения кодированного изображения, для генерирования первого изображения компенсации движения;performing a first motion compensation by using the first motion vector of the encoded image to generate a first motion compensation image; выполняют вторую компенсацию движения за счет использования второго вектора движения кодированного изображения, для генерирования второго изображения компенсации движения; иperforming a second motion compensation by using the second motion vector of the encoded image to generate a second motion compensation image; and генерируют предсказанное изображение путем выполнения обработки фильтрации и обработки суммирования над первым изображением компенсации движения и вторым первым изображением компенсации движения.generating a predicted image by performing filtering processing and summing processing on the first motion compensation image and the second first motion compensation image.
RU2014121707A 2009-02-19 2014-05-28 Device and method for image processing RU2658891C2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009036498 2009-02-19
JP2009-036498 2009-02-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2011134046/08A Division RU2524872C2 (en) 2009-02-19 2010-02-12 Image processing method and device

Publications (2)

Publication Number Publication Date
RU2014121707A RU2014121707A (en) 2015-12-10
RU2658891C2 true RU2658891C2 (en) 2018-06-25

Family

ID=42633840

Family Applications (3)

Application Number Title Priority Date Filing Date
RU2011134046/08A RU2524872C2 (en) 2009-02-19 2010-02-12 Image processing method and device
RU2014121708A RU2658890C2 (en) 2009-02-19 2014-05-28 Device and method for image processing
RU2014121707A RU2658891C2 (en) 2009-02-19 2014-05-28 Device and method for image processing

Family Applications Before (2)

Application Number Title Priority Date Filing Date
RU2011134046/08A RU2524872C2 (en) 2009-02-19 2010-02-12 Image processing method and device
RU2014121708A RU2658890C2 (en) 2009-02-19 2014-05-28 Device and method for image processing

Country Status (9)

Country Link
US (7) US8457422B2 (en)
EP (3) EP2637408B1 (en)
JP (2) JP5532346B2 (en)
KR (2) KR101629993B1 (en)
CN (3) CN104023240B (en)
BR (1) BRPI1008504A2 (en)
RU (3) RU2524872C2 (en)
TW (1) TWI463878B (en)
WO (1) WO2010095557A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11968387B2 (en) 2019-03-08 2024-04-23 Huawei Technologies Co., Ltd. Encoder, a decoder and corresponding methods for inter prediction using bidirectional optical flow

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI440363B (en) 2009-02-19 2014-06-01 Sony Corp Image processing apparatus and method
TWI468020B (en) 2009-02-19 2015-01-01 Sony Corp Image processing apparatus and method
TWI463878B (en) * 2009-02-19 2014-12-01 Sony Corp Image processing apparatus and method
JP5707412B2 (en) * 2010-09-29 2015-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image decoding method, image encoding method, image decoding device, image encoding device, program, and integrated circuit
SG188255A1 (en) 2010-09-30 2013-04-30 Panasonic Corp Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
US20120106622A1 (en) * 2010-11-03 2012-05-03 Mediatek Inc. Method and Apparatus of Slice Grouping for High Efficiency Video Coding
WO2012081246A1 (en) 2010-12-17 2012-06-21 パナソニック株式会社 Image encoding method and image decoding method
US9036031B2 (en) 2010-12-23 2015-05-19 Samsung Electronics Co., Ltd. Digital image stabilization method with adaptive filtering
JP2012253722A (en) * 2011-06-07 2012-12-20 Sony Corp Image coding apparatus, image decoding apparatus, image coding method, image decoding method, and program
KR102070431B1 (en) 2012-01-19 2020-01-28 삼성전자주식회사 Method and apparatus for encoding video with restricting bi-directional prediction and block merging, method and apparatus for decoding video
JP6232828B2 (en) * 2013-08-13 2017-11-22 日本電気株式会社 Still image providing device
US9737375B2 (en) * 2015-06-11 2017-08-22 Avid, Inc. Dental handpiece and prophy angle
US10321831B2 (en) 2015-11-25 2019-06-18 Texas Instruments Incorporated Heart rate estimation apparatus with state sequence optimization
US10758185B2 (en) * 2015-11-25 2020-09-01 Texas Instruments Incorporated Heart rate estimation apparatus using digital automatic gain control
US10729381B2 (en) 2016-06-24 2020-08-04 Texas Instruments Incorporated Photoplethysmogram with motion artifact compensation
CN110214262A (en) 2017-01-25 2019-09-06 国立研究开发法人产业技术综合研究所 Image processing method
CN110462363B (en) * 2017-03-28 2021-07-06 株式会社神户制钢所 Tire testing method and tire testing device
US10248891B2 (en) 2017-06-20 2019-04-02 At&T Intellectual Property I, L.P. Image prediction
JP6904200B2 (en) * 2017-09-27 2021-07-14 株式会社Jvcケンウッド Motion vector detector
CN112492249B (en) * 2019-09-11 2024-04-09 瑞昱半导体股份有限公司 Image processing method and circuit
CN115173886B (en) * 2022-09-06 2022-11-29 深圳市国芯物联科技有限公司 Echo cancellation system applied to long-distance UHF RFID reader-writer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2189120C2 (en) * 1996-09-09 2002-09-10 Сони Корпорейшн Image coding and decoding
EP1641280A2 (en) * 2004-07-29 2006-03-29 Samsung Electronics Co., Ltd. Method and apparatus for decoding moving picture to which post filtering is applied
JP2006108811A (en) * 2004-09-30 2006-04-20 Sanyo Electric Co Ltd Image encoding method
JP2007300380A (en) * 2006-04-28 2007-11-15 Ntt Docomo Inc Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4794455A (en) * 1987-01-07 1988-12-27 Pictel Corporation Method and apparatus employing adaptive filtering for efficiently communicating image sequences
JPH0832047B2 (en) * 1989-04-28 1996-03-27 日本ビクター株式会社 Predictive coding device
JPH03127580A (en) * 1989-10-13 1991-05-30 Matsushita Electric Ind Co Ltd Movement compensation inter-frame coder
US5150432A (en) * 1990-03-26 1992-09-22 Kabushiki Kaisha Toshiba Apparatus for encoding/decoding video signals to improve quality of a specific region
US5467136A (en) * 1991-05-31 1995-11-14 Kabushiki Kaisha Toshiba Video decoder for determining a motion vector from a scaled vector and a difference vector
JPH06113265A (en) * 1992-09-25 1994-04-22 Fujitsu Ltd Motion compensation predicting unit
JP3165296B2 (en) * 1992-12-25 2001-05-14 三菱電機株式会社 Inter-frame coding processing method, inter-frame coding processing method, and coding control method
JP2947103B2 (en) 1994-11-25 1999-09-13 日本ビクター株式会社 Moving picture coding apparatus and moving picture coding method
ES2206358T3 (en) * 1996-05-17 2004-05-16 Matsushita Electric Industrial Co., Ltd. VIDEO CODING PROCEDURE FOR CODING SIGNALS AND TEXTURE SIGNS USING VARIOUS MODALITIES.
JPH1079947A (en) * 1996-09-03 1998-03-24 Mitsubishi Electric Corp Motion vector detecting device
KR100303685B1 (en) * 1996-09-30 2001-09-24 송문섭 Image prediction encoding device and method thereof
US6088047A (en) * 1997-12-30 2000-07-11 Sony Corporation Motion compensated digital video decoding with buffered picture storage memory map
EP0926899A3 (en) * 1997-12-25 1999-12-15 SANYO ELECTRIC Co., Ltd. An apparatus and process for decoding motion pictures
CN1166207C (en) 1999-05-27 2004-09-08 皇家菲利浦电子有限公司 Encoding a video signal
JP3478209B2 (en) * 1999-11-01 2003-12-15 日本電気株式会社 Audio signal decoding method and apparatus, audio signal encoding and decoding method and apparatus, and recording medium
US7630566B2 (en) * 2001-09-25 2009-12-08 Broadcom Corporation Method and apparatus for improved estimation and compensation in digital video compression and decompression
ES2650593T3 (en) * 2001-11-29 2018-01-19 Godo Kaisha Ip Bridge 1 Extraction method of coding distortion
JP3997171B2 (en) * 2003-03-27 2007-10-24 株式会社エヌ・ティ・ティ・ドコモ Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program
EP1650977B1 (en) 2003-07-24 2019-06-26 Nippon Telegraph And Telephone Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, recording medium containing the image encoding program, and recording medium containing the image decoding program
JP5052891B2 (en) * 2003-08-26 2012-10-17 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
US7295612B2 (en) * 2003-09-09 2007-11-13 Apple Inc. Determining the number of unidirectional and bidirectional motion compensated frames to be encoded for a video sequence and detecting scene cuts in the video sequence
US8094711B2 (en) * 2003-09-17 2012-01-10 Thomson Licensing Adaptive reference picture generation
JP4289126B2 (en) * 2003-11-04 2009-07-01 ソニー株式会社 Data processing apparatus and method and encoding apparatus
MXPA06006107A (en) * 2003-12-01 2006-08-11 Samsung Electronics Co Ltd Method and apparatus for scalable video encoding and decoding.
TWI255146B (en) * 2003-12-04 2006-05-11 Nec Corp Moving picture encoding method and device, and moving picture decoding method and device, and storage medium
JP2005217940A (en) * 2004-01-30 2005-08-11 Ntt Docomo Inc Apparatus and method for coding moving image, and moving image coding program
KR100703283B1 (en) * 2004-03-15 2007-04-03 삼성전자주식회사 Image encoding apparatus and method for estimating motion using rotation matching
EP1599046A1 (en) * 2004-05-19 2005-11-23 THOMSON Licensing Method for coding video data of a sequence of pictures
JP5018085B2 (en) * 2004-06-29 2012-09-05 ソニー株式会社 Motion prediction compensation method and motion prediction compensation device
US8442108B2 (en) * 2004-07-12 2013-05-14 Microsoft Corporation Adaptive updates in motion-compensated temporal filtering
CN101019436B (en) * 2004-07-13 2013-05-08 法国电讯公司 Method and device for encoding a video a video image sequence
KR20060027779A (en) * 2004-09-23 2006-03-28 엘지전자 주식회사 Method and apparatus for encoding/decoding video signal using temporal and spatial correlations between macro blocks
EP1646243B1 (en) * 2004-09-30 2009-06-24 Kabushiki Kaisha Toshiba Information processing apparatus and program for use in the same
JP4501676B2 (en) * 2004-12-22 2010-07-14 日本電気株式会社 Video compression encoding method, video compression encoding apparatus, and program
US20060153295A1 (en) 2005-01-12 2006-07-13 Nokia Corporation Method and system for inter-layer prediction mode coding in scalable video coding
US8218634B2 (en) * 2005-01-13 2012-07-10 Ntt Docomo, Inc. Nonlinear, in-the-loop, denoising filter for quantization noise removal for hybrid video compression
KR100703770B1 (en) * 2005-03-25 2007-04-06 삼성전자주식회사 Video coding and decoding using weighted prediction, and apparatus for the same
EP1886502A2 (en) * 2005-04-13 2008-02-13 Universität Hannover Method and apparatus for enhanced video coding
US7564652B2 (en) * 2005-07-06 2009-07-21 Sae Magnetics (H.K.) Ltd. Head gimbal assembly including a one-piece structural suspension and an accessory plate, and method of manufacturing the same
AU2006269728B2 (en) 2005-07-11 2011-11-03 Interdigital Madison Patent Holdings Method and apparatus for macroblock adaptive inter-layer intra texture prediction
AU2006277008B2 (en) 2005-07-21 2011-11-10 Interdigital Vc Holdings, Inc. Method and apparatus for weighted prediction for scalable video coding
US8488889B2 (en) * 2005-07-22 2013-07-16 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20090123066A1 (en) * 2005-07-22 2009-05-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein,
US7743912B2 (en) * 2005-08-05 2010-06-29 Finley Dana J Liquid seal bulk feeder for destructive distillation of lightweight materials
JP5017825B2 (en) 2005-09-15 2012-09-05 ソニー株式会社 Decoding device and decoding method
US8005308B2 (en) * 2005-09-16 2011-08-23 Sony Corporation Adaptive motion estimation for temporal prediction filter over irregular motion vector samples
KR100763194B1 (en) 2005-10-14 2007-10-04 삼성전자주식회사 Intra base prediction method satisfying single loop decoding condition, video coding method and apparatus using the prediction method
US8681867B2 (en) * 2005-10-18 2014-03-25 Qualcomm Incorporated Selective deblock filtering techniques for video coding based on motion compensation resulting in a coded block pattern value
JP4334533B2 (en) * 2005-11-24 2009-09-30 株式会社東芝 Video encoding / decoding method and apparatus
KR100712550B1 (en) 2006-02-03 2007-05-02 삼성전자주식회사 High-density recording method of hard disk drive
JP2007221208A (en) * 2006-02-14 2007-08-30 Toshiba Corp Method and device for encoding moving picture
EP1835749A1 (en) * 2006-03-16 2007-09-19 THOMSON Licensing Method for coding video data of a sequence of pictures
JP4417919B2 (en) * 2006-03-31 2010-02-17 株式会社東芝 Image encoding apparatus and image decoding apparatus
EP2023639A4 (en) 2006-04-28 2010-09-01 Ntt Docomo Inc Image predictive coding device, image predictive coding method, image predictive coding program, image predictive decoding device, image predictive decoding method and image predictive decoding program
EP2026585A4 (en) * 2006-05-24 2016-08-31 Panasonic Ip Man Co Ltd Image coding device, image coding method, and image coding integrated circuit
US7864219B2 (en) * 2006-06-15 2011-01-04 Victor Company Of Japan, Ltd. Video-signal layered coding and decoding methods, apparatuses, and programs with spatial-resolution enhancement
JP4844455B2 (en) * 2006-06-15 2011-12-28 日本ビクター株式会社 Video signal hierarchical decoding device, video signal hierarchical decoding method, and video signal hierarchical decoding program
CN101711481B (en) * 2006-10-18 2013-01-09 汤姆森特许公司 Method and apparatus for video coding using prediction data refinement
FR2907630A1 (en) 2006-10-19 2008-04-25 Thomson Licensing Sas DEVICE AND METHOD FOR SCALABLE FORMAT CODING OF IMAGE SEQUENCE AND CORRESPONDING DECODING DEVICE AND METHOD
KR101356734B1 (en) * 2007-01-03 2014-02-05 삼성전자주식회사 Method and apparatus for video encoding, and method and apparatus for video decoding using motion vector tracking
KR101365575B1 (en) * 2007-02-05 2014-02-25 삼성전자주식회사 Method and apparatus for encoding and decoding based on inter prediction
JP2010135864A (en) * 2007-03-29 2010-06-17 Toshiba Corp Image encoding method, device, image decoding method, and device
JP4877090B2 (en) 2007-06-18 2012-02-15 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4356777B2 (en) 2007-06-18 2009-11-04 ソニー株式会社 Image processing apparatus, image processing method, program, and recording medium
JP4826546B2 (en) 2007-06-18 2011-11-30 ソニー株式会社 Image processing apparatus, image processing method, and program
US8139875B2 (en) * 2007-06-28 2012-03-20 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
US8352035B2 (en) 2007-10-31 2013-01-08 Boston Scientific Neuromodulation Corporation Connector assemblies for implantable stimulators
BRPI0915975A2 (en) 2008-07-25 2018-10-30 Sony Corp image processing device and method
JP5333449B2 (en) 2008-07-25 2013-11-06 ソニー株式会社 Image processing apparatus and method, program, and recording medium
JP5502336B2 (en) * 2009-02-06 2014-05-28 パナソニック株式会社 Video signal encoding apparatus and video signal encoding method
JPWO2010092740A1 (en) * 2009-02-10 2012-08-16 パナソニック株式会社 Image processing apparatus, image processing method, program, and integrated circuit
TWI463878B (en) * 2009-02-19 2014-12-01 Sony Corp Image processing apparatus and method
TWI440363B (en) * 2009-02-19 2014-06-01 Sony Corp Image processing apparatus and method
TWI468020B (en) * 2009-02-19 2015-01-01 Sony Corp Image processing apparatus and method
JP2011030184A (en) * 2009-07-01 2011-02-10 Sony Corp Image processing apparatus, and image processing method
JP5253312B2 (en) * 2009-07-16 2013-07-31 ルネサスエレクトロニクス株式会社 Moving image processing apparatus and operation method thereof
JP5321439B2 (en) * 2009-12-15 2013-10-23 株式会社Jvcケンウッド Image encoding device, image decoding device, image encoding method, and image decoding method
JPWO2011121894A1 (en) * 2010-03-31 2013-07-04 三菱電機株式会社 Image encoding device, image decoding device, image encoding method, and image decoding method
JP2012034225A (en) * 2010-07-30 2012-02-16 Canon Inc Motion vector detection device, motion vector detection method and computer program
US9706214B2 (en) * 2010-12-24 2017-07-11 Microsoft Technology Licensing, Llc Image and video decoding implementations
WO2017052405A1 (en) * 2015-09-25 2017-03-30 Huawei Technologies Co., Ltd. Apparatus and method for video motion compensation
US11924409B2 (en) * 2021-02-21 2024-03-05 Alibaba (China) Co., Ltd. Systems and methods for inter prediction compensation
US20220360814A1 (en) * 2021-05-06 2022-11-10 Apple Inc. Enhanced motion vector prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2189120C2 (en) * 1996-09-09 2002-09-10 Сони Корпорейшн Image coding and decoding
EP1641280A2 (en) * 2004-07-29 2006-03-29 Samsung Electronics Co., Ltd. Method and apparatus for decoding moving picture to which post filtering is applied
JP2006108811A (en) * 2004-09-30 2006-04-20 Sanyo Electric Co Ltd Image encoding method
JP2007300380A (en) * 2006-04-28 2007-11-15 Ntt Docomo Inc Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11968387B2 (en) 2019-03-08 2024-04-23 Huawei Technologies Co., Ltd. Encoder, a decoder and corresponding methods for inter prediction using bidirectional optical flow

Also Published As

Publication number Publication date
KR20110129861A (en) 2011-12-02
KR20160067983A (en) 2016-06-14
JP5532346B2 (en) 2014-06-25
US20160373737A1 (en) 2016-12-22
RU2524872C2 (en) 2014-08-10
US8457422B2 (en) 2013-06-04
KR101629993B1 (en) 2016-06-13
US9872020B2 (en) 2018-01-16
US20130243095A1 (en) 2013-09-19
EP2637408B1 (en) 2018-08-22
JP5928849B2 (en) 2016-06-01
TW201043041A (en) 2010-12-01
CN104023239B (en) 2019-05-31
RU2014121708A (en) 2015-12-10
US8995779B2 (en) 2015-03-31
JP2014195263A (en) 2014-10-09
US10931944B2 (en) 2021-02-23
WO2010095557A1 (en) 2010-08-26
EP3422715A1 (en) 2019-01-02
US20190268592A1 (en) 2019-08-29
US9462294B2 (en) 2016-10-04
CN104023240A (en) 2014-09-03
RU2011134046A (en) 2013-02-20
CN104023240B (en) 2018-08-31
CN102396226B (en) 2014-07-23
EP2637408A2 (en) 2013-09-11
CN102396226A (en) 2012-03-28
US20210144367A1 (en) 2021-05-13
US20150181222A1 (en) 2015-06-25
EP2400761A4 (en) 2012-10-31
KR101736015B1 (en) 2017-05-15
US20110293195A1 (en) 2011-12-01
CN104023239A (en) 2014-09-03
BRPI1008504A2 (en) 2016-03-08
EP2637408A3 (en) 2014-06-18
EP2400761A1 (en) 2011-12-28
RU2658890C2 (en) 2018-06-25
TWI463878B (en) 2014-12-01
RU2014121707A (en) 2015-12-10
JPWO2010095557A1 (en) 2012-08-23
US20180109788A1 (en) 2018-04-19
US10334244B2 (en) 2019-06-25

Similar Documents

Publication Publication Date Title
RU2658891C2 (en) Device and method for image processing
RU2527751C2 (en) Image processing method and device
KR20120058521A (en) Image processing device and method
CN102160382A (en) Image processing device and method
KR20110046444A (en) Image processing apparatus and method
KR20110053947A (en) Image processing device and method

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20210213