JPH11155147A - Image reproduction method, image coder, and image coding method - Google Patents

Image reproduction method, image coder, and image coding method

Info

Publication number
JPH11155147A
JPH11155147A JP26539598A JP26539598A JPH11155147A JP H11155147 A JPH11155147 A JP H11155147A JP 26539598 A JP26539598 A JP 26539598A JP 26539598 A JP26539598 A JP 26539598A JP H11155147 A JPH11155147 A JP H11155147A
Authority
JP
Japan
Prior art keywords
block
frame
image
encoding
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26539598A
Other languages
Japanese (ja)
Inventor
Shinichi Matsui
紳一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP26539598A priority Critical patent/JPH11155147A/en
Publication of JPH11155147A publication Critical patent/JPH11155147A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a image reproduction method in which the arithmetic operation of each block in a frame is devised to properly omit it, so as to reduce the arithmetic amount and coding and decoding of a bit stream executed at high speed by the communication media use coding algorithm, and to provided the image coding method and the image coder. SOLUTION: First, all blocks that are not referenced from any block in a Frame C are detected from among blocks of a Frame B (figure shows only a block b1 ), based on motion vectors mv(C0 )-mv(C3 ) resulting from decoding all motion vectors that reference the Frame B to be skipped, an IDCT arithmetic operation to the detected blocks is omitted so as to reduce the arithmetic amount. In an example shown in the figure, the IDCT arithmetic operation required for four blocks in the Frame B and four blocks in the Frame C substantially is reduced to 7 blocks by omitting the IDCT arithmetic operation with respect to the block b1 .

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像再生方法、画
像符号化装置及び画像符号化方法に係り、詳細には、画
像データを高速スキップ再生することが可能な画像再生
方法、画像データを高速に符号化することが可能な画像
符号化装置及び画像符号化方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image reproducing method, an image encoding apparatus, and an image encoding method. More specifically, the present invention relates to an image reproducing method capable of performing high-speed skip reproduction of image data and a high-speed image data. TECHNICAL FIELD The present invention relates to an image encoding device and an image encoding method capable of encoding an image.

【0002】[0002]

【従来の技術】近時、マルチメディア関連の画像符号化
の国際標準化が急速に進められている。例えば、静止画
符号化標準であるJPEG(Joint Photographic Exper
ts Group)、動画の通信メディア用符号化標準である
H.263、動画の蓄積メディア用符号化標準であるM
PEG(Moving Picture Experts Group)等が挙げられ
る。これら各符号化方式には、それぞれの目的に合わせ
たビットレート(伝送速度)を実現する符号化アルゴリ
ズムが採用されている。
2. Description of the Related Art Recently, international standardization of multimedia-related image coding has been rapidly advanced. For example, JPEG (Joint Photographic Exper
ts Group), H.264, which is an encoding standard for video communication media. 263, M which is an encoding standard for moving image storage media
PEG (Moving Picture Experts Group) and the like. In each of these encoding methods, an encoding algorithm that realizes a bit rate (transmission rate) suited to each purpose is adopted.

【0003】例えば、JPEGは、ハフマン符号化とD
CT(Discrete Cosine Transform:離散コサイン変
換)による色データの間引きを使う。一方、H.263
やMPEGをはじめとする、近年標準化が進んだ動画像
圧縮符号化方式は、空間的情報量削減にJPEGと同様
にDCTを用い、時間的情報量削減には、MC(Motion
Compensation :動き補償)を用いる、MC+DCTハ
イブリッド方式を採用しているものが大部分である。
For example, JPEG uses Huffman coding and D
Color data thinning by CT (Discrete Cosine Transform) is used. On the other hand, H. 263
In recent years, moving picture compression coding schemes, such as MPEG and MPEG, use DCT as in JPEG to reduce the amount of spatial information and use MC (Motion) to reduce the amount of temporal information.
Most adopt a MC + DCT hybrid method using Compensation (motion compensation).

【0004】DCTは、フーリエ変換の一種で、2次元
の画像を2次元の周波数に変換することで、人間の目に
つきやすい低周波成分と、識別しにくい高周波成分に分
離でき、また、情報を遍在させることができる。8×8
の2次元DCTの変換式を式(1)に、その逆変換ID
CTの変換式を式(2)に示す。
[0004] DCT is a type of Fourier transform. By transforming a two-dimensional image into a two-dimensional frequency, DCT can be separated into a low-frequency component that is easily seen by human eyes and a high-frequency component that is difficult to distinguish. Can be ubiquitous. 8x8
To the equation (1), and its inverse transform ID
Equation (2) shows the CT conversion equation.

【0005】[0005]

【数1】 (Equation 1)

【0006】[0006]

【数2】 (Equation 2)

【0007】 ここで、C(u)=1/√2 (u=0) C(u)=1 (u≠0) C(v)=1/√2 (v=0) C(v)=1 (v≠0) IDCT(i,j):画素値 DCT(u,v):DCT係数 とする。Here, C (u) = 1 / √2 (u = 0) C (u) = 1 (u ≠ 0) C (v) = 1 / √2 (v = 0) C (v) = 1 (v ≠ 0) IDCT (i, j): pixel value DCT (u, v): DCT coefficient

【0008】MCは、入力画像をある大きさのブロック
に分割し、動きベクトルをブロック毎に用意し、以前の
再生画像(予測画像)から動きベクトル分だけずらして
予測するフレーム間予測である。フレーム間予測符号化
は、入力画像と、以前の再生画像との差を符号化する方
法で、デコーダ側では符号から差分データに戻した後、
以前の再生画像に加算して新しい再生画像とする。動画
像のほとんどの領域は、以前の画像と近似し、フレーム
間差分の情報量は、一般にもとの入力画像の情報量より
小さいため、フレーム間予測は符号化効率を向上させ
る。
The MC is an inter-frame prediction in which an input image is divided into blocks of a certain size, a motion vector is prepared for each block, and a motion vector is predicted from a previously reproduced image (predicted image) by a motion vector. Inter-frame prediction encoding is a method of encoding the difference between an input image and a previous reproduced image.
A new reproduced image is added to the previous reproduced image. Most regions of the moving image are similar to the previous image, and the information amount of the inter-frame difference is generally smaller than the information amount of the original input image. Therefore, the inter-frame prediction improves the coding efficiency.

【0009】以下、MC+DCTハイブリッド方式につ
いて簡単に説明する。図15は、MC+DCT方式の符
号化概念を説明するための図であり、図16は、MC+
DCTハイブリッド方式の符号化及び復合化処理を示す
図である。
Hereinafter, the MC + DCT hybrid system will be briefly described. FIG. 15 is a diagram for explaining the encoding concept of the MC + DCT method, and FIG.
It is a figure which shows the encoding and decoding processing of DCT hybrid system.

【0010】図15において、Currは符号化中のフ
レームであり、PredはCurrの一つ前に符号化さ
れたフレームである。通常、各フレームは、例えば16
×16のブロックに分割される。Currのあるブロッ
クXに対して、Predの中からブロックXに最もよく
近似したブロックYを検出して、動きベクトルを算出す
ることをME(Motion Estimation ;動き推定)とい
う。そして、MCによって、MEにより検出されたブロ
ックYを参照してブロックXの予測を行う。すなわち、
通常の場合は、符号化中のフレーム画像と動きベクトル
により動き補償した予測画像との誤差(X−Y)を計算
し、この誤差をDCTすることによって符号化処理を行
う。
In FIG. 15, Curr is a frame being encoded, and Pred is a frame encoded immediately before Curr. Usually, each frame is, for example, 16
It is divided into × 16 blocks. For a block X having a Curr, detecting a block Y that is most similar to the block X from Pred and calculating a motion vector is called ME (Motion Estimation). Then, the MC predicts the block X with reference to the block Y detected by the ME. That is,
In a normal case, an encoding process is performed by calculating an error (X-Y) between a frame image being encoded and a predicted image motion-compensated by a motion vector, and subjecting the error to DCT.

【0011】次に、図16の符号化処理及び復号化処理
ついて説明する。
Next, the encoding process and the decoding process in FIG. 16 will be described.

【0012】まず、符号化しようとする入力ブロックに
対して予測を用いる(inter)か、用いない(in
tra)かを選択する。以下それぞれの場合について説
明する(なお、intraの場合は、スイッチ30bを
intra側及びスイッチ30jをoffし、inte
rの場合は、スイッチ30bをinter側及びスイッ
チ30jをonする)。そして、intraの場合は、
入力ブロックのDCTを計算し(DCT30c)、算出
されたDCT係数を任意の量子化幅で量子化(Q30
d)して、この量子化幅と共に量子化した画像データを
符号化した後(符号化30e)、符号化ブロックとして
通信路等に転送する。更に、次の予測の元画像に用いる
ための画像を復元するための局部復号化として、量子化
したブロックを逆量子化し(IQ30f)、更に、DC
T係数のIDCTを計算する(IDCT30g)。そし
て、加算器30hを介して予測器30iに記憶される。
First, prediction is used (inter) or not (in) for an input block to be encoded.
tra). Hereinafter, each case will be described (in the case of intra, the switch 30b is turned off on the intra side and the switch 30j is turned off, and
In the case of r, the switch 30b is turned on the inter side and the switch 30j is turned on). And in the case of intra,
The DCT of the input block is calculated (DCT 30c), and the calculated DCT coefficient is quantized with an arbitrary quantization width (Q30
d) Then, after the image data quantized together with the quantization width is encoded (encoding 30e), the image data is transferred as an encoded block to a communication path or the like. Further, as local decoding for restoring an image to be used as an original image for the next prediction, the quantized block is inversely quantized (IQ30f), and further, DC
The IDCT of the T coefficient is calculated (IDCT 30g). Then, it is stored in the predictor 30i via the adder 30h.

【0013】また、interの場合は、入力ブロック
と、予測器から出力された前に符号化した画像から動き
補償を用いて作成された予測画像と、の差分を計算し
(減算器30a)、この差分のDCTを計算し(DCT
30c)、更にDCT係数の量子化を行って、動きベク
トルと共に量子化幅及び量子化差分画像を符号化した後
(復号化30e)、符号化ブロックとして通信路等に転
送する。更に、量子化した差分画像を逆量子化し(IQ
30f)、DCT係数のIDCTを計算し(IDCT3
0g)、入力段において差分計算に用いた予測画像を加
えることにより(加算器30h)、次の予測に用いるた
めの画像を復元するための局部復号化を行い、予測器3
0iに保持する。
In the case of inter, a difference between the input block and a predicted image generated by using motion compensation from a previously coded image output from the predictor is calculated (subtracter 30a). The DCT of this difference is calculated (DCT
30c) Further, after quantizing the DCT coefficients to encode the quantization width and the quantized difference image together with the motion vector (decoding 30e), the image is transferred to a communication path or the like as an encoded block. Further, the quantized difference image is inversely quantized (IQ
30f), calculate the IDCT of the DCT coefficient (IDCT3
0g), by adding the predicted image used in the difference calculation at the input stage (adder 30h), local decoding for restoring the image used for the next prediction is performed, and the predictor 3
0i.

【0014】復号化は上記符号化の逆の処理を行う。す
なわち、符号化された符号化ブロックを復号化すること
により(復号化30k)、動きベクトル(interの
み)、量子化幅及び量子化画像に分割する。そして、量
子化データを逆量子化(IQ30l)及び逆DCT(I
DCT30m)をすることによりintra画像及びi
nter差分画像が得られる。intra画像なら差分
が無く、そのまま出力すれば画像が再生される。int
er画像なら差分データであるので、予測器30oにお
いてすでに再生した画像と動きベクトルから予測画像を
再生し、この予測画像に差分データを加算する(加算器
30n)ことにより画像が再生される。
The decoding is the reverse of the above coding. That is, by decoding the encoded block (decoding 30k), the block is divided into a motion vector (inter only), a quantization width, and a quantization image. Then, the quantized data is dequantized (IQ30l) and inverse DCT (IQ
DCT30m) to obtain intra images and i
An nter difference image is obtained. If the image is an intra image, there is no difference, and if the image is output as it is, the image is reproduced. int
Since the er image is difference data, the predictor 30o reproduces a predicted image from the already reproduced image and the motion vector, and adds the difference data to the predicted image (adder 30n) to reproduce the image.

【0015】次に、同じ動画像の符号化でも、H.26
3は、テレビ会議、テレビ電話等に用いることを目的と
しているため、リアルタイムでエンコード(符号化)で
きることが必須条件であり、また、MPEGは、高能率
で高品質な画像を再生することが目的であるため、図1
7、及び図18に示すように、両者のビットストリーム
の構造が異なり、そのデコード(復号化)方法も異な
る。
Next, even when the same moving picture is coded, H.264 is used. 26
3 is intended to be used for videoconferencing, videophone, etc., so it is an essential condition that it can be encoded (encoded) in real time. MPEG is intended to reproduce high-efficiency, high-quality images. Therefore, FIG. 1
As shown in FIG. 7 and FIG. 18, the structures of the bit streams are different from each other, and their decoding (decoding) methods are also different.

【0016】以下に、H.263とMPEGのデコード
方法の相違点について説明する。図17は、H.263
のビットストリーム構造をフレーム単位で示した図であ
り、図18は、MPEGのビットストリーム構造をフレ
ーム単位で示した図である。
In the following, H. The difference between the H.263 and MPEG decoding methods will be described. FIG. 263
FIG. 18 is a diagram showing the bit stream structure of MPEG in a frame unit, and FIG. 18 is a diagram showing the bit stream structure of MPEG in a frame unit.

【0017】この図17、及び図18において、“I”
は、Iピクチャ(Intra-coded picture :イントラ符号
化画像)によって構成されるフレームを示しており、
“P”は、Pピクチャ(Predictive-coded picture:前
方予測符号化画像)によって構成されるフレームを示し
ており、“B”は、Bピクチャ(Bidirectionally pred
ictive-coded picture:両方向予測符号化画像)によっ
て構成されるフレームを示しており、それぞれのピクチ
ャ(動画を構成する1枚1枚の画像)の特徴は以下の通
りである。
In FIGS. 17 and 18, "I"
Indicates a frame composed of an I-picture (Intra-coded picture).
“P” indicates a frame composed of P pictures (Predictive-coded pictures), and “B” indicates a B picture (Bidirectionally coded picture).
ictive-coded picture: a bidirectional predictive coded image), and the characteristics of each picture (one image constituting a moving image) are as follows.

【0018】Iピクチャ:符号化されるときその画像
1枚の中だけで閉じた情報のみを使う。言い換えるとデ
コードするときIピクチャ自身の情報のみで画像が再構
成できる。この符号化方式は、一般的に効率が悪いが、
これを随所に入れておけばランダムアクセスや高速再生
が可能となる。 Pピクチャ:予測画像(差分をとる基準となる画像)
として、時間的に前に位置し、すでに復号化されたIピ
クチャまたはPピクチャを使う。 Bピクチャ:予測画像として時間的に前に位置し、す
でに復号化されたIピクチャまたはPピクチャ、時間的
に後ろに位置し、すでに復号化されたIピクチャまたは
Pピクチャ、及びその両方から作られた補間画像の3種
類を使う。
I picture: When encoded, only closed information is used in one picture. In other words, when decoding, an image can be reconstructed using only the information of the I picture itself. This coding scheme is generally inefficient,
If this is inserted everywhere, random access and high-speed reproduction can be performed. P picture: Predicted image (image used as a reference for taking a difference)
, Use an I-picture or P-picture that is located earlier in time and has already been decoded. B-picture: made from an I-picture or P-picture that is located earlier in time and has already been decoded as a predicted picture, an I-picture or P-picture that is located later in time and has already been decoded, and both. Three types of interpolated images are used.

【0019】一般的には、IフレームはPフレームの数
倍の情報量を必要とするため時間当たり一定の通信容量
である通信方法に適応しにくいこと、符号化効率の向上
のため等の理由により、通信メディア用符号化のアルゴ
リズムでは、図17に示すように、1フレーム目以降の
途中のフレームには、Iフレームが存在しないことが特
徴である。
In general, an I-frame requires several times the amount of information as a P-frame, so it is difficult to adapt to a communication method having a constant communication capacity per time, and to improve coding efficiency. Therefore, the encoding algorithm for communication media is characterized in that, as shown in FIG. 17, there is no I-frame in the middle frame after the first frame.

【0020】図17において、H.263のデコード方
式では、時刻t1にIフレームがデコードされ、時刻t
2には、時刻t1においてデコードされたIフレームを
基準としてPフレームがデコードされる。以後、一般的
に、時刻tnでは、時刻t(n−1)にデコードされた
フレームを基準としてPフレームがデコードされる。
Referring to FIG. In the decoding method of H.263, the I frame is decoded at time t1, and
At 2, the P frame is decoded based on the I frame decoded at time t1. Thereafter, generally, at time tn, the P frame is decoded based on the frame decoded at time t (n-1).

【0021】一方、MPEG等の蓄積メディア用符号化
のアルゴリズムでは、図18に示すように、途中のフレ
ームにもIフレームが存在することが特徴であり、その
ため、蓄積メディア用符号化では、Iフレームのみをデ
コードするなどの方法により、高速のスキップ再生が可
能となる。
On the other hand, the encoding algorithm for storage media such as MPEG is characterized in that an I-frame also exists in an intermediate frame as shown in FIG. High-speed skip reproduction can be performed by a method such as decoding only a frame.

【0022】図18において、MPEGのデコード方式
では、時刻t1にIフレームがデコードされ、続いて時
刻t2、t3に入力されるBフレームはデコードされず
に、時刻t4には、時刻t1においてデコードされたI
フレームを基準としてPフレームがデコードされる。次
いで、先にデコードされたIフレームとPフレームを基
準としてBフレームがデコードされる。更に、時刻t
5、t6に入力されるBフレームはデコードされずに、
時刻t7には、時刻t4においてデコードされたPフレ
ームを基準としてPフレームがデコードされる。以後、
同様にデコードされていく際の、デコードフレームと基
準フレームとの対応を下記の表1に示す。
Referring to FIG. 18, in the MPEG decoding method, an I frame is decoded at time t1, and a B frame subsequently input at times t2 and t3 is not decoded at time t4 at time t1. I
The P frame is decoded based on the frame. Next, the B frame is decoded based on the previously decoded I frame and P frame. Further, at time t
The B frame input at 5, t6 is not decoded,
At time t7, the P frame is decoded based on the P frame decoded at time t4. Since then
Table 1 below shows the correspondence between the decoded frame and the reference frame when decoding is performed in the same manner.

【0023】[0023]

【表1】 [Table 1]

【0024】表1において、左欄には、デコードするフ
レームを入力される時系列順に番号を振って示し、右欄
には、左欄のフレームをデコードする際に基準となるフ
レームを示している。
In Table 1, in the left column, frames to be decoded are numbered in the order of input, and in the right column, reference frames for decoding the frames in the left column are shown. .

【0025】この表1によれば、高速のスキップ再生時
には、基準フレームを必要としない(表中“なし”で示
される)Iフレームのみを再生することとすれば、時刻
t2に入力されるB(2)フレームから時刻t9に入力
されるB(9)フレームまでのフレームをスキップする
ことができる。
According to Table 1, at the time of high-speed skip reproduction, if only I frames that do not require a reference frame (indicated by "none" in the table) are to be reproduced, B input at time t2 (2) The frame from the frame to the B (9) frame input at time t9 can be skipped.

【0026】また、Iフレームのみの再生画像よりも多
少画質を向上させることを考え、IフレームとPフレー
ムのみを再生することとすれば、表1の例では、3フレ
ーム中2フレームをスキップすることが可能となる。
Also, considering that the image quality is somewhat improved compared to the reproduced image of only the I frame, and only the I frame and the P frame are reproduced, in the example of Table 1, two out of three frames are skipped. It becomes possible.

【0027】[0027]

【発明が解決しようとする課題】しかしながら、従来の
H.263等の通信メディア用符号化アルゴリズムで
は、前述の通り1フレームずつデコードする方法しかな
いため、例えば、パーソナルコンピュータ等に接続され
た記憶装置に、通信メディア用符号化アルゴリズムによ
って符号化されたビットストリームを蓄積して再生する
場合には、上述したMPEG等の蓄積メディア用符号化
のような高速のスキップ再生を行うことができないとい
う課題があった。
SUMMARY OF THE INVENTION However, the conventional H.264 standard has been described. In the coding algorithm for communication media such as H.263, there is only a method of decoding one frame at a time as described above. For example, a bit stream coded by the coding algorithm for communication media is stored in a storage device connected to a personal computer or the like. In the case of storing and playing back, there is a problem that high-speed skip playback cannot be performed as in the above-described encoding for storage media such as MPEG.

【0028】また、このような課題は、デコードを行う
CPUのパワーが十分でないとき等に、画像と比較して
情報量が少なくビットレートが高い音声データと同期が
できないという課題にもつながっている。
Further, such a problem also leads to a problem that when the power of a CPU for decoding is not sufficient, synchronization with audio data having a small amount of information and a high bit rate as compared with an image cannot be performed. .

【0029】また、MC+DCTハイブリッド方式によ
る符号化においては、DCT,ME,IDCTは、非常
に大きな計算量を必要とすることが知られているが、前
述したような従来の方法では、基本的に1フレームを処
理する際に、各ブロックに対してDCTとIDCTの両
方の計算を行う必要があり、莫大な計算量を要してしま
う。
It is known that DCT, ME, and IDCT require an extremely large amount of calculation in coding by the MC + DCT hybrid method. However, in the conventional method as described above, basically, When processing one frame, it is necessary to perform both DCT and IDCT calculations for each block, which requires an enormous amount of calculation.

【0030】そのため、符号化の処理の高速化が難し
く、リアルタイムで符号化を行うためには、高速なプロ
セッサーが必要となり、コストの増大を招いてしまうと
いう課題があった。
Therefore, it is difficult to speed up the encoding process, and a high-speed processor is required to perform the encoding in real time, which causes a problem that the cost is increased.

【0031】そこで本発明の課題は、フレーム内の各ブ
ロック毎の演算を工夫して適宜省略することにより、演
算量を減少させ、通信メディア用符号化のアルゴリズム
によるビットストリームのコード及びデコードを高速に
行うことができる画像再生方法、画像符号化装置及び画
像符号化方法を提供することである。
Accordingly, an object of the present invention is to reduce the amount of calculation by devising the calculation for each block in a frame and arbitrarily omitting the calculation, and to speed up the coding and decoding of a bit stream by a communication medium coding algorithm. It is an object of the present invention to provide an image reproduction method, an image encoding device, and an image encoding method that can be performed in a computer.

【0032】[0032]

【課題を解決するための手段】請求項1記載の発明は、
時間的に前に位置するフレームを構成するブロックを参
照して現フレームの各ブロックを動き補償する動きベク
トルを用いた画像符号化方式によって符号化された画像
データを復号化して再生する画像再生方法において、任
意数のフレームをスキップして再生する際に、スキップ
する全てのフレーム及びスキップ後のフレームの全ての
前記ブロックについて前記動きベクトルを予め復号化し
て記憶手段に記憶し、前記記憶手段に記憶された動きベ
クトルに基づいて、前記スキップ後のフレームから時間
的に前のフレームに向かって順次遡及的に前記各ブロッ
クの参照関係を演算して、該動きベクトルを有するスキ
ップ後のブロックを検出し、該検出されたブロックに対
して所定の復号化処理を実行して画像を再生することを
特徴としている。
According to the first aspect of the present invention,
An image reproducing method for decoding and reproducing image data encoded by an image encoding method using a motion vector for motion-compensating each block of a current frame with reference to a block constituting a frame located temporally ahead In skipping and reproducing an arbitrary number of frames, the motion vector is previously decoded and stored in a storage unit for all blocks to be skipped and all the blocks in the skipped frame, and stored in the storage unit. Based on the obtained motion vector, the reference relation of each block is sequentially and retrospectively calculated from the skipped frame toward the temporally previous frame to detect a skipped block having the motion vector. And performing a predetermined decoding process on the detected block to reproduce an image.

【0033】請求項1記載の発明の画像再生方法によれ
ば、スキップ後のフレームを復号化するために必要なブ
ロックのみに対して所定の復号化処理を実行することが
できるため、スキップ再生時の処理量を減少させ、高速
なスキップ再生を実現することができる。また、このこ
とにより、CPUの処理能力不足のために、音声データ
との同期が取れないといった問題をも解消することがで
きる。
According to the image reproducing method of the first aspect of the present invention, a predetermined decoding process can be performed only on blocks necessary for decoding a frame after skipping. , And the high-speed skip reproduction can be realized. This also solves the problem that synchronization with audio data cannot be achieved due to insufficient processing capacity of the CPU.

【0034】請求項2記載の発明は、時間的に前に位置
するフレームを構成するブロックを参照して現フレーム
の各ブロックを動き補償する動きベクトルを用いた画像
符号化方式によって符号化された画像データを復号化し
て再生する画像再生方法において、任意数のフレームを
スキップして再生する際に、スキップする全てのフレー
ム及びスキップ後のフレームの全ての前記ブロックにつ
いて前記動きベクトルを予め復号化して記憶手段に記憶
し、前記記憶手段に記憶された動きベクトルに基づい
て、時間的に前に位置するフレーム内の異なる位置のブ
ロックを参照せず、かつ、時間的に後に位置するフレー
ム内の異なる位置のブロックから参照されないブロック
を前記スキップする全てのフレームから検出し、該検出
されたブロックが、フレーム内の同位置に、複数のフレ
ームにわたって存在することにより形成されるブロック
列を更に検出し、該ブロック列を構成する複数フレーム
にわたる全てのブロックに対する所定の復号化処理を一
度にまとめて実行して画像を再生することを特徴として
いる。
According to the second aspect of the present invention, the image is encoded by an image encoding method using a motion vector for motion-compensating each block of the current frame with reference to a block constituting a frame located earlier in time. In an image reproducing method for decoding and reproducing image data, when an arbitrary number of frames are skipped and reproduced, the motion vectors are previously decoded for all blocks to be skipped and all the blocks of the skipped frames. Based on the motion vector stored in the storage means and based on the motion vector stored in the storage means, reference is not made to a block at a different position in a frame located earlier in time, and different blocks in a frame located later in time are referred to. A block that is not referred to from the block at the position is detected from all the frames to be skipped, and the detected block is At the same position in the frame, a block sequence formed by being present over a plurality of frames is further detected, and a predetermined decoding process for all blocks over a plurality of frames constituting the block sequence is collectively executed at once. It is characterized by reproducing images.

【0035】請求項2記載の発明の画像再生方法によれ
ば、前後のフレーム内の異なる位置のブロックと参照、
被参照関係になく、フレーム内の同位置のブロックのみ
を参照している複数フレームにわたる複数のブロックに
対して復号化処理を一度にまとめて実行できるため、ス
キップ再生時の処理量を減少させ、高速なスキップ再生
を実現することができる。また、このことにより、CP
Uの処理能力不足のために、音声データとの同期が取れ
ないといった問題をも解消することができる。
According to the image reproducing method of the second aspect of the present invention, the blocks at different positions in the preceding and succeeding frames are referred to,
Since the decoding process can be executed at once for a plurality of blocks over a plurality of frames that are not related to each other and refer only to the block at the same position in the frame, the processing amount at the time of skip reproduction is reduced, High-speed skip reproduction can be realized. This also allows the CP
It is also possible to solve the problem that synchronization with audio data cannot be achieved due to insufficient processing capacity of U.

【0036】請求項3記載の発明は、入力画像の時間的
に前に位置するフレームを構成するブロックを参照し
て、入力画像の現フレームの各ブロックを動き補償する
動きベクトルを算出する動きベクトル算出手段と、所定
の直交変換演算によって画像データをブロック単位で直
交変換係数に変換して符号化する符号化手段と、この符
号化手段によって符号化されたブロック単位の画像デー
タを、前記所定の直交変換演算の逆変換演算によって局
部復号化する局部復号化手段と、を備えた画像符号化装
置において、現フレームの各ブロック毎に前記動きベク
トル算出手段によって算出された動きベクトルが、時間
的に前に位置するフレーム内の同一位置のブロックを参
照するものであるか否かを判別する判別手段を更に備
え、前記判別手段によって、前記動きベクトルが時間的
に前に位置するフレーム内の同一位置のブロックを参照
するものでないと判別された場合には、前記時間的に前
に位置するフレーム内の参照先ブロックを、前記局部復
号化手段によって局部復号して参照画像のブロックを再
構成し、入力画像のブロックと、前記参照先のブロック
との差分を計算した後に、前記符号化手段によって前記
所定の直交変換演算を行って画像データの符号化を行
い、前記判別手段によって、前記動きベクトルが時間的
に前に位置するフレーム内の同一位置のブロックを参照
するものであると判別された場合には、前記時間的に前
に位置するフレーム内の参照先ブロックについて、前記
局部復号化手段による局部復号処理を行わずに、入力画
像のブロックを前記符号化手段によって変換した直交変
換係数と、前記時間的に前に位置するフレームを符号化
する際に既に算出されている前記参照先ブロックの直交
変換係数との差分を計算して画像データの符号化を行う
ことを特徴としている。
According to a third aspect of the present invention, a motion vector for calculating a motion vector for motion-compensating each block of a current frame of an input image with reference to a block constituting a frame positioned temporally before the input image. Calculating means, coding means for converting image data into orthogonal transform coefficients in block units by a predetermined orthogonal transform operation and coding the image data, and converting the image data in block units coded by the coding means into the predetermined A local decoding means for locally decoding by an inverse transformation operation of the orthogonal transformation operation, wherein the motion vector calculated by the motion vector calculation means for each block of the current frame is temporally A determining unit that determines whether or not the block refers to a block at the same position in a frame located before; When it is determined that the motion vector does not refer to a block at the same position in a temporally preceding frame, the reference block in the temporally preceding frame is determined as After local decoding by the local decoding unit to reconstruct the block of the reference image, and calculating the difference between the block of the input image and the block of the reference destination, the encoding unit performs the predetermined orthogonal transform operation. If the motion vector is determined by the determination means to refer to a block at the same position in a frame located earlier in time, The block of the input image is changed by the encoding unit without performing the local decoding process by the local decoding unit on the reference block in the frame located before. The orthogonal transform coefficient, and encoding the image data by calculating the difference between the orthogonal transform coefficient of the reference block already calculated when encoding the frame located earlier in time. Features.

【0037】請求項3記載の発明の画像符号化装置によ
れば、動きベクトル算出手段によって、入力画像の時間
的に前に位置するフレームを構成するブロックを参照し
て、入力画像の現フレームの各ブロックを動き補償する
動きベクトルを算出し、判別手段によって、現フレーム
の各ブロック毎に前記動きベクトル算出手段によって算
出された動きベクトルが、時間的に前に位置するフレー
ム内の同一位置のブロックを参照するものであるか否か
を判別した結果に基づいて、前記動きベクトルが時間的
に前に位置するフレーム内の同一位置のブロックを参照
するものでないと判別された場合には、前記時間的に前
に位置するフレーム内の参照先ブロックを、前記局部復
号化手段によって局部復号して参照画像のブロックを再
構成し、入力画像のブロックと、前記参照先のブロック
との差分を計算した後に、前記符号化手段によって前記
所定の直交変換演算を行って画像データの符号化を行
い、前記動きベクトルが時間的に前に位置するフレーム
内の同一位置のブロックを参照するものであると判別さ
れた場合には、前記時間的に前に位置するフレーム内の
参照先ブロックについて、前記局部復号化手段による局
部復号処理を行わずに、入力画像のブロックを前記符号
化手段によって変換した直交変換係数と、前記時間的に
前に位置するフレームを符号化する際に既に算出されて
いる前記参照先ブロックの直交変換係数との差分を計算
して画像データの符号化を行う。
According to the image coding apparatus of the present invention, the motion vector calculating means refers to the block constituting the frame located temporally before the input image and refers to the block of the current frame of the input image. A motion vector for compensating the motion of each block is calculated, and the motion vector calculated by the motion vector calculation means for each block of the current frame is determined by the discriminating means. If it is determined that the motion vector does not refer to a block at the same position in a frame located earlier in time based on the result of determining whether or not the The reference block in the frame located immediately ahead is locally decoded by the local decoding means to reconstruct the block of the reference image, and the input image After calculating the difference between the block and the reference block, the encoding unit performs the predetermined orthogonal transformation operation to encode the image data, and the frame in which the motion vector is located earlier in time. If it is determined that it refers to the block at the same position in the reference block in the frame located earlier in time, without performing the local decoding process by the local decoding means, Calculate the difference between the orthogonal transform coefficient obtained by transforming the block of the input image by the encoding means and the orthogonal transform coefficient of the reference block already calculated when encoding the temporally preceding frame. To encode the image data.

【0038】請求項4記載の発明は、時間的に前に位置
するフレームを構成するブロックを参照して現フレーム
の各ブロックを動き補償する動きベクトルを用いた画像
符号化方式によって画像データの符号化を行う画像符号
化方法において、現フレームの各ブロック毎に算出され
た動きベクトルが、時間的に前に位置するフレーム内の
同一位置のブロックを参照するものであるか否かを判別
し、前記動きベクトルが時間的に前に位置するフレーム
内の同一位置のブロックを参照するものでないと判別さ
れた場合には、前記時間的に前に位置するフレーム内の
参照先ブロックを局部復号化して参照画像のブロックを
再構成し、入力画像のブロックと、前記参照画像のブロ
ックとの差分を計算した後に、所定の直交変換演算を行
って画像データの符号化を行い、前記動きベクトルが時
間的に前に位置するフレーム内の同一位置のブロックを
参照するものであると判別された場合には、前記時間的
に前に位置するフレーム内の参照先ブロックについて局
部復号処理を行わずに、入力画像のブロックに前記所定
の直交変換演算を行って算出した直交変換係数と、前記
時間的に前に位置するフレームを符号化する際に既に算
出されている前記参照先ブロックの直交変換係数との差
分を計算して画像データの符号化を行うことを特徴とし
ている。
According to a fourth aspect of the present invention, the coding of image data is performed by an image coding method using a motion vector for motion-compensating each block of the current frame with reference to a block constituting a frame located earlier in time. In the image coding method of performing the encoding, it is determined whether the motion vector calculated for each block of the current frame refers to the block at the same position in the frame located earlier in time, When it is determined that the motion vector does not refer to a block at the same position in a temporally located frame, the reference block in the temporally located frame is locally decoded. After reconstructing the block of the reference image and calculating the difference between the block of the input image and the block of the reference image, a predetermined orthogonal transformation operation is performed to perform Encoding, and when it is determined that the motion vector refers to a block at the same position in the temporally preceding frame, a reference destination in the temporally preceding frame is determined. Without performing the local decoding process on the block, the orthogonal transform coefficient calculated by performing the predetermined orthogonal transform operation on the block of the input image, and already calculated when encoding the frame located earlier in time. And encoding the image data by calculating a difference between the orthogonal transform coefficient of the reference block and the orthogonal transform coefficient.

【0039】請求項3記載の発明の画像符号化装置、ま
たは、請求項4記載の発明の画像符号化方法によれば、
動きベクトルの算出結果に基づいて、動きベクトルが一
つ前のフレームの同一位置のブロックを参照していると
いう条件を満たすブロックに対しては、例えばDCT等
の所定の直交変換演算の線形性を利用して、入力画像と
予測画像の差分の代わりに、入力画像の直交変換係数
(例えばDCT係数)と予測画像の直交変換係数の差分
を算出することができるため、前記条件を満たすブロッ
クが連続して出現する場合には、演算量の多い例えばI
DCT等の前記所定の直交変換演算の逆変換の計算を省
略することができ、画像符号化処理の高速化を図ること
ができる。また、このことにより、高性能のプロセッサ
ー等を利用しなくても、安価なプロセッサーによって画
像符号化処理を実用的な速度で行うことができるため、
画像符号化装置の製造コストを低下させることができ
る。
According to the image encoding apparatus of the invention described in claim 3 or the image encoding method of the invention described in claim 4,
Based on the motion vector calculation result, for a block satisfying the condition that the motion vector refers to the block at the same position in the previous frame, for example, the linearity of a predetermined orthogonal transform operation such as DCT is determined. The difference between the orthogonal transform coefficient (for example, DCT coefficient) of the input image and the orthogonal transform coefficient of the predicted image can be calculated instead of the difference between the input image and the predicted image. Appear, the calculation amount is large, for example, I
The calculation of the inverse transform of the predetermined orthogonal transform operation such as DCT can be omitted, and the image encoding process can be speeded up. In addition, this makes it possible to perform image encoding processing at a practical speed with an inexpensive processor without using a high-performance processor or the like,
The manufacturing cost of the image encoding device can be reduced.

【0040】[0040]

【発明の実施の形態】以下、図1〜図14を参照して本
発明に係る画像再生方法及び画像符号化方法の実施の形
態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of an image reproducing method and an image encoding method according to the present invention will be described in detail with reference to FIGS.

【0041】(第1の実施の形態)以下、図1〜図5を
参照して、本発明に係る画像再生方法を適用した画像再
生装置1について詳細に説明する。本実施の形態では、
前述したH.263のような通信メディア用符号化のア
ルゴリズムで符号化された画像データを、例えばパーソ
ナルコンピュータ等と接続された記憶装置内に蓄積し、
該蓄積した画像データを再生する場合のスキップ再生時
に、デコードするフレームから参照されないブロックに
対するIDCT演算、MC演算等を省略することによ
り、演算量を減少させる場合について説明する。
(First Embodiment) Hereinafter, an image reproducing apparatus 1 to which an image reproducing method according to the present invention is applied will be described in detail with reference to FIGS. In the present embodiment,
As described in H. Image data encoded by a communication medium encoding algorithm such as H.263 in a storage device connected to, for example, a personal computer or the like,
A description will be given of a case where the amount of calculation is reduced by omitting the IDCT calculation, the MC calculation, and the like for blocks not referenced from the frame to be decoded during skip reproduction when reproducing the stored image data.

【0042】まず構成を説明する。図1において、画像
再生装置1は、制御部2、入力装置3、RAM4、表示
装置5、記憶装置6、及び記憶媒体7によって構成さ
れ、各部はバス8により接続されている。
First, the configuration will be described. In FIG. 1, the image reproducing apparatus 1 includes a control unit 2, an input device 3, a RAM 4, a display device 5, a storage device 6, and a storage medium 7, and each unit is connected by a bus 8.

【0043】制御部2は、記憶装置6に記憶されている
当該画像再生装置1に対応する各種アプリケーションプ
ログラムの中から指定されたアプリケーションプログラ
ム、入力装置3から入力される各種指示あるいはデータ
をRAM4内のワークメモリ4aに格納し、この入力指
示及び入力データに応じてRAM4内に格納したアプリ
ケーションプログラムに従って各種処理を実行し、その
処理結果をRAM4内のワークメモリ4aに格納すると
ともに、表示装置5に表示する。そして、ワークメモリ
4aに格納した処理結果を入力装置3から入力指示され
る記憶装置6内の保存先に保存する。
The control unit 2 stores, in the RAM 4, an application program specified from various application programs corresponding to the image reproducing device 1 stored in the storage device 6 and various instructions or data input from the input device 3. In accordance with the input instruction and the input data, various processes are executed in accordance with the application program stored in the RAM 4, the processing results are stored in the work memory 4 a in the RAM 4, and the display device 5 indicate. Then, the processing result stored in the work memory 4a is stored in a storage destination in the storage device 6 which is instructed to be input from the input device 3.

【0044】この制御部2は、記憶装置6から、あるい
は、図示外の外部機器から通信回線を介して入力される
符号化された画像データを復号する処理を実行する。
The control unit 2 executes a process of decoding encoded image data input from the storage device 6 or from an external device (not shown) via a communication line.

【0045】例えばH.263等の規格では、符号化時
にMCによるフレーム間予測、DCT演算による画素値
(画像データ)のDCT係数(周波数データ)化、量子
化等が行われ、各データは前記規格に従った所定のビッ
ト数を割り当てられて、ビットストリームを構成してい
る。
For example, H. In H.263 and other standards, inter-frame prediction by MC, DCT coefficient (frequency data) conversion of pixel values (image data) by DCT operation, quantization, and the like are performed at the time of encoding. A bit stream is allocated with the number of bits.

【0046】したがって、制御部2は、前記規格に従っ
た所定のビット数毎に前記ビットストリームを読み込ん
でDCT係数、動きベクトル等の各種データに復号し、
更に、それぞれのデータを前記規格と前記ビットストリ
ーム内の情報に従った所定の逆量子化幅で逆量子化す
る。
Therefore, the control unit 2 reads the bit stream for every predetermined number of bits in accordance with the standard and decodes the data into various data such as DCT coefficients and motion vectors.
Further, each data is inversely quantized with a predetermined inverse quantization width according to the standard and information in the bit stream.

【0047】そして、前記逆量子化されたデータに対し
て前記式(2)に示すIDCT演算を行うことにより、
前記逆量子化されたDCT係数(周波数データ)を画素
値(画像データ)に変換し、更に必要に応じて予測デー
タと加算して表示装置5に対して出力する。
Then, by performing the IDCT operation shown in the above equation (2) on the dequantized data,
The inversely quantized DCT coefficients (frequency data) are converted into pixel values (image data), and if necessary, are added to prediction data and output to the display device 5.

【0048】また、制御部2は、後述するnフレームス
キップ処理(図4参照)において、まず、スキップ前の
フレームであるfr=0(fr:フレーム番号)のFr
ame0をデコード後、スキップ後のフレームであるf
r=n+1のFrame(n+1)までの全ての動きベ
クトルデータをデコードし、次いで、Frame(n+
1)は全てのブロックをデコードする必要があるので、
Frame(n+1)の全てのブロックに対してBKn+
1,j =1(j:ブロック番号)とすることによりIDC
T演算を行うことを設定し、続いて、全てのフレームに
対してIDCTを必要とするブロックを検出するための
処理を行う。
In the n-frame skipping process (see FIG. 4) described later, the control unit 2 first sets Fr = 0 (fr: frame number) of the frame before skipping.
After decoding ame0, the skipped frame f
Decode all motion vector data up to Frame (n + 1) of r = n + 1, and then decode Frame (n +
Since 1) needs to decode all blocks,
BKn + for all blocks in Frame (n + 1)
By setting 1, j = 1 (j: block number), the IDC
Performing the T operation is set, and then processing for detecting a block that needs an IDCT is performed for all frames.

【0049】すなわち、制御部2は、Frame(n)
の全てのブロックに対してBKn,j=0として初期化を
行い、更に、Frame(n+1)は全てのブロックが
BKn+1,j =1であるから、Frame(n+1)の各
ブロックから参照されるFrame(n)の各ブロック
に対してBKn,j =1として差分データ等をデコード
し、Frame(n)のそれ以外のブロックに対して
は、BKn,j =0とする。
That is, the control unit 2 sets Frame (n)
Are initialized with BKn, j = 0 for all blocks, and Frame (n + 1) is referenced from each block of Frame (n + 1) since all blocks are BKn + 1, j = 1. The difference data and the like are decoded with BKn, j = 1 for each block of Frame (n), and BKn, j = 0 for the other blocks of Frame (n).

【0050】そして、Frame(n)のブロックの計
算が終了すると、制御部2は、Frame(n−1)の
全てのブロックに対してBKn-1,j =0として初期化を
行い、更に、Frame(n)のBKn,j =1である各
ブロックから参照されるFrame(n−1)の各ブロ
ックに対してBKn-1,j =1として差分データ等をデコ
ードし、Frame(n−1)のそれ以外のブロックに
対しては、BKn-1,j=0とする。
When the calculation of the block of Frame (n) is completed, the control unit 2 initializes all the blocks of Frame (n-1) by setting BKn-1, j = 0, and further performs initialization. For each block of Frame (n-1) referred to from each block of BKn, j = 1 in Frame (n), the difference data and the like are decoded as BKn-1, j = 1, and Frame (n-1) is decoded. ), BKn-1, j = 0 for the other blocks.

【0051】以後、制御部2は、同様の演算をFram
e1まで繰り返し、画素値を計算する必要のあるブロッ
クがBKfr,j=1として設定されると、該BKfr,j=1
である全てのブロックに対してIDCT演算を行って画
素値を求める。このとき、BKfr,j=0であるブロック
に対するIDCT演算を省略することができるので、制
御部2による計算量が減少する。
After that, the control unit 2 executes the same calculation
When the block for which the pixel value needs to be calculated is set as BKfr, j = 1, the BKfr, j = 1
The pixel value is obtained by performing the IDCT operation on all the blocks of. At this time, since the IDCT calculation for the block where BKfr, j = 0 can be omitted, the amount of calculation by the control unit 2 is reduced.

【0052】入力装置3は、カーソルキー、数字入力キ
ー及び各種機能キー等を備えたキーボードと、ポインテ
ィングデバイスであるマウスと、を備え、キーボードで
押下されたキーの押下信号を制御部2に出力するととも
に、マウスによる操作信号を制御部2に出力する。ま
た、必要に応じてその他の入力装置であってもよい。
The input device 3 includes a keyboard having a cursor key, numeric input keys, various function keys, and the like, and a mouse as a pointing device, and outputs to the control unit 2 a signal of a key pressed by the keyboard. At the same time, an operation signal from the mouse is output to the control unit 2. Other input devices may be used as needed.

【0053】RAM(Random Access Memory)4は、指
定されたアプリケーションプログラム、入力指示、入力
データ及び処理結果等を格納するワークメモリ4aを有
する。
The RAM (Random Access Memory) 4 has a work memory 4a for storing designated application programs, input instructions, input data, processing results, and the like.

【0054】表示装置5は、CRT(Cathode Ray Tub
e)、液晶表示装置等により構成され、制御部2から入
力される表示制御信号にしたがって、表示データを表示
する。
The display device 5 is a CRT (Cathode Ray Tub).
e) It is constituted by a liquid crystal display device or the like, and displays display data according to a display control signal input from the control unit 2.

【0055】記憶装置6は、プログラムやデータ等が予
め記憶されている記憶媒体7を有しており、この記憶媒
体7は磁気的、光学的記録媒体、若しくは半導体メモリ
で構成されている。この記憶媒体7は記憶装置6に固定
的に設けたもの、若しくは着脱自在に装着するものであ
り、この記憶媒体7には当該画像再生装置1に対応する
各種アプリケーションプログラム、メニュー表示プログ
ラム、印刷処理プログラム及び各処理プログラムで処理
されたデータ等を記憶する。
The storage device 6 has a storage medium 7 in which programs, data and the like are stored in advance, and this storage medium 7 is constituted by a magnetic or optical recording medium or a semiconductor memory. The storage medium 7 is fixedly provided in the storage device 6 or is detachably mounted. The storage medium 7 includes various application programs, menu display programs, and print processing corresponding to the image reproducing device 1. A program and data processed by each processing program are stored.

【0056】また、この記憶媒体7に記憶するプログラ
ム、データ等は、通信回線等を介して接続された他の機
器から受信して記憶する構成にしてもよく、更に、通信
回線等を介して接続された他の機器側に上記記憶媒体7
を備えた記憶装置を設け、この記憶媒体7に記憶されて
いるプログラム、データ等を通信回線を介して使用する
構成にしてもよい。
The program, data, and the like stored in the storage medium 7 may be configured to be received and stored from another device connected via a communication line or the like. The storage medium 7 is stored in another connected device.
May be provided so that programs, data, and the like stored in the storage medium 7 are used via a communication line.

【0057】次に動作を説明する。まず、本第1の実施
の形態の画像再生装置1に適用される画像再生方法の原
理を簡単に説明するために、2次元の画像を図2に示す
ような方向から見たと仮定した1次元の場合の、1フレ
ームスキップ処理について図3を参照して説明する。
Next, the operation will be described. First, in order to briefly explain the principle of an image reproducing method applied to the image reproducing apparatus 1 according to the first embodiment, a one-dimensional image is assumed to be viewed from a direction as shown in FIG. In the case of (1), the one-frame skip process will be described with reference to FIG.

【0058】図3において、a0 〜a3 は、Frame
Aを構成するブロック、b0 〜b3は、FrameBを
構成するブロック、c0 〜c3 はFrameCを構成す
るブロックであり、また、mv(b0 )〜mv(b3 )
は、FrameBの各ブロックがFrameAを参照す
る動きベクトルであり、mv(c0 )〜mv(c3 )
は、FrameCの各ブロックがFrameBを参照す
る動きベクトルである。
In FIG. 3, a0 to a3 are Frame
Blocks constituting A, b0 to b3 are blocks constituting FrameB, c0 to c3 are blocks constituting FrameC, and mv (b0) to mv (b3).
Is a motion vector in which each block of Frame B refers to Frame A, and mv (c0) to mv (c3).
Is a motion vector in which each block of Frame C refers to Frame B.

【0059】そして、図3において、FrameAはす
でにデコード済みで画像情報として存在するフレームで
あり、FrameBをスキップして、FrameCをデ
コードする場合について考える。ここで、Frame
A,B,Cは、前述のH.263のような通信メディア
用符号化のアルゴリズムによって符号化されており、F
rameBは、FrameAを参照するPピクチャであ
り、FrameCは、FrameBを参照するPピクチ
ャである。
In FIG. 3, Frame A is a frame that has already been decoded and exists as image information, and a case where Frame B is skipped and Frame C is decoded will be considered. Where Frame
A, B and C correspond to the above-mentioned H.264. 263, and is encoded by a communication medium encoding algorithm such as H.263.
frameB is a P picture that refers to FrameA, and FrameC is a P picture that refers to FrameB.

【0060】まず、制御部2は、動きベクトルmv(b
0 )〜mv(b3 )、及びmv(c0 )〜mv(c3 )
の全てをデコードし、スキップするFrameBを参照
する動きベクトルmv(c0 )〜mv(c3 )に基づい
て、FrameBの各ブロックの中から、FrameC
のどのブロックからも参照されていないブロックを検出
する。
First, the control unit 2 sets the motion vector mv (b
0) to mv (b3) and mv (c0) to mv (c3)
Are decoded, and based on the motion vectors mv (c0) to mv (c3) referring to FrameB to be skipped, FrameC is selected from the blocks of FrameB.
Block that is not referenced from any of the blocks.

【0061】図3の例では、ブロックc0 は、ブロック
b0 を参照し、ブロックc1 は、ブロックb2 を参照
し、ブロックc2 は、ブロックb2 の一部とブロックb
3 の一部を参照し、ブロックc3 は、ブロックb3 を参
照している。したがって、FrameBのブロックb1
は、FrameCのブロックc0 〜c3 をデコードする
際に、参照画像として必要な画像ではないとして検出さ
れる。
In the example of FIG. 3, the block c0 refers to the block b0, the block c1 refers to the block b2, and the block c2 is a part of the block b2 and the block b2.
3, block c3 refers to block b3. Therefore, block b1 of Frame B
Is detected as not being an image necessary as a reference image when decoding the blocks c0 to c3 of FrameC.

【0062】このように、スキップするフレームの各ブ
ロックの中から、次のフレームのどのブロックからも参
照されないブロックを全て検出し(図3では、ブロック
b1のみ)、該検出されたブロックに対するIDCT演
算を省略することによって、演算量を減少させることが
できる。図3の例では、本来FrameBにおいて4
個、FrameCにおいて4個の計8個必要なIDCT
演算が、ブロックb1 に対するIDCT演算を省略する
ことによって、7個の演算に減少される。
As described above, from among the blocks of the frame to be skipped, all the blocks which are not referred to by any block of the next frame are detected (only the block b1 in FIG. 3), and the IDCT operation for the detected block is performed. Is omitted, the amount of calculation can be reduced. In the example of FIG.
IDCT required for FrameC, 4 in FrameC
The operation is reduced to seven operations by omitting the IDCT operation on block b1.

【0063】次に、前述の1フレームスキップ処理の原
理に基づいて、nフレームスキップ処理の場合につい
て、図4、及び図5を参照して説明する。
Next, the case of n-frame skip processing will be described with reference to FIGS. 4 and 5 based on the principle of one-frame skip processing described above.

【0064】図4は、本発明の画像再生方法を適用した
画像再生装置1によるnフレームスキップ処理の手順を
示すフローチャートであり、図5は、n=3の場合にお
いてのデコード順序を説明する図である。図4におい
て、BKfr,jは、図5におけるfrフレーム目の、jブ
ロックを意味し、該ブロックがIDCT演算を必要とす
るブロックであればBKfr,j=1とされ、そうでなけれ
ばBKfr,j=0とされる。
FIG. 4 is a flowchart showing a procedure of n-frame skip processing by the image reproducing apparatus 1 to which the image reproducing method of the present invention is applied, and FIG. 5 is a view for explaining a decoding order when n = 3. It is. In FIG. 4, BKfr, j means the j-th block in the fr frame in FIG. 5. If the block requires an IDCT operation, BKfr, j = 1; otherwise, BKfr, j. j = 0.

【0065】以下の説明では、fr=0のFrame0
がデコード済みのフレームであり、fr=1,2,・・・
・,nのnフレーム分をスキップすることとする。図5
では、Frame0がデコード済みのフレームであり、
fr=1,2,3の3フレーム分をスキップする場合を
示している。ここで、fr=1〜4の各フレームは、前
述のH.263のような通信メディア用符号化のアルゴ
リズムによって符号化されており、Frame1は、F
rame0を参照するPピクチャであり、Frame2
は、Frame1を参照するPピクチャであるというよ
うに、それぞれのフレームはひとつ前のフレームを参照
するPピクチャによって構成されている。
In the following description, Frame 0 of fr = 0
Are decoded frames, and fr = 1, 2,...
It is assumed that n frames of n are skipped. FIG.
In the above, Frame0 is a decoded frame,
This shows a case where three frames of fr = 1, 2, 3 are skipped. Here, each frame of fr = 1 to 4 corresponds to the aforementioned H.264 frame. 263, and is encoded by a communication medium encoding algorithm such as H.263.
This is a P picture that refers to frame0,
Is a P picture that refers to Frame1, each frame is composed of a P picture that refers to the immediately preceding frame.

【0066】まず、制御部2は、Frame0をデコー
ド後、fr=n+1のFrame(n+1)までの全て
の動きベクトルデータをデコードする(ステップS
1)。図5の例ではn=3であるので、Frame4ま
での全ての動きベクトルデータをデコードする。
First, after decoding Frame 0, the control unit 2 decodes all motion vector data up to Frame (n + 1) of fr = n + 1 (Step S).
1). In the example of FIG. 5, since n = 3, all the motion vector data up to Frame 4 are decoded.

【0067】次いで、制御部2は、Frame(n+
1)は全てのブロックをデコードする必要があるので、
Frame(n+1)の全てのブロックに対してBKn+
1,j =1とし(ステップS2)、続いて、全てのフレー
ムに対してIDCTを必要とするブロックを検出するた
めのステップS3、及びステップS4によるループ(i=
n+1 to 2)に移行する。図5では、Frame4の全て
のブロックに対してBK4,j =1とし、fr=3〜1の
各フレームの各ブロックに対する処理に移行する。
Next, the control unit 2 sets Frame (n +
Since 1) needs to decode all blocks,
BKn + for all blocks in Frame (n + 1)
1, j = 1 (step S2), and then a loop of steps S3 and S4 for detecting blocks that need IDCT for all frames (i =
n + 1 to 2). In FIG. 5, BK4, j = 1 is set for all the blocks in Frame 4, and the processing shifts to processing for each block of each frame of fr = 3 to 1.

【0068】まず、制御部2は、BKi-1,j(i=n+
1)に対応するFrame(n)の全てのブロックに対
してBKn,j =0として初期化を行い(ステップS
3)、更に、Frame(n+1)は全てのブロックが
BKn+1,j =1であるから、Frame(n+1)の各
ブロックから参照されるFrame(n)の各ブロック
に対してBKn,j =1として差分データ等をデコード
し、Frame(n)のそれ以外のブロックに対して
は、BKn,j =0とする(ステップS4)。図5では、
Frame3の全てのブロックに対してBK3,j =0と
して初期化した後、Frame4の各ブロックに参照さ
れているブロックに対してのみBK3,j =1が設定さ
れ、その他のブロックはBK3,j =0のままとなる。
First, the control unit 2 sets BKi-1, j (i = n +
Initialization is performed for all blocks of Frame (n) corresponding to 1) with BKn, j = 0 (step S).
3) In addition, since Frame (n + 1) has BKn + 1, j = 1 for all blocks, BKn, j = for each block of Frame (n) referenced from each block of Frame (n + 1). The difference data and the like are decoded as 1 and BKn, j = 0 for the other blocks of Frame (n) (step S4). In FIG.
After initializing BK3, j = 0 for all the blocks in Frame3, BK3, j = 1 is set only for the block referred to by each block of Frame4, and BK3, j = It remains at 0.

【0069】そして、Frame(n)のブロックの計
算が終了すると、制御部2は、BKi-1,jのiの値をデ
クリメントし、BKi-1,j(i=n)に対応するFra
me(n−1)の全てのブロックに対してBKn-1,j =
0として初期化を行い(ステップS3)、更に、Fra
me(n)のBKn,j =1である各ブロックから参照さ
れるFrame(n−1)の各ブロックに対してBKn-
1,j =1として差分データ等をデコードし、Frame
(n−1)のそれ以外のブロックに対しては、BKn-1,
j =0とする(ステップS4)。図5では、Frame
2の全てのブロックに対してBK2,j =0として初期化
した後、Frame3のBK3,j =1である各ブロック
に参照されているブロックに対してのみBK2,j =1が
設定され、その他のブロックはBK2,j =0のままとな
る。
When the calculation of the block of Frame (n) is completed, the control unit 2 decrements the value of i of BKi-1, j and sets the Fra corresponding to BKi-1, j (i = n).
BKn-1, j = for all blocks of me (n-1)
Initialization is performed by setting it to 0 (step S3).
For each block of Frame (n-1) referenced from each block of BKn, j = 1 of me (n), BKn-
Decode the difference data etc. with 1, j = 1, and set Frame
For the other blocks of (n-1), BKn-1,
j = 0 is set (step S4). In FIG. 5, Frame
2, BK2, j = 0 is initialized for all blocks, and BK2, j = 1 is set only for the blocks referred to by each block in which BK3, j = 1 in Frame3. Block remains at BK2, j = 0.

【0070】以後、同様の演算をFrame1まで繰り
返し、画素値を計算する必要のあるブロックがBKfr,j
=1として設定されると、該BKfr,j=1である全ての
ブロックに対してIDCT演算を行って画素値を求める
(ステップS5)。このとき、BKfr,j=0であるブロ
ックに対するIDCT演算を省略することができるの
で、制御部2による演算量が減少する。また、IDCT
演算を行う必要のないブロックに関しては、当然その他
の例えばMC等の計算も行う必要がないため、このこと
による制御部2の演算量も減少する。
Thereafter, the same operation is repeated until Frame 1, and the block for which the pixel value needs to be calculated is BKfr, j
When = 1 is set, the pixel value is obtained by performing the IDCT operation on all the blocks where BKfr, j = 1 (step S5). At this time, since the IDCT calculation for the block with BKfr, j = 0 can be omitted, the amount of calculation by the control unit 2 is reduced. Also, IDCT
As for the blocks that do not need to perform the calculations, it is not necessary to perform other calculations such as MC, so that the calculation amount of the control unit 2 is also reduced.

【0071】なお、本第1の実施の形態では、1次元の
場合について説明したが、2次元の場合も同様であり、
例えば、16×16のブロックに対しては、j=1to
256とすることによって全てのブロックに対しての処
理を行うことができる。
Although the first embodiment has been described for a one-dimensional case, the same applies to a two-dimensional case.
For example, for a 16 × 16 block, j = 1to
By setting it to 256, processing can be performed on all blocks.

【0072】以上説明したように、本発明の画像再生方
法を適用した第1の実施の形態の画像再生装置1によれ
ば、制御部2は、nフレームスキップ処理において、ま
ず、スキップ前のフレームFrame0をデコード後、
スキップ後のフレームFrame(n+1)までの全て
の動きベクトルデータをデコードし、次いで、Fram
e(n+1)の全てのブロックに対してBKn+1,j =1
とすることによりIDCT演算を行うことを設定し、続
いて、全てのフレームに対してIDCTを必要とするブ
ロックを検出するための処理を行う。
As described above, according to the image reproducing apparatus 1 of the first embodiment to which the image reproducing method of the present invention is applied, in the n-frame skip processing, the control unit 2 first sets the frame before skipping. After decoding Frame0,
Decode all the motion vector data up to the skipped frame Frame (n + 1), and then
BKn + 1, j = 1 for all blocks of e (n + 1)
Is set to perform the IDCT operation, and then processing for detecting a block requiring the IDCT is performed for all frames.

【0073】すなわち、制御部2は、時間的に後位のフ
レームから順次、スキップするフレームの全てのブロッ
クに対して、次のフレームのBKfr,j=1である各ブロ
ックから参照される各ブロックに対してはBKfr,j=1
として差分データ等をデコードし、それ以外のブロック
に対してはBKfr,j=0として同様の演算をFrame
1まで繰り返し、画素値を計算する必要のあるブロック
がBKfr,j=1として設定されると、該BKfr,j=1で
ある全てのブロックに対してIDCT演算を行って画素
値を求める。このとき、BKfr,j=0であるブロックに
対するIDCT演算を省略することができるので、制御
部2による計算量が減少する。
That is, the control unit 2 sequentially determines all the blocks of the frame to be skipped from the temporally succeeding frame to each of the blocks referred to by each block of BKfr, j = 1 in the next frame. For BKfr, j = 1
To decode the difference data, etc., and perform the same operation on the other blocks by setting BKfr, j = 0.
When the block for which the pixel value needs to be calculated is set as BKfr, j = 1, the IDCT operation is performed on all the blocks with BKfr, j = 1 to obtain the pixel value. At this time, since the IDCT calculation for the block where BKfr, j = 0 can be omitted, the amount of calculation by the control unit 2 is reduced.

【0074】したがって、一般的に、ビットストリーム
中にIピクチャによる画像データが挿入されていない通
信メディア用符号化のアルゴリズムによって符号化され
た画像データをスキップ再生する場合に、演算を行う必
要のないブロックに対する演算を省略することができる
構成であるため、高速なスキップ再生を実現することが
できる。また、このことにより、CPUの処理能力不足
のために、音声データとの同期が取れないといった問題
をも解消することができる。
Therefore, in general, when skipping image data encoded by a communication medium encoding algorithm in which image data of an I picture is not inserted into a bit stream, it is not necessary to perform an operation. Since the configuration can omit the operation for the block, high-speed skip reproduction can be realized. This also solves the problem that synchronization with audio data cannot be achieved due to insufficient processing capacity of the CPU.

【0075】(第2の実施の形態)前述の第1の実施の
形態では、スキップ再生時に、デコードするフレームか
ら参照されないブロックに対するIDCT演算を省略す
ることにより、演算量を減少させる場合について説明し
たが、IDCTの線形性を利用して演算量を減少させる
こともできる。
(Second Embodiment) In the first embodiment described above, a case has been described where the amount of calculation is reduced by omitting the IDCT calculation for blocks not referenced from the frame to be decoded during skip reproduction. However, the amount of calculation can be reduced by using the linearity of the IDCT.

【0076】そこで、本第2の実施の形態では、前述し
たH.263のような通信メディア用符号化のアルゴリ
ズムで符号化された画像データを、例えばパーソナルコ
ンピュータ等と接続された記憶装置内に蓄積し、該蓄積
した画像データを再生する場合のスキップ再生時に、前
記式(2)に示すようなDCT係数についてのIDCT
の線形性を利用して、MCに関与しない複数フレームに
わたるブロックに対するIDCT演算を、1回の演算で
処理することにより演算量を減少させる場合について説
明する。
Therefore, in the second embodiment, the above-described H.264 is used. 263 is stored in a storage device connected to, for example, a personal computer or the like, and the skipped reproduction is performed when reproducing the stored image data. IDCT for DCT coefficients as shown in equation (2)
The case where the amount of calculation is reduced by processing the IDCT calculation on a block over a plurality of frames not related to MC by one calculation using the linearity of the above will be described.

【0077】以下に、本発明にかかる画像再生方法を適
用した第2の実施の形態の画像再生装置について詳細に
説明する。
Hereinafter, an image reproducing apparatus according to a second embodiment to which the image reproducing method according to the present invention is applied will be described in detail.

【0078】なお、本第2の実施の形態における画像再
生装置は、前記第1の実施の形態における画像再生装置
1と基本的に略同様の構成をなすので、構成の図示、並
びに同一構成要素の説明を省略し、第1の実施の形態と
異なる部分のみ、図1、図6、及び図7を参照して以下
に説明を行うものとする。
The image reproducing apparatus according to the second embodiment basically has substantially the same configuration as the image reproducing apparatus 1 according to the first embodiment. , And only the portions different from those of the first embodiment will be described below with reference to FIGS. 1, 6, and 7.

【0079】図1において、制御部2は、後述するnフ
レームスキップ処理(図6参照)において、まず、スキ
ップ前のフレームであるfr=0のFrame0をデコ
ード後、スキップ後のフレームであるfr=n+1のF
rame(n+1)までの全ての動きベクトルデータを
デコードし、次いで、該デコードした動きベクトルに基
づいて、Frame0〜Frame(n+1)の全ての
ブロックに対して後述する条件を満たしMCに関与しな
いブロック列を検出する。
In FIG. 1, in the n-frame skipping process (see FIG. 6) described later, the control unit 2 first decodes Frame 0 of fr = 0, which is the frame before skipping, and then sets fr = n + 1 F
Decodes all motion vector data up to frame (n + 1), and then, based on the decoded motion vectors, a block sequence that satisfies a condition described later for all blocks of Frame0 to Frame (n + 1) and is not involved in MC Is detected.

【0080】更に、制御部2は、前記検出された各ブロ
ック列に対して、それぞれのブロック列毎にDCT係数
を加算し、該加算したDCT係数に対してIDCT演算
を行い、最後に各ブロック列の先頭フレームの画素値を
加算する。このことにより、従来の方法では複数回のI
DCT演算が必要な計算を1回のIDCT演算によって
処理できる。
Further, the control unit 2 adds a DCT coefficient to each of the detected block strings for each of the block strings, performs an IDCT operation on the added DCT coefficient, and finally, The pixel values of the first frame of the column are added. This allows the conventional method to perform multiple I
Calculations requiring DCT operation can be processed by one IDCT operation.

【0081】次に動作を説明する。まず、本第2の実施
の形態の画像再生装置に適用される画像再生方法の原理
を簡単に説明するために、2次元の画像を図2に示すよ
うな方向から見たと仮定した1次元の場合の、1フレー
ムスキップ処理について図3を参照して説明する。
Next, the operation will be described. First, in order to briefly explain the principle of the image reproducing method applied to the image reproducing apparatus according to the second embodiment, a one-dimensional image is assumed to be viewed from the direction shown in FIG. In this case, the one-frame skip processing will be described with reference to FIG.

【0082】図3において、a0 〜a3 は、Frame
Aを構成するブロック、b0 〜b3は、FrameBを
構成するブロック、c0 〜c3 はFrameCを構成す
るブロックであり、また、mv(b0 )〜mv(b3 )
は、FrameBの各ブロックがFrameAを参照す
る動きベクトルであり、mv(c0 )〜mv(c3 )
は、FrameCの各ブロックがFrameBを参照す
る動きベクトルである。
In FIG. 3, a0 to a3 are Frame
Blocks constituting A, b0 to b3 are blocks constituting FrameB, c0 to c3 are blocks constituting FrameC, and mv (b0) to mv (b3).
Is a motion vector in which each block of Frame B refers to Frame A, and mv (c0) to mv (c3).
Is a motion vector in which each block of Frame C refers to Frame B.

【0083】そして、図3において、FrameAはす
でにデコード済みで画像情報として存在するフレームで
あり、FrameBをスキップして、FrameCをデ
コードする場合について考える。ここで、Frame
A,B,Cは、前述のH.263のような通信メディア
用符号化のアルゴリズムによって符号化されており、F
rameBは、FrameAを参照するPピクチャであ
り、FrameCは、FrameBを参照するPピクチ
ャである。
In FIG. 3, Frame A is a frame which has already been decoded and exists as image information, and a case where Frame B is skipped and Frame C is decoded will be considered. Where Frame
A, B and C correspond to the above-mentioned H.264. 263, and is encoded by a communication medium encoding algorithm such as H.263.
frameB is a P picture that refers to FrameA, and FrameC is a P picture that refers to FrameB.

【0084】まず、制御部2は、動きベクトルmv(b
0 )〜mv(b3 )、及びmv(c0 )〜mv(c3 )
の全てをデコードし、該デコードした動きベクトルに基
づいて、FrameB各ブロックの中から、MCを行
っていない、次のフレームのブロックからMCの予測
元として参照されていない、の2つの条件を満たすブロ
ック列を検出する。すなわち、MCに全く関与しないブ
ロック列をスキップするフレームの中から検出する。
First, the control unit 2 sets the motion vector mv (b
0) to mv (b3) and mv (c0) to mv (c3)
Are decoded, and based on the decoded motion vector, two conditions of not performing MC and not being referred to as a prediction source of MC from a block of the next frame are satisfied from each of the FrameB blocks. Detect block sequence. That is, a block sequence that is not involved in MC at all is detected from the skipped frames.

【0085】図3の例では、ブロックc0 は、ひとつ前
のフレームの同じ位置のブロックであるブロックb0 を
参照しているためMCを行っておらず、また、Fram
eBのブロックb0 は、FrameCのブロックc0 〜
c3 のいずれのブロックからも参照されていないため、
前記、の2つの条件を満たしている。更に、Fra
meBとFrameAのブロックb0 とブロックa0 に
ついても同様に前記、の2つの条件を満たしてい
る。したがって、a0 →b0 →c0 のブロック列は、前
記、の条件を満たす。
In the example shown in FIG. 3, since the block c0 refers to the block b0 at the same position in the immediately preceding frame, no MC is performed, and the frame c0 does not operate.
The block b0 of the eB is composed of the blocks c0 to
Since it is not referenced from any block of c3,
The above two conditions are satisfied. Furthermore, Fra
Blocks b0 and a0 of meB and FrameA also satisfy the above two conditions. Therefore, the block sequence of a0 → b0 → c0 satisfies the above condition.

【0086】ここで、前記式(2)に示すIDCTは、
各フレームの同じ位置のブロックに対しては、DCT係
数について線形変換であるため、例えば複数のDCT係
数をx0 ,x1 ,・・・・,xn-1 とするとき、次式(3)
が成り立つ。
Here, the IDCT shown in the above equation (2) is
Since DCT coefficients are linearly transformed for blocks at the same position in each frame, for example, when a plurality of DCT coefficients are x0, x1,..., Xn-1, the following equation (3) is used.
Holds.

【0087】 IDCT(x0 )+IDCT(x1 )+・・・・+IDCT(xn-1 ) =IDCT(x0 +x1 +・・・・+xn-1 )・・・・(3)IDCT (x0) + IDCT (x1) +... + IDCT (xn-1) = IDCT (x0 + x1 +... + Xn-1) (3)

【0088】ところで、ブロックb0 のDCT係数をc
oefb0 、ブロックc0 のDCT係数をcoefc0
とすると、従来の復号化過程においては、前記、の
2つの条件を満たしている図3のブロックc0 の画素値
を求める場合は、まず、次式(4)で画素値b0 を画素
値a0 を用いて計算した後、該計算された画素値b0の
値を用いて、次式(5)の計算によってブロックc0 の
画素値c0 を求めていた。
By the way, the DCT coefficient of the block b0 is c
oefb0, the DCT coefficient of block c0 is
In the conventional decoding process, when obtaining the pixel value of the block c0 in FIG. 3 satisfying the above two conditions, first, the pixel value b0 is converted into the pixel value a0 by the following equation (4). After calculating using the calculated pixel value b0, the pixel value c0 of the block c0 is obtained by the calculation of the following equation (5).

【0089】 b0 =a0 +IDCT(coefb0 )・・・・(4) c0 =b0 +IDCT(coefc0 )・・・・(5)B0 = a0 + IDCT (coefb0) (4) c0 = b0 + IDCT (coeff0) (5)

【0090】前記式(4)、及び式(5)をひとつの式
にまとめると、次式(6)となるが、これは、前記式
(3)によれば、次式(7)で表すことができる。
When the above equations (4) and (5) are combined into one equation, the following equation (6) is obtained. According to the above equation (3), this is expressed by the following equation (7). be able to.

【0091】 c0 =a0 +IDCT(coefb0 )+IDCT(coefc0 )・・(6) c0 =a0 +IDCT(coefb0 +coefc0 )・・・・(7)C0 = a0 + IDCT (coefb0) + IDCT (coefc0) (6) c0 = a0 + IDCT (coefb0 + coefc0) (7)

【0092】すなわち、前記式(4)、及び式(5)の
2回のIDCT演算を、前記式(7)による1回のID
CT演算によって処理することができる。このことは、
例えば、スキップするnフレーム分の全ての同一位置の
ブロックが、前記、の2つの条件を満たしている場
合には、従来n回のIDCT演算を行っていた処理を、
1回のIDCT演算による処理として、演算量を大幅に
減少することができることを示している。
That is, the two IDCT operations of the equations (4) and (5) are replaced by one IDCT operation of the equation (7).
It can be processed by CT operation. This means
For example, if all the blocks at the same position for n frames to be skipped satisfy the above two conditions, the processing that conventionally performed the IDCT operation n times is performed as follows.
This shows that the amount of calculation can be significantly reduced as a process by one IDCT calculation.

【0093】なお、前記、の2つの条件を満たすM
Cに関与しないブロックは、可変長符号的に小さいコー
ドが割り振られているため、発生頻度が大きく、バック
グランドなどの動きのない部分の多くは前記、の2
つの条件を満たすことが多く、本第2の実施の形態の画
像再生装置に適用される画像再生方法は有効である。
Note that M satisfying the above two conditions
Blocks that are not involved in C are assigned a code that is small in terms of variable length code.
The two conditions are often satisfied, and the image reproducing method applied to the image reproducing apparatus according to the second embodiment is effective.

【0094】次に、前述の1フレームスキップ処理の原
理に基づいて、nフレームスキップ処理の場合につい
て、図6、及び図7を参照して説明する。
Next, the case of n-frame skip processing based on the principle of the one-frame skip processing will be described with reference to FIGS.

【0095】図6は、本発明の画像再生方法を適用した
画像再生装置によるnフレームスキップ処理の手順を示
すフローチャートであり、図7は、n=4の場合におい
てのデコード順序を説明する図であり、前記図3と同様
に破線で動きベクトルを表している。以下の説明におい
てBKfr,jは、図7におけるfrフレーム目の、jブロ
ックを意味している。
FIG. 6 is a flowchart showing the procedure of n-frame skip processing by the image reproducing apparatus to which the image reproducing method of the present invention is applied. FIG. 7 is a diagram for explaining the decoding order when n = 4. Yes, the motion vector is represented by a broken line as in FIG. In the following description, BKfr, j means the j-th block in the fr frame in FIG.

【0096】以下の説明では、fr=0のFrame0
がデコード済みのフレームであり、fr=1,2,・・
・,nのnフレーム分をスキップすることとする。図7
では、Frame0がデコード済みのフレームであり、
fr=1,2,3,4の4フレーム分をスキップする場
合を示している。ここで、fr=1〜5の各フレーム
は、前述のH.263のような通信メディア用符号化の
アルゴリズムによって符号化されており、Frame1
は、Frame0を参照するPピクチャであり、Fra
me2は、Frame1を参照するPピクチャであると
いうように、それぞれのフレームはひとつ前のフレーム
を参照するPピクチャによって構成されている。
In the following description, Frame 0 of fr = 0
Is a decoded frame, and fr = 1, 2,.
It is assumed that n frames of n are skipped. FIG.
In the above, Frame0 is a decoded frame,
This shows a case where four frames of fr = 1, 2, 3, and 4 are skipped. Here, each frame of fr = 1 to 5 corresponds to the above-described H.264 frame. H.263, and is encoded by a communication media encoding algorithm such as Frame1.
Is a P picture that refers to Frame 0, and Fra
Each frame is composed of a P picture that refers to the immediately preceding frame, such as me2 is a P picture that refers to Frame1.

【0097】まず、制御部2は、Frame0をデコー
ド後、fr=n+1のFrame(n+1)までの全て
の動きベクトルデータをデコードする(ステップS1
1)。図7の例ではn=4であるので、Frame5ま
での全ての動きベクトルデータをデコードする。
First, after decoding Frame 0, the control unit 2 decodes all motion vector data up to Frame (n + 1) of fr = n + 1 (step S1).
1). In the example of FIG. 7, since n = 4, all the motion vector data up to Frame 5 are decoded.

【0098】次いで、制御部2は、ステップS11にお
いてデコードした動きベクトルに基づいて、Frame
0〜Frame(n+1)の全てのブロックに対して前
記、の2つの条件を満たすブロック列を検出する
(ステップS12)。図7では、BK4,2 の一部とBK
4,3 の一部を参照することによりMCを行っているBK
5,2 、及びBK5,2 から参照されているBK4,3 の次の
フレームであるBK5,3を除くブロックが前記、の
条件を満たし、以下の4つのブロック列が存在する。
Next, the control unit 2 sets the Frame based on the motion vector decoded in step S11.
A block sequence that satisfies the above two conditions is detected for all the blocks from 0 to Frame (n + 1) (step S12). In FIG. 7, part of BK4,2 and BK
BK performing MC by referring to part of 4,3
Blocks other than BK5,3, which is the next frame of BK4,3 referred to from BK5,2 and BK5,2, satisfy the above condition, and the following four block sequences exist.

【0099】[1]BK0,1→BK1,1→BK2,1→BK
3,1→BK4,1→BK5,1 [2]BK0,2→BK1,2→BK2,2→BK3,2→BK4,2 [3]BK0,3→BK1,3→BK2,3→BK3,3→BK4,3 [4]BK0,4→BK1,4→BK2,4→BK3,4→BK4,4
→BK5,4
[1] BK0,1 → BK1,1 → BK2,1 → BK
3,1 → BK4,1 → BK5,1 [2] BK0,2 → BK1,2 → BK2,2 → BK3,2 → BK4,2 [3] BK0,3 → BK1,3 → BK2,3 → BK3, 3 → BK4,3 [4] BK0,4 → BK1,4 → BK2,4 → BK3,4 → BK4,4
→ BK5,4

【0100】更に、制御部2は、前記検出された各ブロ
ック列に対して、それぞれのブロック列毎にDCT係数
を加算し(ステップS13)、該加算したDCT係数に
対してIDCT演算を行い(ステップS14)、最後に
各ブロック列の先頭フレームの画素値を加算する(ステ
ップS15)。
Further, the control unit 2 adds a DCT coefficient to each of the detected block strings for each of the block strings (step S13), and performs an IDCT operation on the added DCT coefficients (step S13). (Step S14) Finally, the pixel value of the first frame of each block sequence is added (Step S15).

【0101】前記[1]のブロック列では、BKfr,jの
DCT係数をcoefBKfr,jと表すこととすると、ス
テップS13において、次式(8)の計算を実行し、ス
テップS14において、式(8)の計算結果に対するI
DCT演算としてIDCT(Σcoef)を実行し、更
に、ステップS15において次式(9)の計算を実行す
ることになる。
In the block sequence [1], if the DCT coefficient of BKfr, j is represented as coefBKfr, j, the following equation (8) is calculated in step S13, and the equation (8) is calculated in step S14. I) for the calculation result of
IDCT (Σcoef) is executed as the DCT operation, and the calculation of the following equation (9) is executed in step S15.

【0102】 Σcoef=coefBK4,1+coefBK3,1 +coefBK2,1+coefBK1,1・・・・(8) (BK5,1 の画素値) =IDCT(Σcoef)+(BK0,1 の画素値)・・・・(9) この場合、従来の方法では4回のIDCT演算が必要な
計算を1回のIDCT演算によって処理できる。
Σcoef = coefBK4,1 + coefBK3,1 + coefBK2,1 + coefBK1,1 (8) (pixel value of BK5,1) = IDCT (Σcoef) + (pixel value of BK0,1) 9) In this case, in the conventional method, a calculation requiring four IDCT operations can be processed by one IDCT operation.

【0103】前記[2]〜[4]の各ブロック列に対し
ても同様の計算を行えば、前記[2],[3]の場合に
は3回のIDCT演算を、前記[4]の場合には4回の
IDCT演算をそれぞれ1回のIDCT演算によって処
理できることとなる。
If the same calculation is performed for each of the block sequences [2] to [4], three IDCT operations are performed in the case of [2] and [3]. In this case, four IDCT operations can be processed by one IDCT operation.

【0104】なお、本第2の実施の形態では、1次元の
場合について説明したが、2次元の場合も同様であり、
例えば、16×16のブロックに対しては、j=1to
256とすることによって全てのブロックに対しての処
理を行うことができる。
In the second embodiment, a one-dimensional case has been described, but the same applies to a two-dimensional case.
For example, for a 16 × 16 block, j = 1to
By setting it to 256, processing can be performed on all blocks.

【0105】以上説明したように、本発明の画像再生方
法を適用した第2の実施の形態の画像再生装置によれ
ば、制御部2は、nフレームスキップ処理において、ま
ず、スキップ前のフレームFrame0をデコード後、
スキップ後のフレームFrame(n+1)までの全て
の動きベクトルデータをデコードし、次いで、該デコー
ドした動きベクトルに基づいて、Frame0〜Fra
me(n+1)の全てのブロックに対して前記、の
条件を満たすブロック列を検出する。
As described above, according to the image reproducing apparatus of the second embodiment to which the image reproducing method of the present invention is applied, in the n-frame skipping process, first, in the n-frame skipping process, the frame 2 before the skipping is performed. After decoding
All the motion vector data up to the skipped frame Frame (n + 1) are decoded, and then, based on the decoded motion vector, Frame0 to Frame
A block sequence that satisfies the above condition is detected for all blocks of me (n + 1).

【0106】更に、制御部2は、前記検出された各ブロ
ック列に対して、それぞれのブロック列毎にDCT係数
を加算し、該加算したDCT係数に対してIDCT演算
を行い、最後に各ブロック列の先頭フレームの画素値を
加算する。このことにより、従来の方法では複数回のI
DCT演算が必要な計算を1回のIDCT演算によって
処理できる。
Further, the control unit 2 adds a DCT coefficient to each of the detected block strings for each block string, performs an IDCT operation on the added DCT coefficient, and finally, The pixel values of the first frame of the column are added. This allows the conventional method to perform multiple I
Calculations requiring DCT operation can be processed by one IDCT operation.

【0107】したがって、一般的に、ビットストリーム
中にIピクチャによる画像データが挿入されていない通
信メディア用符号化のアルゴリズムによって符号化され
た画像データをスキップ再生する場合に、MCに関与し
ない複数のブロックに対する複数のIDCT演算を1回
のIDCT演算で処理することができる構成であるた
め、高速なスキップ再生を実現することができる。ま
た、このことにより、CPUの処理能力不足のために、
音声データとの同期が取れないといった問題をも解消す
ることができる。
Therefore, in general, when skipping reproduction of image data encoded by a communication medium encoding algorithm in which image data of an I picture is not inserted in a bit stream, a plurality of data not related to the MC are provided. Since the configuration is such that a plurality of IDCT operations on a block can be processed by one IDCT operation, high-speed skip reproduction can be realized. In addition, due to this, the processing capacity of the CPU is insufficient,
The problem that synchronization with audio data cannot be obtained can also be solved.

【0108】なお、以上説明した第1、及び第2の実施
の形態では、符号化時にDCT演算を施されたDCT係
数をIDCT演算して復号化する場合について説明した
が、ブロック単位の符号化はDCTに限られるものでは
なく、その他、逆変換時に各ブロックの係数について線
形性を持つ等、本発明の趣旨を逸脱しない符号化手法で
あれば他の手法であってもよい。
In the first and second embodiments described above, the case where the DCT coefficient subjected to the DCT operation at the time of encoding is decoded by performing the IDCT operation. Is not limited to DCT, and any other coding method may be used as long as the coding method does not deviate from the gist of the present invention, for example, the coefficient of each block has linearity at the time of inverse transform.

【0109】また、以上説明した第1、及び第2の実施
の形態では、本発明の効果が特に顕著である例として、
通信メディア用符号化アルゴリズムによるビットストリ
ームを復号化して再生する場合の例について説明した
が、本発明を、前方予測符号化画像を利用して符号化す
るその他の符号化アルゴリズムによるビットストリーム
を復号して再生する際に適用することも可能である。
In the first and second embodiments described above, examples in which the effect of the present invention is particularly remarkable are as follows.
Although the description has been given of the case where the bit stream is decoded and reproduced by the encoding algorithm for the communication medium, the present invention is applied to the decoding of the bit stream by the other encoding algorithm using the forward prediction encoded image. It is also possible to apply when reproducing.

【0110】(第3の実施の形態)以下、図8〜図14
を参照して、本発明に係る画像符号化方法を適用した画
像符号化装置10について詳細に説明する。なお、本実
施の形態では、intra画像は従来と同様であるの
で、inter画像において説明を展開する。また、復
号化は従来と同様の処理を行う。
(Third Embodiment) Hereinafter, FIGS.
With reference to, the image encoding device 10 to which the image encoding method according to the present invention is applied will be described in detail. In addition, in the present embodiment, the intra image is the same as the conventional one, and therefore, the description will be expanded to the inter image. Decoding is performed in the same manner as in the related art.

【0111】まず構成を説明する。First, the configuration will be described.

【0112】図8は、本実施の形態における画像符号化
装置10の構成を示すブロック図である。この図8にお
いて、画像符号化装置10は、制御部11、入力装置1
2、表示装置13、通信インタフェース部14、画像コ
ーデック部15、音声コーデック部16、RAM17、
記憶装置18、及び記憶媒体19によって構成されてお
り、記憶媒体19を除く各部はバス20によって接続さ
れている。
FIG. 8 is a block diagram showing a configuration of the image coding apparatus 10 according to the present embodiment. In FIG. 8, the image encoding device 10 includes a control unit 11, an input device 1
2, display device 13, communication interface unit 14, image codec unit 15, audio codec unit 16, RAM 17,
It comprises a storage device 18 and a storage medium 19, and each part except the storage medium 19 is connected by a bus 20.

【0113】制御部11は、記憶装置18に記憶されて
いる当該画像符号化装置10に対応する各種アプリケー
ションプログラムの中から指定されたアプリケーション
プログラム、入力装置12から入力される各種指示ある
いはデータをRAM17内のワークメモリに格納し、こ
の入力指示及び入力データに応じてRAM17内に格納
したアプリケーションプログラムに従って各種処理を実
行し、その処理結果をRAM17内のワークメモリに格
納するとともに、表示装置13に表示する。そして、ワ
ークメモリに格納した処理結果を入力装置12から入力
指示される記憶装置18内の保存先に保存する。
The control unit 11 stores the application program designated from the various application programs corresponding to the image encoding device 10 stored in the storage device 18 and various instructions or data input from the input device 12 into the RAM 17. In accordance with the input instruction and the input data, various processes are executed in accordance with the application program stored in the RAM 17, and the processing results are stored in the work memory in the RAM 17 and displayed on the display device 13. I do. Then, the processing result stored in the work memory is stored in a storage destination in the storage device 18 which is instructed to be input from the input device 12.

【0114】また、制御部11は、画像符号化処理時に
は、画像コーデック部15によって符号化処理された画
像符号化データと音声コーデック部16によって符号化
処理された音声符号化データとを多重化させて、1列の
ビットストリームを生成して、記憶装置18内に保存す
る、あるいは、通信インタフェース部14を介して外部
に出力する。一方、画像復号化処理時には、制御部11
は、記憶装置18から読み出したビットストリーム、あ
るいは、通信インタフェース部14を介して外部から入
力されたビットストリームから画像データと音声データ
を分離し、それぞれ画像コーデック部15、または音声
コーデック部16に転送する。
At the time of the image encoding process, the control unit 11 multiplexes the image encoded data encoded by the image codec unit 15 and the audio encoded data encoded by the audio codec unit 16. Then, a bit stream of one column is generated and stored in the storage device 18 or output to the outside via the communication interface unit 14. On the other hand, at the time of image decoding processing, the control unit 11
Separates the image data and the audio data from the bit stream read from the storage device 18 or the bit stream input externally through the communication interface unit 14 and transfers them to the image codec unit 15 or the audio codec unit 16, respectively. I do.

【0115】入力装置12は、例えば、カーソルキー、
数字入力キー及び各種機能キー等を備えたキーボード
と、ポインティングデバイスであるマウスと、を備え、
キーボードで押下されたキーの押下信号を制御部11に
出力するとともに、マウスによる操作信号を制御部11
に出力する。
The input device 12 includes, for example, cursor keys,
A keyboard with numeric input keys and various function keys, and a mouse as a pointing device,
A signal for pressing a key pressed on the keyboard is output to the control unit 11, and an operation signal from a mouse is output to the control unit 11.
Output to

【0116】表示装置13は、CRT、液晶表示装置等
により構成され、制御部11から入力される表示制御信
号に従って、表示データを表示する。また、表示装置1
3は、画像コーデック部15によって復号化された画像
データに従って、画像表示を行う。
The display device 13 is composed of a CRT, a liquid crystal display device and the like, and displays display data according to a display control signal input from the control unit 11. Also, the display device 1
3 performs image display according to the image data decoded by the image codec unit 15.

【0117】通信インタフェース部14は、モデム(M
ODEM:MOdulator/DEModulator)、ターミナルアダ
プタ(TA:Terminal Adapter)、またはルーター等に
よって構成され、電話回線、ISDN回線、あるいは専
用回線等の通信回線を介して外部機器との通信を行うた
めの制御を行う。
The communication interface unit 14 has a modem (M
ODEM: MOdulator / DEModulator, terminal adapter (TA), or router, etc., and controls communication with external devices via communication lines such as telephone lines, ISDN lines, or dedicated lines. Do.

【0118】画像コーデック部15は、記憶装置18内
の記憶媒体19に格納された画像データ、ビデオカメラ
(図示外)から入力された画像データ等の符号化を行
う。すなわち、画像コーデック部15は、入力された画
像データのn番目のフレームであるFrame(n)に
ついて、一つ前のフレームであるFrame(n−1)
を参照元としてMEを計算した結果に基づいて、後述す
るように、図9に示すようなcase1の場合には、従
来の符号化処理と同様に、図10に示すような手順でブ
ロック単位の符号化を行い、case2の場合には、予
測画像を生成せずに、図11に示すような手順でブロッ
ク単位の符号化を行いIDCT演算を適宜省略する。
The image codec 15 encodes image data stored in the storage medium 19 in the storage device 18, image data input from a video camera (not shown), and the like. That is, the image codec unit 15 outputs the immediately preceding frame, Frame (n-1), for Frame (n), which is the n-th frame of the input image data.
As described later, based on the result of calculating the ME with the reference source as the reference source, in case 1 as shown in FIG. 9, in the same manner as the conventional encoding process, the block unit in the procedure as shown in FIG. Encoding is performed, and in case 2, without generating a predicted image, encoding is performed in block units according to the procedure shown in FIG. 11 and the IDCT operation is omitted as appropriate.

【0119】画像コーデック部15は、前記case2
の場合には、図11を参照して後述するように、まず、
入力されたFrame(n−1)の入力画像PのDCT
を計算し(DCT演算部15h)、DCT係数Hと参照
先のFrame(n−2)の予測DCT係数Nとの差分
を計算する(減算部15i)。そして、算出されたDC
T係数の差分DCT係数Iを量子化し(量子化部15
j)、符号化ブロックJを生成する。そして、このca
se2の場合には、同一位置のブロックを処理するため
に、DCTブロック内の同一周波数の係数の計算を行う
こととなり、DCTの線形性を利用することができ、I
DCTの計算を行う必要がない。すなわち、符号化ブロ
ックJを逆量子化し(逆量子化部15k)、DCT係数
Kの形のまま、参照先のFrame(n−2)の予測D
CT係数Nを加算して(加算部15m)、次のフレーム
のための予測DCT係数MをDelay15nに入力す
る。
[0119] The image codec unit 15
In the case of, as described later with reference to FIG.
DCT of input image P of input Frame (n-1)
Is calculated (DCT operation unit 15h), and the difference between the DCT coefficient H and the predicted DCT coefficient N of Frame (n-2) of the reference destination is calculated (subtraction unit 15i). And the calculated DC
The difference DCT coefficient I of the T coefficient is quantized (quantization unit 15
j), generate a coded block J. And this ca
In the case of se2, coefficients of the same frequency in the DCT block are calculated in order to process the blocks at the same position, and the linearity of the DCT can be used.
There is no need to perform DCT calculations. That is, the coded block J is inversely quantized (the inverse quantization unit 15k), and the prediction D of the reference destination Frame (n−2) remains in the form of the DCT coefficient K.
The CT coefficient N is added (adding unit 15m), and the predicted DCT coefficient M for the next frame is input to the Delay 15n.

【0120】また、画像コーデック部15は、前述のよ
うな符号化アルゴリズムに対応する復号化アルゴリズム
に従って、制御部11によって符号化音声データと分離
された符号化画像データの復号化処理を行う。
The image codec 15 decodes encoded image data separated from encoded audio data by the control unit 11 according to a decoding algorithm corresponding to the above-described encoding algorithm.

【0121】音声コーデック部16は、画像コーデック
部15によって符号化される画像符号化データに付加す
る音声の符号化を行い、符号化された音声データを制御
部11へ転送する。また、音声コーデック部16は、制
御部11によって符号化画像データと分離された符号化
音声データの復号化処理を行う。
The audio codec unit 16 encodes audio to be added to the encoded image data encoded by the image codec unit 15, and transfers the encoded audio data to the control unit 11. Further, the audio codec unit 16 performs a decoding process on the encoded audio data separated from the encoded image data by the control unit 11.

【0122】RAM17は、指定されたアプリケーショ
ンプログラム、入力指示、入力データ及び処理結果等を
格納するワークメモリを有する。
The RAM 17 has a work memory for storing designated application programs, input instructions, input data, processing results, and the like.

【0123】記憶装置18は、プログラムやデータ等が
予め記憶されている記憶媒体19を有しており、この記
憶媒体19は磁気的、光学的記録媒体、若しくは半導体
メモリで構成されている。この記憶媒体19は記憶装置
18に固定的に設けたもの、若しくは着脱自在に装着す
るものであり、この記憶媒体19には当該画像符号化装
置10に対応する各種アプリケーションプログラム、ブ
ロック符号化処理1及びブロック符号化処理2を含む画
像符号化処理プログラム、各処理プログラムで処理され
たデータ、及び画像符号化データ等を記憶する。
The storage device 18 has a storage medium 19 in which programs, data and the like are stored in advance, and this storage medium 19 is constituted by a magnetic or optical recording medium or a semiconductor memory. The storage medium 19 is fixedly provided on the storage device 18 or is detachably mounted. The storage medium 19 includes various application programs corresponding to the image encoding device 10 and a block encoding process 1. And an image encoding processing program including block encoding processing 2, data processed by each processing program, image encoded data, and the like.

【0124】また、この記憶媒体19に記憶するプログ
ラム、データ等は、通信回線等を介して接続された他の
機器から受信して記憶する構成にしてもよく、更に、通
信回線等を介して接続された他の機器側に上記記憶媒体
19を備えた記憶装置を設け、この記憶媒体19に記憶
されているプログラム、データ等を通信回線を介して使
用する構成にしてもよい。
The program, data, and the like stored in the storage medium 19 may be received and stored from another device connected via a communication line or the like, and may be stored via the communication line or the like. A storage device having the storage medium 19 may be provided on the other connected device side, and a program, data, and the like stored in the storage medium 19 may be used via a communication line.

【0125】次に動作を説明する。図9〜図11は、本
実施の形態における画像符号化装置10の画像コーデッ
ク部15によって行われるブロック単位の画像符号化処
理の概略を説明するための図である。なお、前記第2の
実施の形態と同様に、以下の説明においてBKn,jは、
nフレーム目の、jブロックを意味している。また、前
述したように本実施形態では、inter画像のみ適用
可能であるので、inter画像に発明の特徴を絞った
説明となっている。
Next, the operation will be described. FIG. 9 to FIG. 11 are diagrams for explaining the outline of the block-based image encoding process performed by the image codec unit 15 of the image encoding device 10 according to the present embodiment. Note that, in the following description, BKn, j is similar to the second embodiment.
It means the j-th block in the n-th frame. Further, as described above, in the present embodiment, since only the inter image can be applied, the description focuses on the features of the invention to the inter image.

【0126】画像コーデック部15は、入力された画像
データのn番目のフレームであるFrame(n)につ
いて、一つ前のフレームであるFrame(n−1)を
参照元としてMEを計算した結果に基づいて、図9に示
すようなcase1、case2の二通りの場合に分類
して処理を行う。
The image codec unit 15 calculates the ME of Frame (n), which is the n-th frame of the input image data, using Frame (n−1), which is the immediately preceding frame, as a reference source. Based on this, processing is performed by classifying into two cases, case 1 and case 2 as shown in FIG.

【0127】すなわち、Frame(n−1)の各ブロ
ックBKn-1,j について、case1のようにFram
e(n)の他の位置のブロックBKn,x から参照されて
いるブロックの場合と、case2のようにFrame
(n)の同一位置のブロックBKn,j から参照されてい
るブロックの場合との二通りの場合に分類する。そし
て、case1の場合には、従来の符号化処理と同様
に、図10に示すような手順でブロック単位の符号化を
行い、case2の場合には、予測画像を生成せずに、
図11に示すような手順でブロック単位の符号化を行い
IDCT演算を適宜省略する。
That is, for each block BKn-1, j of Frame (n-1), Frame
In the case of a block referred to from a block BKn, x at another position of e (n), a frame such as case2 is used.
The case is classified into two cases, namely, the case of the block referred to from the block BKn, j at the same position in (n). Then, in case 1, encoding is performed in block units in the procedure shown in FIG. 10 as in the conventional encoding process. In case 2, a predicted image is generated without generating a predicted image.
Encoding in block units is performed by the procedure shown in FIG. 11, and the IDCT operation is omitted as appropriate.

【0128】図10は、case1の場合(従来と同
様)において、ME計算後のDCT以降の演算処理の流
れを示すブロック図である。この図10において、画像
コーデック部15は、Frame(n)の各ブロックを
符号化する際には、Frame(n−1)のcase1
に該当するブロックについて以下の手順で処理を行う。
FIG. 10 is a block diagram showing the flow of arithmetic processing after DCT after ME calculation in case 1 (similar to the conventional case). In FIG. 10, when encoding each block of Frame (n), the image codec unit 15 uses case1 of Frame (n−1).
Is processed in the following procedure for the block corresponding to.

【0129】まず、入力されたFrame(n−1)の
入力画像Pと参照先のFrame(n−2)の予測画像
Gとの差分を計算する(減算部15a)。そして、算出
された差分画像AのDCTを計算し(DCT演算部15
b)、更に、算出されたDCT係数Bを量子化し(量子
化部15c)、符号化ブロックCを生成する。
First, a difference between the input image P of the input Frame (n-1) and the predicted image G of the reference frame (n-2) is calculated (subtraction unit 15a). Then, the DCT of the calculated difference image A is calculated (DCT calculation unit 15
b) Further, the calculated DCT coefficient B is quantized (quantization unit 15c) to generate a coded block C.

【0130】そして、予測画像生成のための局所符号化
として、符号化ブロックCを逆量子化し(逆量子化部1
5d)、更に、IDCTを計算し(IDCT演算部15
e)、減算部15aにて減算した参照先のFrame
(n−2)の予測画像Gを加算して(加算部15f)、
次のフレームのための予測画像Fを予測器15gに入力
する。すなわち、case1の場合には、Frame
(n−1)の予測画像を生成するためにIDCT演算を
必要としている。
Then, as local encoding for generating a predicted image, the coded block C is inversely quantized (the inverse quantization unit 1).
5d) Further, an IDCT is calculated (IDCT operation unit 15).
e), the reference destination Frame subtracted by the subtraction unit 15a
The (n-2) predicted image G is added (adding unit 15f),
The predicted image F for the next frame is input to the predictor 15g. That is, in case 1, Frame
An IDCT operation is required to generate the (n-1) predicted image.

【0131】図11は、case2の場合(本実施形態
の特徴部分)において、ME計算後のDCT以降の演算
処理の流れを示すブロック図である。この図11におい
て、画像コーデック部15は、Frame(n)の各ブ
ロックを符号化する際には、Frame(n−1)のc
ase2に該当するブロックについて以下の手順で処理
を行う。
FIG. 11 is a block diagram showing the flow of arithmetic processing after DCT after ME calculation in case 2 (characteristic part of the present embodiment). In FIG. 11, the image codec unit 15 encodes each block of Frame (n) by using c of Frame (n−1).
The block corresponding to case 2 is processed according to the following procedure.

【0132】まず、入力されたFrame(n−1)の
入力画像PのDCTを計算し(DCT演算部15h)、
DCT係数Hと参照先のFrame(n−2)の予測D
CT係数Nとの差分を計算する(減算部15i)。そし
て、算出されたDCT係数の差分DCT係数Iを量子化
し(量子化部15j)、符号化ブロックJを生成する。
First, the DCT of the input image P of the input Frame (n-1) is calculated (DCT operation unit 15h).
DCT coefficient H and prediction D of Frame (n-2) of reference destination
The difference from the CT coefficient N is calculated (subtraction unit 15i). Then, the difference DCT coefficient I of the calculated DCT coefficient is quantized (a quantization unit 15j) to generate a coded block J.

【0133】そして、case2の場合には、同一位置
のブロックを処理するために(すなわち、動きの無い前
フレームと同一のブロック)、DCTブロック内の同一
周波数の係数の計算を行うこととなり、DCTの線形性
を利用することができ、IDCTの計算を行う必要がな
い。すなわち、符号化ブロックJを逆量子化し(逆量子
化部15k)、DCT係数Kの形のまま、参照先のFr
ame(n−2)の予測DCT係数Nを加算して(加算
部15m)、次のフレームのための予測DCT係数Mを
予測器15nに入力する。このことにより、多くの演算
量を必要とするIDCTの計算を省略することができ、
画像符号化処理全体の高速化を実現することができる。
In case 2, in order to process the block at the same position (ie, the same block as the previous frame without motion), the coefficient of the same frequency in the DCT block is calculated. , And there is no need to calculate the IDCT. That is, the coding block J is inversely quantized (inverse quantization unit 15k), and the reference Fr is kept in the form of the DCT coefficient K.
The predicted DCT coefficient N for ame (n−2) is added (adding unit 15m), and the predicted DCT coefficient M for the next frame is input to the predictor 15n. As a result, it is possible to omit the calculation of the IDCT which requires a large amount of calculation,
Speeding up of the entire image encoding process can be realized.

【0134】次に、以上説明した概略を参考にしつつ、
本実施の形態における画像符号化装置10の動作を、図
12〜図14を参照して詳細に説明する。図12は、本
実施の形態における画像符号化装置10の画像コーデッ
ク部15によって実行される画像符号化処理を示すフロ
ーチャートである。
Next, while referring to the outline described above,
The operation of the image encoding device 10 according to the present embodiment will be described in detail with reference to FIGS. FIG. 12 is a flowchart illustrating an image encoding process performed by the image codec unit 15 of the image encoding device 10 according to the present embodiment.

【0135】この図12において、画像コーデック部1
5は、まず、入力された最初のフレームFrame0を
符号化する(ステップS101)。そして、n=1とし
て(ステップS102)、以下ステップS103〜ステ
ップS108において、nの値をインクリメントするこ
とによって、画像データのFrame(n)を順次符号
化する。
In FIG. 12, image codec 1
5 first encodes the input first frame Frame0 (step S101). Then, n is set to 1 (step S102), and in steps S103 to S108, Frame (n) of the image data is sequentially encoded by incrementing the value of n.

【0136】Frame(n)を符号化する際には、画
像コーデック部15は、まず、一つ前のフレームFra
me(n−1)を参照先とするFrame(n)の例え
ば、16×16の各ブロックのMEを計算する(ステッ
プS103)。
When encoding the Frame (n), the image codec 15 first sets the previous frame Fra.
For example, the ME of each 16 × 16 block of Frame (n) with reference to me (n−1) is calculated (step S103).

【0137】次いで、画像コーデック部15は、Fra
me(n)の各ブロックBKn,j について、BKn,j 側
のMCが0であるか否か、すなわち、BKn,j がFra
me(n−1)の同一位置のブロックBKn-1,j を参照
しているか否かを判別する(ステップS104)。そし
て、MCが0であると判別されたBKn,j に対しては
(ステップS104;YES)、後述するブロック符号
化処理1(図13参照)を実行し(ステップS10
5)、MCが0でないと判別されたBKn,j に対しては
(ステップS104;NO)、後述するブロック符号化
処理2(図14参照)を実行する(ステップS10
6)。
Next, the image codec unit 15
For each block BKn, j of me (n), whether MC on the BKn, j side is 0, that is, if BKn, j is Fra
It is determined whether or not the block BKn-1, j at the same position of me (n-1) is referenced (step S104). Then, for BKn, j for which it is determined that MC is 0 (step S104; YES), block encoding processing 1 (see FIG. 13) described later is executed (step S10).
5) For BKn, j for which it is determined that MC is not 0 (step S104; NO), block encoding processing 2 (see FIG. 14) described later is executed (step S10).
6).

【0138】ブロック符号化処理1またはブロック符号
化処理2を終了すると、画像コーデック部15は、次の
フレームが入力されたか否かによって画像符号化を終了
するか否かを判別し(ステップS107)、終了である
と判別された場合には(ステップS107;YES)、
一連の画像符号化処理を終了し、終了でないと判別され
た場合には(ステップS107;NO)、nの値をイン
クリメントして(ステップS108)、次のフレームに
対するステップS103〜ステップS107のループ処
理へと移行する。
When the block encoding process 1 or the block encoding process 2 ends, the image codec unit 15 determines whether to end the image encoding based on whether the next frame has been input (step S107). If it is determined that the processing has ended (step S107; YES),
When a series of image encoding processes is completed and it is determined that the process is not completed (step S107; NO), the value of n is incremented (step S108), and a loop process of steps S103 to S107 for the next frame is performed. Move to.

【0139】図13は、図12に示す画像符号化処理内
の処理として画像コーデック部15が実行するブロック
符号化処理1を示すフローチャートである。この図13
に示すフローチャートは、前述した図11に対応する処
理を示すため、以下、図11を参照しつつ説明する。な
お、以下、BKのDCT係数を*BKと表現することと
する。
FIG. 13 is a flowchart showing a block encoding process 1 executed by the image codec unit 15 as a process in the image encoding process shown in FIG. This FIG.
The flowchart shown in FIG. 11 shows the processing corresponding to FIG. 11 described above, and will be described below with reference to FIG. Hereinafter, the DCT coefficient of BK is represented as * BK.

【0140】この図13において、画像コーデック部1
5は、まず、BKn,j と同一位置のBKn-1,j につい
て、Frame(n−2)のブロックに対するMCが0
であるか否か、すなわち、BKn-1,j がFrame(n
−2)の同一位置のブロックBKn-2,j を参照している
か否かを判別し(ステップS201)、MCが0でない
と判別された場合には(ステップS201;NO)、後
述するブロック符号化処理2により、予測画像となる参
照先のブロックBKn-2,x は、既にIDCTの計算を終
了してしまっているので、BKn-2,x のDCTを計算し
て*BKn-2,x を算出する(ステップS202)。
In FIG. 13, image codec 1
5 is that, for BKn-1, j at the same position as BKn, j, the MC for the Frame (n-2) block is 0.
Whether BKn-1, j is Frame (n
It is determined whether or not the block BKn-2, j at the same position in (-2) is referred to (step S201). If it is determined that MC is not 0 (step S201; NO), a block code to be described later is used. Since the IDCT calculation has already been completed for the reference block BKn-2, x serving as the predicted image by the conversion process 2, the DCT of BKn-2, x is calculated to calculate * BKn-2, x Is calculated (step S202).

【0141】一方、MCが0であると判別された場合に
は(ステップS201;YES)、Frame(n−
1)の符号化時にBKn-2,j は、DCT係数のまま保持
されているので、DCTの計算を行わない。そして、前
記ステップS201における判別結果がいずれの結果で
あっても、上記の処理により図11に示す加算部15m
には、予測画像に基づく予測DCT係数Nとして*BK
n-2,j が用意されていることとなる。
On the other hand, when it is determined that MC is 0 (step S201; YES), Frame (n-
Since BKn-2, j is held as a DCT coefficient during the encoding of 1), the DCT calculation is not performed. Then, regardless of the result of the determination in step S201, the processing described above causes the addition unit 15m shown in FIG.
Has * BK as a predicted DCT coefficient N based on the predicted image.
This means that n-2, j is prepared.

【0142】そして、画像コーデック部15は、図11
に示す逆量子化部15kから加算部15mに入力される
DCT係数K(=*BKn-1,j −*BKn-2,z (z =j
またはx ))と、前記予測画像に基づく予測DCT係数
N(=*BKn-2,z )とを加算する(加算部15m)こ
とによって、予測DCT係数M(=*BKn-1,j )、す
なわち、BKn-1,j のDCT係数を算出する(ステップ
S203)。また、入力画像P(=Frame(n)の
BKn,j )に対しては、図11に示すDCT演算部15
hにおいてDCTの計算を行ってDCT係数H(=*B
Kn,j )を算出し(ステップS204)、更に、DCT
演算部15hから入力されるBKn,j のDCT係数と予
測器15nから入力されるBKn-1,j のDCT係数との
差分DCT係数I(=*BKn,j −*BKn-1,j )を算
出して(減算部15i)、この差分DCT係数Iを量子
化(量子化部15j)した後、符号化ブロックJを制御
部11へ転送する、あるいは、通信インタフェース部1
4を介して通信路へ出力する(ステップS205)。
Then, the image codec unit 15
The DCT coefficient K (= * BKn-1, j- * BKn-2, z (z = j) input from the inverse quantization unit 15k to the addition unit 15m shown in FIG.
Or x)) and a predicted DCT coefficient N (= * BKn-2, z) based on the predicted image (adding unit 15m), thereby obtaining a predicted DCT coefficient M (= * BKn-1, j); That is, the DCT coefficient of BKn-1, j is calculated (step S203). For the input image P (= BKn, j of Frame (n)), the DCT operation unit 15 shown in FIG.
h, the DCT is calculated and the DCT coefficient H (= * B
Kn, j) (step S204), and the DCT
The difference DCT coefficient I (= * BKn, j- * BKn-1, j) between the DCT coefficient of BKn, j input from the operation unit 15h and the DCT coefficient of BKn-1, j input from the predictor 15n is calculated. After calculating (subtraction unit 15i) and quantizing the difference DCT coefficient I (quantization unit 15j), the encoded block J is transferred to the control unit 11, or the communication interface unit 1
4 to the communication path (step S205).

【0143】また、次のフレームFrame(n+1)
の各ブロックBKn+1,j の予測を行うための局部復号化
として、符号化ブロックJを逆量子化部15kによって
逆量子化して(ステップS206)、一連のブロック符
号化処理1を終了する。以上の処理においては、時間軸
上での同一位置のブロックを処理するために、DCTブ
ロック内の同一周波数の係数の計算を行うこととなり、
DCTの線形性を利用することができ、IDCTの計算
を省略することを可能としている。
Further, the next frame Frame (n + 1)
As local decoding for predicting each block BKn + 1, j, the coded block J is inversely quantized by the inverse quantization unit 15k (step S206), and a series of block encoding processes 1 is completed. In the above processing, in order to process blocks at the same position on the time axis, coefficients of the same frequency in the DCT block are calculated,
The linearity of DCT can be used, and the calculation of IDCT can be omitted.

【0144】図14は、図12に示す画像符号化処理内
の処理として画像コーデック部15が実行するブロック
符号化処理2を示すフローチャートである。この図14
に示すフローチャートは、前述した図10に対応する処
理を示すため、以下、図10を参照しつつ説明する。
FIG. 14 is a flowchart showing a block encoding process 2 executed by the image codec 15 as a process in the image encoding process shown in FIG. This FIG.
The flowchart shown in FIG. 10 shows the processing corresponding to FIG. 10 described above, and will be described below with reference to FIG.

【0145】この図14において、画像コーデック部1
5は、まず、BKn,j を符号化する際の予測画像を生成
するために、MCに基づいて、Frame(n−1)の
参照ブロックBKn-1,x を局部復号化する。その際、画
像コーデック部15は、BKn-1,x を符号化する過程で
算出されているDCT係数D(=*BKn-1,x −*BK
n-2,y )のIDCTを、図10に示すIDCT演算部1
5eによって計算して差分画像E(=BKn-1,x −BK
n-2,y )を算出する(ステップS301)。
In FIG. 14, image codec unit 1
5 first locally decodes the reference block BKn-1, x of Frame (n-1) based on the MC in order to generate a predicted image when BKn, j is encoded. At this time, the image codec unit 15 converts the DCT coefficient D (= * BKn-1, x- * BK) calculated in the process of encoding BKn-1, x.
n-2, y) by the IDCT operation unit 1 shown in FIG.
5e to calculate the difference image E (= BKn-1, x−BK
n-2, y) is calculated (step S301).

【0146】次いで、画像コーデック部15は、BKn-
1,x と、BKn-1,x が参照するFrame(n−2)の
ブロックBKn-2,y とのMCが0であるか否か、すなわ
ち、x =y であるか否かを判別する(ステップS30
2)。MCが0であると判別された場合には(ステップ
S302;YES)、BKn-1,x が前述のブロック符号
化処理1によって符号化を行われることにより、BKn-
2,y はDCT係数の形(予測DCT係数M=*BKn-2,
y )で予測器15nに保持されているため、*BKn-2,
y のIDCTを計算してBKn-2,y を算出する(ステッ
プS303)。また、MCが0でないと判別された場合
には(ステップS302;NO)、BKn-1,x が本ブロ
ック符号化処理2によって符号化を行われることによ
り、BKn-2,y は復号された画像の形(予測画像F=B
Kn-2,y )で予測器15gに保持されているため、ID
CTの計算を行う必要はない。
Next, the image codec unit 15 outputs the BKn-
It is determined whether or not the MC of 1, x and the block BKn-2, y of Frame (n-2) referred to by BKn-1, x is 0, that is, whether x = y. (Step S30
2). If it is determined that MC is 0 (step S302; YES), BKn−1, x is encoded by the above-described block encoding process 1, and BKn−x is thus encoded.
2, y is the DCT coefficient form (predicted DCT coefficient M = * BKn-2,
y), it is held in the predictor 15n, so * BKn-2,
BKn-2, y is calculated by calculating the IDCT of y (step S303). When it is determined that MC is not 0 (step S302; NO), BKn-1, x is coded by the block coding process 2, and BKn-2, y is decoded. Image shape (predicted image F = B
Kn-2, y), which is stored in the predictor 15g,
There is no need to perform CT calculations.

【0147】更に、画像コーデック部15は、図10に
示すIDCT演算部15eから加算部15fに入力され
る差分画像E(=BKn-1,x −BKn-2,y )と、前記B
Kn-2,y とを加算する(加算部15f)ことによって、
予測画像F(=BKn-1,x )を算出する(ステップS3
04)。
The image codec unit 15 further includes a difference image E (= BKn-1, x-BKn-2, y) input from the IDCT operation unit 15e shown in FIG.
By adding Kn-2, y (adding unit 15f),
Calculate the predicted image F (= BKn-1, x) (step S3)
04).

【0148】そして、画像コーデック部15は、入力画
像P(=Frame(n)のBKn,j )と、予測器15
gから入力されるBKn-1,x との差分画像A(=BKn,
j −BKn-1,x )を算出して(減算部15a)、この差
分画像AのDCTをDCT演算部15bによって計算し
(ステップS305)、更に、算出されたDCT係数B
を量子化(量子化部15c)した後、符号化ブロックC
を制御部11へ転送する、あるいは、通信インタフェー
ス部14を介して通信路へ出力する(ステップS30
6)。
Then, the image codec unit 15 outputs the input image P (= BKn, j of Frame (n)) and the predictor 15
The difference image A from BKn-1, x input from g (= BKn,
j -BKn-1, x) (subtraction unit 15a), the DCT of the difference image A is calculated by the DCT calculation unit 15b (step S305), and the calculated DCT coefficient B
Is quantized (quantization unit 15c), and then the encoded block C
Is transferred to the control unit 11 or output to the communication path via the communication interface unit 14 (step S30).
6).

【0149】また、次のフレームFrame(n+1)
の各ブロックBKn+1,j の予測を行うための局部復号化
として、符号化ブロックCを逆量子化部15dによって
逆量子化して(ステップS307)、一連のブロック符
号化処理2を終了する。
Further, the next frame Frame (n + 1)
As local decoding for predicting each block BKn + 1, j, the coded block C is inversely quantized by the inverse quantization unit 15d (step S307), and a series of block encoding processes 2 ends.

【0150】以上のようなブロック符号化1、または、
ブロック符号化処理2を適宜使い分けて画像符号化処理
が行われるが、実際の画像符号化処理においては、ME
計算の結果、MCが同一位置のブロックを参照するブロ
ック(MC=0)が連続して発生することが非常に多い
ことが知られている。そのため、図12に示す画像符号
化処理を行った場合、多数のIDCT演算を省略するこ
とができる。
The block encoding 1 as described above, or
The image encoding process is performed by appropriately using the block encoding process 2, but in the actual image encoding process, ME
It is known that, as a result of the calculation, blocks (MC = 0) in which MC refers to a block at the same position are continuously generated. Therefore, when the image encoding process shown in FIG. 12 is performed, many IDCT operations can be omitted.

【0151】以上説明したように、本発明の画像符号化
方法を適用した第3の実施の形態の画像符号化装置によ
れば、画像コーデック部15は、前記case2の場合
には、図11に示すように、まず、入力されたFram
e(n−1)の入力画像PのDCTを計算し(DCT演
算部15h)、DCT係数Hと参照先のFrame(n
−2)の予測DCT係数Nとの差分を計算する(減算部
15i)。そして、算出されたDCT係数の差分DCT
係数Iを量子化し(量子化部15j)、符号化ブロック
Jを生成する。そして、このcase2の場合には、同
一位置のブロックを処理するために、DCTブロック内
の同一周波数の係数の計算を行うこととなり、DCTの
線形性を利用することができ、IDCTの計算を行う必
要がない。すなわち、符号化ブロックJを逆量子化し
(逆量子化部15k)、DCT係数Kの形のまま、参照
先のFrame(n−2)の予測DCT係数Nを加算し
て(加算部15m)、次のフレームのための予測DCT
係数Mを予測器15nに入力する。
As described above, according to the image encoding apparatus of the third embodiment to which the image encoding method of the present invention is applied, the image codec unit 15 in FIG. As shown, first, the input Frame
The DCT of the input image P of e (n-1) is calculated (DCT calculation unit 15h), and the DCT coefficient H and the reference Frame (n) are calculated.
The difference from the predicted DCT coefficient N of -2) is calculated (subtraction unit 15i). Then, the difference DCT between the calculated DCT coefficients is calculated.
The coefficient I is quantized (a quantization unit 15j) to generate a coded block J. In case 2, in order to process blocks at the same position, coefficients of the same frequency in the DCT block are calculated, so that the linearity of the DCT can be used and the IDCT is calculated. No need. That is, the coding block J is inversely quantized (the inverse quantization unit 15k), and the prediction DCT coefficient N of the reference frame (n−2) is added in the form of the DCT coefficient K (addition unit 15m). Predicted DCT for next frame
The coefficient M is input to the predictor 15n.

【0152】したがって、MEの計算結果に基づいて、
MCが一つ前のフレームの同一位置のブロックを参照し
ているという条件を満たすブロックに対しては、DCT
の線形性を利用して、入力画像と予測画像の差分の代わ
りに、入力画像のDCT係数と予測画像のDCT係数の
差分を算出することができるため、前記条件を満たすブ
ロックが連続して出現する場合には、演算量の多いID
CTの計算を省略することができ、画像符号化処理の高
速化を図ることができる。
Therefore, based on the calculation result of ME,
For blocks satisfying the condition that the MC refers to the block at the same position in the previous frame, DCT
Can be used to calculate the difference between the DCT coefficient of the input image and the DCT coefficient of the predicted image instead of the difference between the input image and the predicted image. If you want to
The calculation of CT can be omitted, and the speed of the image encoding process can be increased.

【0153】また、このことにより、画像コーデック部
15として高性能のプロセッサー等を利用しなくても、
安価なプロセッサーによって画像符号化処理を実用的な
速度で行うことができるため、画像符号化装置10の製
造コストを低下させることができる。
Further, even if a high-performance processor or the like is not used as the image codec unit 15,
Since the image encoding process can be performed at a practical speed by an inexpensive processor, the manufacturing cost of the image encoding device 10 can be reduced.

【0154】なお、上記第3の実施の形態においては、
画像データを符号化するための演算としてDCTを利用
する場合について説明したが、一般にブロック符号化に
利用されるその他の直交変換演算を利用して画像データ
を符号化することとしてもよい。
Note that in the third embodiment,
Although the case where DCT is used as an operation for encoding image data has been described, image data may be encoded using other orthogonal transformation operations generally used for block encoding.

【0155】[0155]

【発明の効果】請求項1記載の発明によれば、スキップ
後のフレームを復号化するために必要なブロックのみに
対して所定の復号化処理を実行することができるため、
スキップ再生時の処理量を減少させ、高速なスキップ再
生を実現することができる。また、このことにより、C
PUの処理能力不足のために、音声データとの同期が取
れないといった問題をも解消することができる。
According to the first aspect of the present invention, a predetermined decoding process can be executed only on blocks necessary for decoding a frame after skipping.
The amount of processing at the time of skip reproduction can be reduced, and high-speed skip reproduction can be realized. This also allows C
The problem that synchronization with audio data cannot be achieved due to insufficient processing capacity of the PU can also be solved.

【0156】請求項2記載の発明によれば、前後のフレ
ーム内の異なる位置のブロックと参照、被参照関係にな
く、フレーム内の同位置のブロックのみを参照している
複数フレームにわたる複数のブロックに対して復号化処
理を一度にまとめて実行できるため、スキップ再生時の
処理量を減少させ、高速なスキップ再生を実現すること
ができる。また、このことにより、CPUの処理能力不
足のために、音声データとの同期が取れないといった問
題をも解消することができる。
According to the second aspect of the present invention, a plurality of blocks extending over a plurality of frames referencing only a block at the same position in a frame without reference to and reference to a block at a different position in the preceding and succeeding frames. , Decoding processing can be performed at once, so that the amount of processing at the time of skip reproduction can be reduced and high-speed skip reproduction can be realized. This also solves the problem that synchronization with audio data cannot be achieved due to insufficient processing capacity of the CPU.

【0157】請求項3記載の発明の画像符号化装置、ま
たは、請求項4記載の発明の画像符号化方法によれば、
動きベクトルの算出結果に基づいて、動きベクトルが一
つ前のフレームの同一位置のブロックを参照していると
いう条件を満たすブロックに対しては、例えばDCT等
の所定の直交変換演算の線形性を利用して、入力画像と
予測画像の差分の代わりに、入力画像の直交変換係数
(例えばDCT係数)と予測画像の直交変換係数の差分
を算出することができるため、前記条件を満たすブロッ
クが連続して出現する場合には、演算量の多い例えばI
DCT等の前記所定の直交変換演算の逆変換の計算を省
略することができ、画像符号化処理の高速化を図ること
ができる。また、このことにより、高性能のプロセッサ
ー等を利用しなくても、安価なプロセッサーによって画
像符号化処理を実用的な速度で行うことができるため、
画像符号化装置の製造コストを低下させることができ
る。
According to the image coding apparatus of the invention described in claim 3 or the image coding method of the invention described in claim 4,
Based on the motion vector calculation result, for a block satisfying the condition that the motion vector refers to the block at the same position in the previous frame, for example, the linearity of a predetermined orthogonal transform operation such as DCT is determined. The difference between the orthogonal transform coefficient (for example, DCT coefficient) of the input image and the orthogonal transform coefficient of the predicted image can be calculated instead of the difference between the input image and the predicted image. Appear, the calculation amount is large, for example, I
The calculation of the inverse transform of the predetermined orthogonal transform operation such as DCT can be omitted, and the image encoding process can be speeded up. In addition, this makes it possible to perform image encoding processing at a practical speed with an inexpensive processor without using a high-performance processor or the like,
The manufacturing cost of the image encoding device can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像再生方法を適用した画像再生装置
1の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an image reproducing apparatus 1 to which an image reproducing method according to the present invention is applied.

【図2】本発明の画像再生方法の原理を簡単に説明する
ために、2次元の画像を1次元として見る方向を示す
図。
FIG. 2 is a view showing a direction in which a two-dimensional image is viewed as one-dimensional in order to briefly explain the principle of the image reproducing method of the present invention.

【図3】本発明の画像再生方法の原理を簡単に説明する
ために、1次元の場合の、1フレームスキップ処理につ
いて説明するための図。
FIG. 3 is a diagram for explaining one-frame skip processing in a one-dimensional case in order to briefly explain the principle of the image reproducing method of the present invention.

【図4】本発明の第1の実施の形態の画像再生方法を適
用した画像再生装置1によるnフレームスキップ処理の
手順を示すフローチャート。
FIG. 4 is a flowchart illustrating a procedure of n-frame skip processing by the image reproducing apparatus 1 to which the image reproducing method according to the first embodiment of the present invention is applied.

【図5】図4の手順において、n=3の場合においての
デコード順序を説明する図である。
FIG. 5 is a diagram illustrating a decoding order when n = 3 in the procedure of FIG. 4;

【図6】本発明の第2の実施の形態の画像再生方法を適
用した画像再生装置によるnフレームスキップ処理の手
順を示すフローチャート。
FIG. 6 is a flowchart showing a procedure of n-frame skip processing by an image reproducing apparatus to which the image reproducing method according to the second embodiment of the present invention is applied.

【図7】図6の手順において、n=4の場合においての
デコード順序を説明する図である。
FIG. 7 is a diagram illustrating a decoding order in a case where n = 4 in the procedure of FIG. 6;

【図8】本発明の画像符号化方法を適用した画像符号化
装置10の構成を示すブロック図である。
FIG. 8 is a block diagram illustrating a configuration of an image encoding device 10 to which the image encoding method of the present invention has been applied.

【図9】本発明の画像符号化方法における符号化処理に
おいて、処理方法を分類するcase1、case2の
二通りの場合を示す図である。
FIG. 9 is a diagram showing two cases, case 1 and case 2, for classifying the processing methods in the encoding processing in the image encoding method of the present invention.

【図10】図9に示すcase1の場合において、ME
計算後のDCT以降の演算処理の流れを示すブロック図
である。
10 is a diagram illustrating a case 1 in case 1 shown in FIG.
It is a block diagram showing the flow of the arithmetic processing after DCT after calculation.

【図11】図9に示すcase2の場合において、ME
計算後のDCT以降の演算処理の流れを示すブロック図
である。
11 is a diagram illustrating a case 2 in case 2 shown in FIG.
It is a block diagram showing the flow of the arithmetic processing after DCT after calculation.

【図12】本発明の画像符号化方法を適用した画像符号
化装置10の画像コーデック部15によって実行される
画像符号化処理を示すフローチャートである。
FIG. 12 is a flowchart illustrating an image encoding process performed by the image codec unit 15 of the image encoding device 10 to which the image encoding method of the present invention has been applied.

【図13】図12に示す画像符号化処理内の処理として
画像コーデック部15が実行するブロック符号化処理1
を示すフローチャートである。
13 is a block encoding process 1 performed by the image codec unit 15 as a process in the image encoding process illustrated in FIG.
It is a flowchart which shows.

【図14】図12に示す画像符号化処理内の処理として
画像コーデック部15が実行するブロック符号化処理2
を示すフローチャートである。
14 is a block encoding process 2 performed by the image codec unit 15 as a process in the image encoding process illustrated in FIG.
It is a flowchart which shows.

【図15】従来より画像符号化処理に利用されているM
Cについて説明するための図である。
FIG. 15 shows M conventionally used for image encoding processing.
It is a figure for explaining C.

【図16】図16は、MC+DCTハイブリッド方式の
符号化及び復合化処理を示す図である。
FIG. 16 is a diagram illustrating an encoding and decoding process of the MC + DCT hybrid scheme.

【図17】従来技術であるH.263のビットストリー
ム構造をフレーム単位で示した図。
FIG. FIG. 263 is a diagram showing a bit stream structure of H.263 in frame units.

【図18】従来技術であるMPEGのビットストリーム
構造をフレーム単位で示した図。
FIG. 18 is a diagram showing a conventional MPEG bit stream structure in frame units.

【符号の説明】[Explanation of symbols]

1 画像再生装置 2 制御部 3 入力装置 4 RAM 5 表示装置 6 記憶装置 7 記憶媒体 8 バス 10 画像符号化装置 11 制御部 12 入力装置 13 表示装置 14 通信インタフェース部 15 画像コーデック部 15a,15i 減算部 15b,15h DCT演算部 15c,15j 量子化部 15d,15k 逆量子化部 15e IDCT演算部 15f,15m 加算部 15g,15n Delay 16 音声コーデック部 17 RAM 18 記憶装置 19 記憶媒体 20 バス REFERENCE SIGNS LIST 1 image reproduction device 2 control unit 3 input device 4 RAM 5 display device 6 storage device 7 storage medium 8 bus 10 image encoding device 11 control unit 12 input device 13 display device 14 communication interface unit 15 image codec unit 15a, 15i subtraction unit 15b, 15h DCT operation unit 15c, 15j Quantization unit 15d, 15k Inverse quantization unit 15e IDCT operation unit 15f, 15m Addition unit 15g, 15n Delay 16 Audio codec unit 17 RAM 18 Storage device 19 Storage medium 20 Bus

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】時間的に前に位置するフレームを構成する
ブロックを参照して現フレームの各ブロックを動き補償
する動きベクトルを用いた画像符号化方式によって符号
化された画像データを復号化して再生する画像再生方法
において、 任意数のフレームをスキップして再生する際に、スキッ
プする全てのフレーム及びスキップ後のフレームの全て
の前記ブロックについて前記動きベクトルを予め復号化
して記憶手段に記憶し、 前記記憶手段に記憶された動きベクトルに基づいて、前
記スキップ後のフレームから時間的に前のフレームに向
かって順次遡及的に前記各ブロックの参照関係を演算し
て、該動きベクトルを有するスキップ後のブロックを検
出し、 該検出されたブロックに対して所定の復号化処理を実行
して画像を再生することを特徴とする画像再生方法。
An image data encoded by an image encoding method using a motion vector for motion-compensating each block of a current frame with reference to a block constituting a frame positioned temporally ahead is decoded. In the image reproducing method for reproducing, when an arbitrary number of frames are skipped and reproduced, the motion vectors are previously decoded and stored in a storage unit for all blocks to be skipped and all the blocks in the skipped frame, Based on the motion vector stored in the storage unit, the reference relation of each block is sequentially and retroactively calculated from the skipped frame toward the temporally previous frame, and the skipped frame having the motion vector is calculated. It is characterized in that the block is detected and a predetermined decoding process is performed on the detected block to reproduce an image. Image reproduction method to.
【請求項2】時間的に前に位置するフレームを構成する
ブロックを参照して現フレームの各ブロックを動き補償
する動きベクトルを用いた画像符号化方式によって符号
化された画像データを復号化して再生する画像再生方法
において、 任意数のフレームをスキップして再生する際に、スキッ
プする全てのフレーム及びスキップ後のフレームの全て
の前記ブロックについて前記動きベクトルを予め復号化
して記憶手段に記憶し、 前記記憶手段に記憶された動きベクトルに基づいて、時
間的に前に位置するフレーム内の異なる位置のブロック
を参照せず、かつ、時間的に後に位置するフレーム内の
異なる位置のブロックから参照されないブロックを前記
スキップする全てのフレームから検出し、 該検出されたブロックが、フレーム内の同位置に、複数
のフレームにわたって存在することにより形成されるブ
ロック列を更に検出し、該ブロック列を構成する複数フ
レームにわたる全てのブロックに対する所定の復号化処
理を一度にまとめて実行して画像を再生することを特徴
とする画像再生方法。
2. Decoding image data encoded by an image encoding method using a motion vector for motion-compensating each block of a current frame with reference to a block constituting a frame located temporally ahead. In the image reproducing method for reproducing, when an arbitrary number of frames are skipped and reproduced, the motion vectors are previously decoded and stored in a storage unit for all blocks to be skipped and all the blocks in the skipped frame, On the basis of the motion vector stored in the storage means, a block at a different position in a temporally preceding frame is not referred to, and a reference is not made from a block at a different position in a temporally located frame. A block is detected from all the skipped frames, and the detected block is located at the same position in the frame. A block sequence formed by being present over a plurality of frames is further detected, and a predetermined decoding process for all blocks over a plurality of frames constituting the block sequence is collectively executed at a time to reproduce an image. Characteristic image reproduction method.
【請求項3】画像データの時間的に前に位置するフレー
ムを構成するブロックを参照して、画像データの現フレ
ームの各ブロックを動き補償する動きベクトルを算出す
る動きベクトル算出手段と、 所定の直交変換演算によって画像データをブロック単位
で直交変換係数に変換して符号化する符号化手段と、 この符号化手段によって符号化されたブロック単位の画
像データを、前記所定の直交変換演算の逆変換演算によ
って局部復号化する局部復号化手段と、 を備えた画像符号化装置において、 現フレームの各ブロック毎に前記動きベクトル算出手段
によって算出された動きベクトルが、時間的に前に位置
するフレーム内の同一位置のブロックを参照するもので
あるか否かを判別する判別手段を更に備え、 前記判別手段によって、前記動きベクトルが時間的に前
に位置するフレーム内の同一位置のブロックを参照する
ものでないと判別された場合には、前記時間的に前に位
置するフレーム内の参照先ブロックを、前記局部復号化
手段によって局部復号して参照画像のブロックを再構成
し、入力画像のブロックと、前記参照先のブロックとの
差分を計算した後に、前記符号化手段によって前記所定
の直交変換演算を行って画像データの符号化を行い、 前記判別手段によって、前記動きベクトルが時間的に前
に位置するフレーム内の同一位置のブロックを参照する
ものであると判別された場合には、前記時間的に前に位
置するフレーム内の参照先ブロックについて、前記局部
復号化手段による局部復号処理を行わずに、入力画像の
ブロックを前記符号化手段によって変換した直交変換係
数と、前記時間的に前に位置するフレームを符号化する
際に既に算出されている前記参照先ブロックの直交変換
係数との差分を計算して画像データの符号化を行うこと
を特徴とする画像符号化装置。
3. A motion vector calculating means for calculating a motion vector for motion-compensating each block of a current frame of the image data with reference to a block constituting a frame positioned temporally before the image data; Encoding means for transforming the image data into orthogonal transform coefficients in block units by orthogonal transformation operation and encoding the image data; and inversely transforming the image data in block units encoded by the encoding means into the predetermined orthogonal transformation operation A local decoding means for performing local decoding by operation, wherein the motion vector calculated by the motion vector calculating means for each block of the current frame is within a frame located temporally ahead. And determining whether the block refers to a block at the same position. If it is determined that the vector does not refer to a block at the same position in the frame located earlier in time, the reference decoding block in the frame located earlier in time is replaced by the local decoding means. After performing local decoding to reconstruct the block of the reference image and calculating the difference between the block of the input image and the block of the reference destination, the encoding unit performs the predetermined orthogonal transformation operation to perform the When the motion vector is determined by the determination means to refer to the block at the same position in the frame located earlier in time, the motion vector is located earlier in the time. An orthogonal transform obtained by transforming a block of an input image by the encoding unit without performing local decoding processing by the local decoding unit on a reference block in a frame. Encoding the image data by calculating the difference between the number and the orthogonal transform coefficient of the reference block already calculated when encoding the temporally preceding frame. Image coding device.
【請求項4】時間的に前に位置するフレームを構成する
ブロックを参照して現フレームの各ブロックを動き補償
する動きベクトルを用いた画像符号化方式によって画像
データの符号化を行う画像符号化方法において、 現フレームの各ブロック毎に算出された動きベクトル
が、時間的に前に位置するフレーム内の同一位置のブロ
ックを参照するものであるか否かを判別し、 前記動きベクトルが時間的に前に位置するフレーム内の
同一位置のブロックを参照するものでないと判別された
場合には、前記時間的に前に位置するフレーム内の参照
先ブロックを局部復号化して参照画像のブロックを再構
成し、入力画像のブロックと、前記参照画像のブロック
との差分を計算した後に、所定の直交変換演算を行って
画像データの符号化を行い、 前記動きベクトルが時間的に前に位置するフレーム内の
同一位置のブロックを参照するものであると判別された
場合には、前記時間的に前に位置するフレーム内の参照
先ブロックについて局部復号処理を行わずに、入力画像
のブロックに前記所定の直交変換演算を行って算出した
直交変換係数と、前記時間的に前に位置するフレームを
符号化する際に既に算出されている前記参照先ブロック
の直交変換係数との差分を計算して画像データの符号化
を行うことを特徴とする画像符号化方法。
4. An image encoding apparatus for encoding image data by an image encoding method using a motion vector for motion-compensating each block of a current frame with reference to a block constituting a frame located earlier in time. Determining whether the motion vector calculated for each block in the current frame refers to a block at the same position in the temporally preceding frame, wherein the motion vector is temporally If it is determined that the reference block does not refer to the block at the same position in the frame located earlier, the reference block in the frame located earlier in time is locally decoded and the block of the reference image is reproduced. After calculating the difference between the block of the input image and the block of the reference image, a predetermined orthogonal transform operation is performed to encode the image data, and If it is determined that the vector refers to a block at the same position in the frame located earlier in time, the local decoding process is performed on the reference block in the frame located earlier in time. Instead, the orthogonal transform coefficient calculated by performing the predetermined orthogonal transform operation on the block of the input image, and the orthogonality of the reference block already calculated when encoding the frame located earlier in time. An image coding method comprising calculating a difference from a transform coefficient and coding image data.
JP26539598A 1997-09-18 1998-09-18 Image reproduction method, image coder, and image coding method Pending JPH11155147A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26539598A JPH11155147A (en) 1997-09-18 1998-09-18 Image reproduction method, image coder, and image coding method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-253684 1997-09-18
JP25368497 1997-09-18
JP26539598A JPH11155147A (en) 1997-09-18 1998-09-18 Image reproduction method, image coder, and image coding method

Publications (1)

Publication Number Publication Date
JPH11155147A true JPH11155147A (en) 1999-06-08

Family

ID=26541341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26539598A Pending JPH11155147A (en) 1997-09-18 1998-09-18 Image reproduction method, image coder, and image coding method

Country Status (1)

Country Link
JP (1) JPH11155147A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003034745A2 (en) * 2001-10-19 2003-04-24 Koninklijke Philips Electronics N.V. Method and system for skipping decoding of overlaid areas of video
FR2864865A1 (en) * 2004-01-07 2005-07-08 Thomson Licensing Sa Video image sequence coding method for hybrid type video compression, involves coding entity of image based on rate of potential utilization of image entity calculated for forward and backward predictive coding of other two images
EP1445960A4 (en) * 2001-11-06 2005-07-13 Matsushita Electric Ind Co Ltd Moving picture coding method and moving picture decoding method
KR100770704B1 (en) 2005-08-04 2007-10-29 삼성전자주식회사 Method and apparatus for picture skip

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016414B2 (en) 2001-10-19 2006-03-21 Koninklijke Philips Electronics N.V. Method and system for skipping decoding of overlaid areas of video
WO2003034745A3 (en) * 2001-10-19 2003-11-20 Koninkl Philips Electronics Nv Method and system for skipping decoding of overlaid areas of video
WO2003034745A2 (en) * 2001-10-19 2003-04-24 Koninklijke Philips Electronics N.V. Method and system for skipping decoding of overlaid areas of video
US8964839B2 (en) 2001-11-06 2015-02-24 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
US8126057B2 (en) 2001-11-06 2012-02-28 Panasonic Corporation Moving picture coding method, and moving picture decoding method
EP1445960A4 (en) * 2001-11-06 2005-07-13 Matsushita Electric Ind Co Ltd Moving picture coding method and moving picture decoding method
US9578323B2 (en) 2001-11-06 2017-02-21 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
US7310373B2 (en) 2001-11-06 2007-12-18 Matsushita Electric Industrial Co., Ltd. Moving picture coding method, and moving picture decoding method
US7756204B2 (en) 2001-11-06 2010-07-13 Panasonic Corporation Moving picture coding method, and moving picture decoding method
EP2009924A3 (en) * 2001-11-06 2010-07-28 Panasonic Corporation Moving image coding method, and moving image decoding method
US7782936B2 (en) 2001-11-06 2010-08-24 Panasonic Corporation Moving picture coding method and moving picture decoding method
US9462267B2 (en) 2001-11-06 2016-10-04 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
US8107533B2 (en) 2001-11-06 2012-01-31 Panasonic Corporation Moving picture coding method, and moving picture decoding method
US8126056B2 (en) 2001-11-06 2012-02-28 Panasonic Corporation Moving picture coding method, and moving picture decoding method
US9344714B2 (en) 2001-11-06 2016-05-17 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
US8194747B2 (en) 2001-11-06 2012-06-05 Panasonic Corporation Moving picture coding method, and moving picture decoding method
US8213517B2 (en) 2001-11-06 2012-07-03 Panasonic Corporation Moving picture coding method, and moving picture decoding method
US8265153B2 (en) 2001-11-06 2012-09-11 Panasonic Corporation Moving picture coding method, and moving picture decoding method
US9338448B2 (en) 2001-11-06 2016-05-10 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
US9078003B2 (en) 2001-11-06 2015-07-07 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
US9241162B2 (en) 2001-11-06 2016-01-19 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
US9241161B2 (en) 2001-11-06 2016-01-19 Panasonic Intellectual Property Corporation Of America Moving picture coding method, and moving picture decoding method
FR2864865A1 (en) * 2004-01-07 2005-07-08 Thomson Licensing Sa Video image sequence coding method for hybrid type video compression, involves coding entity of image based on rate of potential utilization of image entity calculated for forward and backward predictive coding of other two images
WO2005071972A1 (en) * 2004-01-07 2005-08-04 Thomson Licensing S.A. Method for coding an image sequence
US7983339B2 (en) 2004-01-07 2011-07-19 Thomson Licensing Method for coding an image sequence
KR100770704B1 (en) 2005-08-04 2007-10-29 삼성전자주식회사 Method and apparatus for picture skip

Similar Documents

Publication Publication Date Title
EP0542195B1 (en) Interframe predicting method and picture signal coding/decoding apparatus
JP3720875B2 (en) Transcoding method and apparatus
JP3856262B2 (en) Motion compensation encoding apparatus, motion compensation encoding method, and motion compensation code recording medium
JP4198206B2 (en) Video information compression method and apparatus using motion dependent prediction
US20030095603A1 (en) Reduced-complexity video decoding using larger pixel-grid motion compensation
KR100694137B1 (en) Apparatus for encoding or decoding motion image, method therefor, and recording medium storing a program to implement thereof
KR20010031222A (en) Transcoding
JP2001028756A (en) Method and device for executing selection between intra- frame coding mode and inter-frame coding mode in context base
JPH08223577A (en) Moving image coding method and device therefor and moving image decoding method and device therefor
JPH10322696A (en) Signal encoder, signal encoding method, signal recording medium and signal transmitting method
JPH0818979A (en) Image processor
JP3426668B2 (en) Video coding method
JPH06350995A (en) Moving picture processing method
KR20050085730A (en) Elastic storage
JPH11155147A (en) Image reproduction method, image coder, and image coding method
JPH07193818A (en) Method and device for processing picture
JP3128393B2 (en) Compressed video playback device
JPH09322175A (en) Method and device for decoding time varying image
JP2001045493A (en) Moving image encoding device, moving image output device and storage medium
JP3798432B2 (en) Method and apparatus for encoding and decoding digital images
JP3862479B2 (en) How to prevent drift errors in video downconversion
JP2004120415A (en) Device and method for converting moving picture data stream
JP3188081B2 (en) Image encoding method and image encoding device
JP2004312689A (en) Mpeg video decoding method and mpeg video decoder
JP3454304B2 (en) Encoding / decoding device