JP3415390B2 - Moving picture coding apparatus and moving picture coding method - Google Patents

Moving picture coding apparatus and moving picture coding method

Info

Publication number
JP3415390B2
JP3415390B2 JP10342397A JP10342397A JP3415390B2 JP 3415390 B2 JP3415390 B2 JP 3415390B2 JP 10342397 A JP10342397 A JP 10342397A JP 10342397 A JP10342397 A JP 10342397A JP 3415390 B2 JP3415390 B2 JP 3415390B2
Authority
JP
Japan
Prior art keywords
motion vector
image
signal
circuit
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10342397A
Other languages
Japanese (ja)
Other versions
JPH1042296A (en
Inventor
義治 上谷
敏則 尾高
忠昭 増田
秀幸 上野
昇 山口
朋夫 山影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10342397A priority Critical patent/JP3415390B2/en
Publication of JPH1042296A publication Critical patent/JPH1042296A/en
Application granted granted Critical
Publication of JP3415390B2 publication Critical patent/JP3415390B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像通信、伝送、
蓄積および放送等において、ビデオ信号などの動画像信
号を符号化するための動画像符号化装置及び動画像符号
化方法に係り、特に動き補償予測符号化を用いた動画像
符号化装置及び動画像符号化方法に関する。
The present invention relates to image communication, transmission,
The present invention relates to a moving picture coding apparatus and a moving picture coding method for coding a moving picture signal such as a video signal in storage and broadcasting, and particularly to a moving picture coding apparatus and a moving picture using motion compensation predictive coding. The present invention relates to an encoding method.

【0002】[0002]

【従来の技術】TV電話、TV会議、光ディスク装置、
VTRおよびCATV等の装置では、動画像信号を符号
化する技術が必要となる。このような動画像の符号化方
式として、符号化しようとする画像(以下、符号化象画
像という)の画素値を動きベクトルで指定される既に符
号化されている参照画像の画素値を用いて予測し、その
予測誤差と動きベクトルを符号化する、いわゆる動き補
償予測符号化が知られている。
2. Description of the Related Art Video telephones, video conferences, optical disk devices,
Devices such as VTRs and CATVs require a technique for encoding moving image signals. As such a moving image encoding method, the pixel value of an image to be encoded (hereinafter referred to as an encoded image) is used by using the pixel value of an already encoded reference image specified by a motion vector. There is known a so-called motion compensation predictive coding which predicts and codes the prediction error and the motion vector.

【0003】この動き補償予測符号化を通常のテレビジ
ョンビデオ信号のようなインターレース画像(フィール
ド画像)に適用する場合、フィールド内1/2ライン精
度以上の動き精度(フレーム内1ライン精度以上の動き
精度)に対しては、参照画像中に対応する画素値が存在
しないために対応出来ないという問題がある。
When this motion compensation predictive coding is applied to an interlaced image (field image) such as a normal television video signal, a motion accuracy of 1/2 line precision or more in a field (motion of 1 line precision or more in a frame). There is a problem in that the accuracy cannot be met because the corresponding pixel value does not exist in the reference image.

【0004】そこで、参照画像上で対応する画素が存在
しない画素の画素値を隣接する2フィールドの画像を用
いて補間して動き補償を行う方法が提案されている(例
えば1990年画像符号化シンポジウム(PCSJ9
0)、8−1、「適応ライン補間フィールド間動き補償
方式の検討」)。この動き補償方式では、符号化対象画
像信号は参照画像信号および最適動きベクトルを用いて
符号化される。参照画像信号は、過去2フィールドの符
号化済み画像信号のうち、動きベクトル探索回路で得ら
れる動きベクトルによって指定される位置の信号から補
間によって作成される。具体的には3つのフィールドメ
モリを用意し、第1のフィールドメモリの出力からフィ
ールド内補間によって作成される信号と、第2のフィー
ルドメモリの出力とを混合比km :1−km で混合する
ことにより参照画像信号が作成される。km は第1のフ
ィールドメモリと第3のフィールドメモリの出力を基
に、動き検出回路によって検出される動き量によって変
化する。
Therefore, there has been proposed a method of performing motion compensation by interpolating pixel values of pixels having no corresponding pixels on a reference image using images of two adjacent fields (for example, 1990 Image Coding Symposium). (PCSJ9
0), 8-1, "Study of adaptive line interpolation inter-field motion compensation method"). In this motion compensation method, the encoding target image signal is encoded using the reference image signal and the optimum motion vector. The reference image signal is created by interpolation from the signal of the position specified by the motion vector obtained by the motion vector search circuit, out of the coded image signals of the past two fields. Specifically, three field memories are prepared, and the signal generated by the intra-field interpolation from the output of the first field memory and the output of the second field memory are mixed at a mixing ratio km: 1-km. Thus, a reference image signal is created. km varies depending on the amount of motion detected by the motion detection circuit based on the outputs of the first field memory and the third field memory.

【0005】図2は、この従来技術による各画像信号の
関係を示すための図である。3つのフィールドメモリに
蓄積された画像信号41,42,43および符号化対象
画像信号44の関係は図に示す通りであり、動きベクト
ルの垂直方向成分がフィールド内n+1/2ライン(n
は整数)の場合、画像信号41内の対応する画素値をそ
のまま参照画像信号として出力する。例えばn=0の場
合、符号化対象画像信号44の画素値45に対する参照
画像信号の画素値は46となる。動きベクトルの垂直方
向成分がフィールド内nラインの場合には、画像信号4
2,43の補間値△に隣接する信号○を用いて補間値△
を作成する。即ち、例えば符号化対象画像信号44内の
画素値45に対する参照画像信号となる補間値49は、
フィールド内補間によって作成される、画素値46と画
素値47の平均値がkm 倍された値と、画素値48が
(1−km )倍された値との加算値となる。このとき、
動き検出回路において動きが大と判定された場合には、
補間値△をそれと同一フィールドの画像信号内の、補間
値△に隣接する信号を主に用いて補間することが適切で
あるからkm を大とし、動きが小と判定された場合に
は、補間値△をそれに隣接するフィールドの画像信号内
の、補間値△に隣接する信号を主に用いて補間すること
が適切であるからkm を小とする。
FIG. 2 is a diagram showing the relationship between the image signals according to this conventional technique. The relationship between the image signals 41, 42, 43 and the encoding target image signal 44 stored in the three field memories is as shown in the figure, and the vertical component of the motion vector is n + 1/2 lines (n
Is an integer), the corresponding pixel value in the image signal 41 is output as it is as the reference image signal. For example, when n = 0, the pixel value of the reference image signal is 46 with respect to the pixel value 45 of the encoding target image signal 44. If the vertical component of the motion vector is n lines in the field, the image signal 4
Interpolation value △ using the signal ○ adjacent to the interpolation value △ of 2,43
To create. That is, for example, the interpolated value 49 that becomes the reference image signal for the pixel value 45 in the encoding target image signal 44 is
The value obtained by inter-field interpolation is the sum of the value obtained by multiplying the average value of the pixel value 46 and the pixel value 47 by km and the value obtained by multiplying the pixel value 48 by (1-km). At this time,
If the motion detection circuit determines that the motion is large,
Since it is appropriate to interpolate the interpolated value Δ mainly by using the signal adjacent to the interpolated value Δ in the image signal of the same field as that, it is appropriate to set km to be large, and when it is determined that the motion is small, the interpolated value is interpolated. Since it is appropriate to interpolate the value Δ mainly by using the signal adjacent to the interpolation value Δ in the image signal of the field adjacent thereto, km is set to be small.

【0006】このように、隣接する2フィールドの画像
信号を用いて動き量に適応させて補間値を作成すること
により、フィールド画像においてもフィールド内1/2
ライン精度以上の動き精度(フレーム内1ライン精度以
上の動き精度)に対して適切な参照画像信号を発生する
ことができるようになり、精度の良い動き補償予測が可
能となる。
As described above, the interpolated value is created by adapting the motion amount using the image signals of the adjacent two fields, so that even in the field image, it is 1/2 in the field.
It becomes possible to generate a reference image signal suitable for motion accuracy of line accuracy or more (motion accuracy of one line in a frame or more), and it is possible to perform accurate motion compensation prediction.

【0007】しかしながら、この方式では上述のように
参照画像における動きの検出が必要であり、そのための
動き検出回路が必要となる。また、動き検出を可能とす
るために、隣接する3フィールドが既に符号化済みでな
ければならない。従って、隣接する3フィールドが既に
符号化されていない場合には、動き検出ができないとい
う問題が生じる。
However, in this method, it is necessary to detect the motion in the reference image as described above, and the motion detection circuit for that is required. Also, in order to be able to detect motion, three adjacent fields must already be coded. Therefore, if the three adjacent fields have not been coded, there is a problem that motion detection cannot be performed.

【0008】図3に、隣接する3フィールドが既に符号
化されていない場合の一例を示す。この例においては、
VTRでの特殊再生(ランダムアクセス、早送り再生、
逆転再生等)の必要な蓄積系への適応を考慮して、複数
フィールド毎(図においては6フィールド毎)に隣接す
る2フィールド(図の例ではフィールド1,2,7,
8)を予め符号化し、残りの4フィールド(図の例では
3〜6)を予め符号化した近傍の2フィールドを参照画
像として動き補償予測符号化する方法をとっている。こ
のような場合、隣接する3フィールドが既に符号化され
ていないため、動き検出が出来ないことになる。
FIG. 3 shows an example in which three adjacent fields have not been encoded. In this example,
Special playback on VTR (random access, fast forward playback,
In consideration of adaptation to a necessary storage system such as reverse reproduction, two adjacent fields (fields 1, 2, 7, in the example in the figure) every plural fields (every 6 fields in the figure)
8) is pre-encoded, and the remaining 4 fields (3 to 6 in the example in the figure) are pre-encoded. The neighboring 2 fields are used as a reference image for motion compensation prediction encoding. In such a case, the motion detection cannot be performed because the three adjacent fields have not been encoded.

【0009】一方、上述したような動き補償予測符号化
方式を用いた動画像符号化装置において、従来では順方
向あるいは逆方向の動き補償のための動きベクトル探索
に際し、動きベクトルを探索する参照画像としては、符
号化対象画像がノンインタレース画像の場合は符号化済
みの1画像だけに限定されるため、隣接する画像間で1
/2画素単位の移動が存在する動画像に対しては正確な
動き補償ができないという問題があった。画像がインタ
レース画像の場合は、前述のように符号化済みの連続す
る2画面の画像を使用するが、従来では2画面とも同一
面積を探索しているため、探索のための演算量が非常に
多くなっていた。
On the other hand, in the moving picture coding apparatus using the motion compensation predictive coding method as described above, conventionally, in the motion vector search for the forward or backward motion compensation, the reference picture for searching the motion vector. If the image to be encoded is a non-interlaced image, it is limited to only one image that has already been encoded.
There is a problem in that accurate motion compensation cannot be performed on a moving image in which a movement of / 2 pixels is present. If the image is an interlaced image, two consecutive screens that have already been coded are used as described above. However, since the same area is searched for on both screens in the past, the amount of calculation for searching is extremely large. Was increasing.

【0010】また、上述したような動画像符号化方式の
うちでも特にVTRや光ディスクのような蓄積メディア
のための符号化方式として、1〜2Mbps程度の伝送
レートをターゲットとした動画像符号化方式がMPEG
1なる規格名で標準化されつつある。これは、動き補償
フレーム間予測+DCTを基本とした方式である。
Among the moving picture coding methods described above, a moving picture coding method targeting a transmission rate of about 1 to 2 Mbps is particularly used as a coding method for a storage medium such as a VTR or an optical disk. Is MPEG
It is being standardized under the standard name of 1. This is a method based on motion-compensated interframe prediction + DCT.

【0011】現在、類似の目的でTV放送程度以上の品
質の動画像を2〜10Mbps程度で符号化する方式の
検討が進んでいる。MPEG1の符号化方式をこれに適
応しようとする場合、MPEG1は入力画像としてノン
インタレース画像を前提としているのに対して、TV信
号はインタレース画像の信号であるため、インタレース
画像に適した新たな工夫が必要となる。インタレース画
像の符号化においては、フィールド間/フレーム間適応
予測が知られている。これは注目フィールドと走査位相
の一致するフィールド(注目フィールドが奇数フィール
ドの場合は奇数フィールド、また注目フィールドが偶数
フィールドの場合は偶数フィールド)と、一致しないが
時間的に近いフィールド(例えば注目フィールドが奇数
フィールドの場合はそれに隣接する偶数フィールド、ま
た注目フィールドが偶数フィールドの場合はそれに隣接
する奇数フィールド)とを予測信号として切り替える方
式である。また、最近の研究では複数のフィールドに対
して動き補償した信号を平均して予測する内挿予測も検
討されている(例えばF.Wang et al.,"High-quality co
ding of the even fields based on the odd fields of
interlaced videosequences",IEEE trans.CS)。
[0011] At present, for a similar purpose, studies are underway on a method of encoding a moving image of a quality equal to or higher than TV broadcasting at about 2 to 10 Mbps. When trying to adapt the encoding method of MPEG1 to this, while MPEG1 presupposes a non-interlaced image as an input image, a TV signal is a signal of an interlaced image, so it is suitable for an interlaced image. New ideas are needed. In interlaced image coding, interfield / interframe adaptive prediction is known. This is a field whose scanning phase matches the field of interest (an odd field if the field of interest is an odd field, and an even field if the field of interest is an even field), but a field that does not match but is close in time (for example, if the field of interest is In the case of an odd field, an even field adjacent to the odd field, and when the field of interest is an even field, an odd field adjacent to the even field) is switched as a prediction signal. In addition, recent studies have also examined interpolative prediction that averages motion-compensated signals for multiple fields (eg, F. Wang et al., "High-quality co
ding of the even fields based on the odd fields of
interlaced video sequences ", IEEE trans.CS).

【0012】しかしながら、インタレース画像において
もMPEG1の符号化におけるような過去のフィールド
と未来のフィールドを使った予測符号化を行なう上で、
インタレース画像に適した偶/奇両フィールドを使った
予測方法をとり入れることが望まれる。この場合、各フ
ィールドに対して動きベクトルを送ると、動きベクトル
の情報量が増大するので、効率を極力落とさずに動きベ
クトルの情報量も減らすことが必要となる。すなわち、
インタレース画像に対する予測精度を向上して予測誤差
の符号化出力の情報量を減らすと共に、動きベクトル情
報の増加を最小限に止めることが要求されるが、従来で
はこのような要求に応えられる有効な技術は未だ提案さ
れていない。
However, even in the case of interlaced images, when performing predictive coding using past fields and future fields as in the coding of MPEG1,
It is desirable to incorporate a prediction method using even / odd fields suitable for interlaced images. In this case, when the motion vector is sent to each field, the amount of information of the motion vector increases, so it is necessary to reduce the amount of information of the motion vector without reducing efficiency as much as possible. That is,
It is required to improve the prediction accuracy for interlaced images to reduce the amount of information in the coding output of the prediction error, and to minimize the increase in motion vector information. Conventionally, it is effective to meet such requirements. Technology has not been proposed yet.

【0013】[0013]

【発明が解決しようとする課題】上述したように、従来
の技術では参照画像上の画素が存在しない点の画素を参
照画像に隣接する2フィールドの画像を用いて補間する
場合、参照画像について動き検出が必要であるため、動
き検出回路が必要となりハードウェアが複雑になると共
に、隣接する3フィールドが既に符号化されていない場
合には動き検出ができないという問題があった。
As described above, in the prior art, when the pixel at the point where the pixel on the reference image does not exist is interpolated using the images of the two fields adjacent to the reference image, the reference image moves. Since the detection is necessary, there is a problem that the motion detection circuit is required and the hardware is complicated, and the motion cannot be detected when the adjacent three fields are not already coded.

【0014】また、従来の技術では符号化対象画像がノ
ンインタレース画像の場合、動きベクトル探索に際して
参照画像は符号化済みの1画像だけに限定されるため、
隣接する画像間で1/2画素単位の移動が存在する動画
像に対しては正確な動き補償ができず、符号化効率が低
下するという問題があり、さらに符号化対象画像がイン
タレース画像の場合は、動きベクトル探索のための演算
量が非常に多くなるため、動きベクトル探索時間が長く
なったり、ハードウェアの回路規模が増大するという問
題があった。
Further, in the conventional technique, when the image to be encoded is a non-interlaced image, the reference image is limited to only one image which has already been encoded in the motion vector search.
There is a problem that accurate motion compensation cannot be performed for moving images in which there is a movement of 1/2 pixel unit between adjacent images, and the encoding efficiency is reduced. Furthermore, the encoding target image is an interlaced image. In this case, since the amount of calculation for the motion vector search is very large, there are problems that the motion vector search time becomes long and the hardware circuit scale increases.

【0015】さらに、従来の技術ではインターレース画
像に対する予測精度を効果的に向上させることができ
ず、また各フィールドに対して送られる動きベクトルの
情報量が増大するという問題があった。
Further, the conventional technique has a problem that the prediction accuracy for the interlaced image cannot be effectively improved and the amount of information of the motion vector sent to each field increases.

【0016】本発明の目的は、インタレース画像に対す
る予測精度を向上して予測誤差の符号化出力の情報量を
減らす共に、動きベクトル情報の増加を最小限に止める
ことができる動画像復号化装置及び動画像復号化方法を
提供することにある。
It is an object of the present invention to improve the prediction accuracy for an interlaced image to reduce the information amount of the coding output of the prediction error, and to suppress the increase of the motion vector information to the minimum. And to provide a moving picture decoding method.

【0017】[0017]

【課題を解決するための手段】本発明は上記目的を達成
するため、第1及び第2の参照画面の画像信号をそれぞ
れ蓄積する第1及び第2のメモリ手段から、第1の参照
画面の画像信号のうちの第1の動きベクトルで指定され
る点の周囲の第1の参照画像信号と、第2の参照画面の
画像信号のうちの第2の動きベクトルで指定される点の
周囲の第2の参照画像信号を読み出し、これら第1及び
第2の参照画像信号から符号化対象画面の画像信号に対
して複数の予測信号候補を生成し、これらの予測信号候
補から符号化対象画面の画像信号に対する最小の予測誤
差を与える最適予測信号を探索し、この最適予測信号に
対応する第1及び第2の動きベクトルの最適の組を検出
し、符号化対象画面の画像信号に対する最適予測信号の
誤差と、最適の組の第1及び第2の動きベクトルの情報
を符号化するようにしたことを特徴とする。
In order to achieve the above-mentioned object, the present invention provides a first reference screen from a first and second memory means for accumulating image signals of the first and second reference screens, respectively. A first reference image signal around the point specified by the first motion vector of the image signal and a point around the point specified by the second motion vector of the image signal of the second reference screen. The second reference image signal is read out, a plurality of prediction signal candidates are generated for the image signal of the coding target screen from these first and second reference image signals, and the prediction target image of the coding target screen is generated from these prediction signal candidates. The optimum prediction signal that gives the smallest prediction error with respect to the image signal is searched, the optimum set of the first and second motion vectors corresponding to this optimum prediction signal is detected, and the optimum prediction signal with respect to the image signal of the encoding target screen is detected. Error and optimal pair The information of the first and second motion vectors, characterized in that so as to encode.

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【作用】このように本発明では、第1の参照画面の画像
信号のうちの第1の動きベクトルで指定される点の周囲
の第1の参照画像信号と、第2の参照画面の画像信号の
うちの第2の動きベクトルで指定される点の周囲の第2
の参照画像信号から符号化対象画面の画像信号に対して
複数の予測信号候補を生成し、これらの予測信号候補か
ら符号化対象画面の画像信号に対する最小の予測誤差を
与える最適予測信号を探索して、この最適予測信号に対
応する第1及び第2の動きベクトルの最適の組を検出
し、符号化対象画面の画像信号に対する最適予測信号の
誤差と、最適の組の第1及び第2の動きベクトルの情報
を符号化することによって、インタレース画像に適した
効率的で精度の高い予測を行うことが可能であり、特に
インタレース画像における動領域において、より精度の
高い予測信号が得ることができる。
As described above, according to the present invention, the first reference image signal around the point designated by the first motion vector in the image signal of the first reference screen and the image signal of the second reference screen. A second around the point specified by the second motion vector of the
Generate a plurality of prediction signal candidates for the image signal of the encoding target screen from the reference image signal of, and search for the optimal prediction signal that gives the minimum prediction error to the image signal of the encoding target screen from these prediction signal candidates. Then, the optimum set of the first and second motion vectors corresponding to the optimum prediction signal is detected, and the error of the optimum prediction signal with respect to the image signal of the encoding target screen and the first and second sets of the optimum set are detected. By encoding motion vector information, it is possible to perform efficient and highly accurate prediction suitable for interlaced images, and obtain highly accurate prediction signals especially in the moving region of interlaced images. You can

【0023】[0023]

【0024】[0024]

【0025】[0025]

【0026】[0026]

【0027】[0027]

【0028】[0028]

【発明の実施の形態】以下、本発明の実施形態について
説明する。図1は、本発明の第1の実施形態に係る動画
像符号化装置のブロック図である。図1の動画像符号化
装置は、符号化部14、2つのフィールドメモリ15,
16、動きベクトル探索回路17、補間値発生回路19
および局部復号部25によって構成される。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below. FIG. 1 is a block diagram of a moving picture coding apparatus according to the first embodiment of the present invention. The moving picture coding apparatus in FIG. 1 includes a coding unit 14, two field memories 15,
16, motion vector search circuit 17, interpolation value generation circuit 19
And the local decoding unit 25.

【0029】符号化対象画像信号11は、補間値発生回
路19から出力される参照画像信号12と、動きベクト
ル探索回路17から出力される最適動きベクトル13を
用いて符号化部14で符号化される。参照画像信号12
は、フィールドメモリ15,16に蓄積されている過去
2フィールドの符号化済み画像信号のうち動きベクトル
探索回路17から出力される動きベクトル候補18によ
って指定される位置の画像信号から、補間値発生回路1
9によって作成される。
The encoding target image signal 11 is encoded by the encoding unit 14 using the reference image signal 12 output from the interpolation value generating circuit 19 and the optimum motion vector 13 output from the motion vector searching circuit 17. It Reference image signal 12
Is the interpolation value generation circuit from the image signal at the position designated by the motion vector candidate 18 output from the motion vector search circuit 17 among the coded image signals of the past two fields stored in the field memories 15 and 16. 1
Created by 9.

【0030】動きベクトル探索回路17は、相関演算回
路20、動きベクトル候補発生回路21、最適ベクトル
判定回路22および切替器23からなり、動きベクトル
探索動作中は動きベクトル候補発生回路21が逐次発生
する動きベクトル候補24が切替器23によりフィール
ドメモリ15,16に入力され、これをもとに補間値発
生回路19により発生される参照画像信号12と符号化
対象画像信号11との相関演算が相関演算回路20によ
って行われる。最適ベクトル判定回路22は、符号化対
象画像信号11と参照画像信号12との相関を最大とす
る動きベクトルを記憶し、動きベクトル探索動作終了時
には最適動きベクトル13が切替器23によって出力さ
れる。この最適動きベクトル13と補間値発生回路19
からの最適な参照画像信号12に基づいて符号化対象画
像信号11が符号化部14で符号化され、符号化データ
26が出力される。
The motion vector search circuit 17 comprises a correlation calculation circuit 20, a motion vector candidate generation circuit 21, an optimum vector determination circuit 22 and a switch 23, and the motion vector candidate generation circuit 21 sequentially generates during the motion vector search operation. The motion vector candidate 24 is input to the field memories 15 and 16 by the switch 23, and the correlation calculation between the reference image signal 12 and the encoding target image signal 11 generated by the interpolation value generation circuit 19 based on this is performed. It is performed by the circuit 20. The optimum vector determination circuit 22 stores the motion vector that maximizes the correlation between the encoding target image signal 11 and the reference image signal 12, and the optimum motion vector 13 is output by the switch 23 at the end of the motion vector search operation. The optimum motion vector 13 and the interpolation value generation circuit 19
The encoding target image signal 11 is encoded by the encoding unit 14 based on the optimum reference image signal 12 from, and encoded data 26 is output.

【0031】局部復号部25は、符号化部14から出力
される符号化データ26を基に、局部復号画像信号27
を作成する。この局部復号画像信号27は切替器28に
よりフィールドメモリ15,16のいずれかに入力さ
れ、それらの出力は切替器29を経て補間値発生回路1
9に入力される。ここで、切替器28,29は符号化対
象画像に対して予め定めた参照画像を作成するための2
画像の信号が補間値発生回路19に入力されるように切
替えられる。
The local decoding unit 25, based on the encoded data 26 output from the encoding unit 14, the locally decoded image signal 27.
To create. The locally decoded image signal 27 is input to either of the field memories 15 and 16 by the switch 28, and their outputs are passed through the switch 29 and the interpolation value generating circuit 1 is output.
9 is input. Here, the switchers 28 and 29 are used to create a predetermined reference image for the image to be encoded.
The image signal is switched so as to be input to the interpolation value generation circuit 19.

【0032】補間値発生回路19は、フィールド内補間
回路30、乗算器31、乗算器32および加算器33か
らなり、フィールドメモリ15からの出力信号よりフィ
ールド内補間回路30によって作成される信号と、フィ
ールドメモリ16からの出力信号とを混合比k:1−k
で混合することにより参照画像信号12を得る。
The interpolated value generating circuit 19 comprises an intra-field interpolating circuit 30, a multiplier 31, a multiplier 32 and an adder 33, and a signal generated by the intra-field interpolating circuit 30 from the output signal from the field memory 15. The output signal from the field memory 16 is mixed with the mixing ratio k: 1-k.
The reference image signal 12 is obtained by mixing in.

【0033】動きベクトル探索回路17から出力される
動きベクトル候補18は補間値発生回路19にも入力さ
れ、フィールドメモリ15,16からの出力信号に対す
る混合比を決定するパラメータkを制御する。すなわ
ち、動きベクトル候補18の垂直方向成分がフィールド
内n+1/2ライン(nは整数)の場合はk=1に制御
され、フィールドメモリ15に記憶された対応する画素
値(ここでは、フィールドメモリ15の内容が符号化対
象画像に近い画像であると仮定して説明する)がそのま
ま参照画像信号12として出力される。
The motion vector candidate 18 output from the motion vector search circuit 17 is also input to the interpolation value generation circuit 19 and controls the parameter k which determines the mixing ratio of the output signals from the field memories 15 and 16. That is, when the vertical component of the motion vector candidate 18 is n + 1/2 lines (n is an integer) in the field, k = 1 is controlled, and the corresponding pixel value stored in the field memory 15 (here, the field memory 15 Will be output as the reference image signal 12 as it is.

【0034】動きベクトル候補18の垂直方向成分がフ
ィールド内nラインの場合には、フィールドメモリ1
5,16からの出力信号を用いて図2における補間値△
が補間される。このとき、動きベクトル候補18の垂直
方向成分の絶対値がある閾値より大の場合は、参照画像
における動きも大とみなし、補間値△をそれと同一フィ
ールドのフィールドメモリ15内の補間値△に隣接する
信号を主に用いて補間することが適切であるから、パラ
メータkを大とする。逆に、動きベクトル候補18の垂
直方向成分の絶対値が閾値より小の場合は、参照画像に
おける動きも小とみなし、補間値△をフィールドメモリ
内の補間値△に隣接する信号を主に用いて補間すること
が適切であるから、パラメータkを小とする。
If the vertical component of the motion vector candidate 18 is n lines in the field, the field memory 1
Interpolation values in FIG. 2 using the output signals from 5 and 16
Is interpolated. At this time, if the absolute value of the vertical component of the motion vector candidate 18 is larger than a certain threshold value, the motion in the reference image is also regarded as large, and the interpolation value Δ is adjacent to the interpolation value Δ in the field memory 15 of the same field. The parameter k is set to a large value because it is appropriate to mainly use the signal to be interpolated. On the contrary, when the absolute value of the vertical component of the motion vector candidate 18 is smaller than the threshold value, the motion in the reference image is also regarded as small, and the interpolation value Δ is mainly used for the signal adjacent to the interpolation value Δ in the field memory. Since it is appropriate to interpolate, the parameter k is made small.

【0035】なお、図2に示すように符号化対象画像4
4と参照画像41が隣接している場合には、パラメータ
kを0に近づけてフィールドメモリ16からの信号を参
照画像41の補間値として使用することが有効なのは、
動きベクトル候補18の垂直成分の絶対値が0の場合に
ほとんど限られる。一方、図3に示したような符号化順
序を採用する場合、図4に示すように符号化対象画像5
3と参照画像51とが比較的離れる場合も生じる。この
ような場合は、パラメータkを0に近づけてフィールド
メモリ16からの信号を参照画像51の補間値として使
用することが、動きベクトルの垂直成分の絶対値が0で
ない場合にも有効となってくる。
It should be noted that as shown in FIG.
4 and the reference image 41 are adjacent to each other, it is effective to bring the parameter k close to 0 and use the signal from the field memory 16 as the interpolation value of the reference image 41.
It is almost limited to the case where the absolute value of the vertical component of the motion vector candidate 18 is 0. On the other hand, when the encoding order as shown in FIG. 3 is adopted, as shown in FIG.
3 and the reference image 51 may be relatively separated from each other. In such a case, it is effective to use the signal from the field memory 16 as the interpolation value of the reference image 51 by setting the parameter k close to 0 even when the absolute value of the vertical component of the motion vector is not 0. come.

【0036】図5に、本発明の第2の実施形態を示す。
補間値発生回路19の構成以外は図1と同一であるた
め、その詳細な説明は省略する。補間値発生回路19は
2つの補間値発生回路34,35と、これらの出力を選
択する切替器36によって構成される。補間値発生回路
34,35は、いずれも図1に示した補間値発生回路1
9と同様に、フィールド内補間回路30と乗算器31,
32および加算器33により構成される。図6に本実施
形態における各画像信号の関係を示す。
FIG. 5 shows a second embodiment of the present invention.
Since the configuration is the same as that of FIG. 1 except for the configuration of the interpolation value generation circuit 19, its detailed description is omitted. The interpolated value generation circuit 19 is composed of two interpolated value generation circuits 34 and 35 and a switch 36 for selecting the output of these. The interpolation value generation circuits 34 and 35 are both the interpolation value generation circuit 1 shown in FIG.
9, the intra-field interpolation circuit 30 and the multiplier 31,
32 and an adder 33. FIG. 6 shows the relationship between the image signals in this embodiment.

【0037】第1の補間値発生回路34は、参照画像6
1における動き量が大の場合に有効な補間値を発生す
る。すなわち、図6(a)に示すように、動きベクトル
候補18の垂直方向成分がフィールド内n+1/2ライ
ン(nは整数)の場合は、フィールドメモリ15に記憶
された対応する画素値○(ここでは、フィールドメモリ
15の内容が符号化対象画像63に近い画像であると仮
定して説明する)がそのまま参照画像信号として出力さ
れる(k=1に制御される)。
The first interpolated value generation circuit 34 uses the reference image 6
When the amount of movement in 1 is large, an effective interpolation value is generated. That is, as shown in FIG. 6A, when the vertical component of the motion vector candidate 18 is n + 1/2 lines in the field (n is an integer), the corresponding pixel value ∘ stored in the field memory 15 (here Then, it is assumed that the content of the field memory 15 is an image close to the encoding target image 63) and is output as it is as the reference image signal (controlled to k = 1).

【0038】また、第1の補間値発生回路34は動きベ
クトル候補18の垂直方向成分がフィールド内nライン
(nは整数)の場合には、補間すべき画素△に隣接する
フィールドメモリ15内の画像信号61の二つの画素値
○の平均によって補間値△を作成する。
When the vertical component of the motion vector candidate 18 is n lines in the field (n is an integer), the first interpolation value generating circuit 34 stores the data in the field memory 15 adjacent to the pixel Δ to be interpolated. An interpolation value Δ is created by averaging two pixel values ◯ of the image signal 61.

【0039】第2の補間値発生回路35は、参照画像6
1における動き量が小の場合に有効な補間値を発生す
る。すなわち、図6(b)に示すように、動きベクトル
候補18の垂直方向成分がフィールド内n+1/2ライ
ン(nは整数)の場合、フィールドメモリ15に記憶さ
れた対応する画素値○(ここでは、フィールドメモリ1
5の内容が符号化対象画像63に近い画像であると仮定
して説明する)がそのまま参照画像信号として出力され
る(k=1に制御される)。例えばn=0の場合、符号
化対象画像信号64に対する参照画像信号は画素値65
となる。
The second interpolated value generation circuit 35 uses the reference image 6
When the amount of movement in 1 is small, an effective interpolation value is generated. That is, as shown in FIG. 6B, when the vertical component of the motion vector candidate 18 is n + 1/2 lines in the field (n is an integer), the corresponding pixel value ∘ stored in the field memory 15 (here, , Field memory 1
The description will be made assuming that the content of 5 is an image close to the encoding target image 63) is output as it is as a reference image signal (controlled to k = 1). For example, when n = 0, the reference image signal for the encoding target image signal 64 is the pixel value 65.
Becomes

【0040】また、第2の補間値発生回路35は動きベ
クトル候補18の垂直方向成分がフィールド内nライン
の場合は、補間すべき画素◎を隣接するフィールドメモ
リ16内の信号○とする。例えば、n=0の場合、符号
化対象画像信号64に対する参照画像信号の補間値68
は、画素値66となる。
If the vertical component of the motion vector candidate 18 is n lines in the field, the second interpolation value generation circuit 35 sets the pixel ⊚ to be interpolated as the signal ∘ in the adjacent field memory 16. For example, when n = 0, the interpolation value 68 of the reference image signal with respect to the encoding target image signal 64 is
Has a pixel value of 66.

【0041】動きベクトル候補18の垂直方向成分がフ
ィールド内n/2+1/4ラインの場合には、補間すべ
き画素△に隣接するフィールドメモリ15からの画素値
○と、フィールドメモリ16からの画素値○との平均に
よって、補間値△が作成される。例えばn=0の場合、
符号化対象画像信号64に対する参照画像信号の補間値
67は、画素値65と画素値66の平均値となる。
When the vertical component of the motion vector candidate 18 is n / 2 + 1/4 lines in the field, the pixel value ◯ from the field memory 15 adjacent to the pixel Δ to be interpolated and the pixel value from the field memory 16 An interpolated value Δ is created by averaging with ○. For example, when n = 0,
The interpolation value 67 of the reference image signal with respect to the encoding target image signal 64 is the average value of the pixel value 65 and the pixel value 66.

【0042】このように、補間値発生回路35はフィー
ルド内1/4ライン単位の精度で参照画像信号を発生さ
せることができ、動きが少なく解像度の高い画像に対し
て有効な動き補償を可能とする。
As described above, the interpolation value generating circuit 35 can generate a reference image signal with an accuracy of a unit of 1/4 line in the field, and enables effective motion compensation for an image with little motion and high resolution. To do.

【0043】ここで、切替器36は動きベクトル探索回
路17から出力される動きベクトル候補18の垂直方向
成分の絶対値がある閾値より大の場合、補間値発生回路
34の出力を選択し、閾値より小の場合は補間値回路3
5の出力を選択することにより、それぞれに適切な参照
画像信号を発生する。また、別の方式として、動きベク
トル探索回路17から出力される動きベクトル候補18
の垂直方向成分の絶対値が大の時は補間値回路34の出
力を選択し、小の場合は補間値発生回路34,35の両
方の出力を参照画像信号とし、両者について相関演算を
行って、いずれか一方を選択する方法も有効である。
Here, when the absolute value of the vertical component of the motion vector candidate 18 output from the motion vector search circuit 17 is larger than a certain threshold value, the switch 36 selects the output of the interpolation value generation circuit 34 and sets the threshold value. Interpolation value circuit 3 if smaller
By selecting the output of 5, an appropriate reference image signal is generated for each. Also, as another method, the motion vector candidate 18 output from the motion vector search circuit 17
When the absolute value of the vertical component of is large, the output of the interpolation value circuit 34 is selected, and when it is small, both outputs of the interpolation value generating circuits 34 and 35 are used as reference image signals, and correlation calculation is performed for both. The method of selecting either one is also effective.

【0044】次に、本発明の第3の実施形態について説
明する。図7は、本発明の第3の実施形態に係る動画像
符号化装置のブロック図である。
Next, a third embodiment of the present invention will be described. FIG. 7 is a block diagram of a moving picture coding apparatus according to the third embodiment of the present invention.

【0045】図7において、入力端子001に入力され
る画像データは、入力バッファメモリ100に一時的に
蓄えられた後、符号化対象画像の順序に従って、複数画
素で構成される部分領域毎に、部分画像データ入力バッ
ファメモリ100より読み出される。入力バッファメモ
リ100より読み出される部分画像データは、動きベク
トル検出回路200に入力される。動きベクトル検出回
路200は、過去に符号化した再生画像の中から入力デ
ータを効率良く符号化できる部分画像を求め、その部分
画像の領域のデータおよびその領域の位置を示す動きベ
クトル(アドレスデータ)を出力する。
In FIG. 7, the image data input to the input terminal 001 is temporarily stored in the input buffer memory 100, and then, in accordance with the order of the image to be encoded, for each partial area composed of a plurality of pixels. It is read from the partial image data input buffer memory 100. The partial image data read from the input buffer memory 100 is input to the motion vector detection circuit 200. The motion vector detection circuit 200 obtains a partial image from which the input data can be efficiently coded from the reproduced images coded in the past, and the motion vector (address data) indicating the data of the region of the partial image and the position of the region. Is output.

【0046】入力バッファメモリ100より出力される
部分画像データは、動きベクトル検出回路200より出
力される部分画像データおよび動きベクトルと共に局部
符号化回路300にも入力される。この局部符号化回路
300では、入力バッファメモリ100より出力される
部分画像データそのもの、または動きベクトルで指定さ
れる部分画像データとの差分データのうち何れか一方が
符号化される。ここで、動きベクトルで指定される領域
との差分の符号化データには、その動きベクトルを可変
長符号化したデータも含まれる。
The partial image data output from the input buffer memory 100 is also input to the local encoding circuit 300 together with the partial image data and the motion vector output from the motion vector detecting circuit 200. The local encoding circuit 300 encodes either the partial image data itself output from the input buffer memory 100 or the difference data from the partial image data designated by the motion vector. Here, the encoded data of the difference from the area designated by the motion vector also includes data obtained by variable-length encoding the motion vector.

【0047】局部符号化回路300で符号化されたデー
タは、動きベクトル検出回路200より出力される部分
画像データと共に局部復号回路400に入力され復号さ
れることにより、再生画像が得られる。また、符号化デ
ータが動きベクトルを用いて符号化されている場合に
は、復号結果が動きベクトル検出回路200より出力さ
れる部分画像データに加算されて再生画像が得られる。
この再生画像データは、動きベクトル検出回路200に
入力され、次に入力される画像データの符号化のために
一時記憶される。
The data coded by the local coding circuit 300 is input to the local decoding circuit 400 together with the partial image data output from the motion vector detection circuit 200 and decoded to obtain a reproduced image. When the encoded data is encoded using the motion vector, the decoding result is added to the partial image data output from the motion vector detection circuit 200 to obtain the reproduced image.
This reproduced image data is input to the motion vector detection circuit 200 and is temporarily stored for encoding the image data input next.

【0048】次に、動きベクトル検出回路200、局部
符号化回路300および局部復号回路400の具体的な
動作例を説明する。
Next, a concrete operation example of the motion vector detection circuit 200, the local coding circuit 300 and the local decoding circuit 400 will be described.

【0049】先ず、動きベクトル検出回路200におい
ては、入力バッファメモリ100より入力されるデータ
は、動きベクトルの探索に不要となった画像データが記
憶されていた画像メモリ(211〜214の何れか)
に、書込制御回路222によって順次書き込まれる。こ
の様にして画像メモリ(211〜214)に保存された
符号化済み画像データは、読出制御回路221およびデ
ータ切り換え回路231により、符号化画像に時間的に
近い画像から領域毎に順次読み出され、差分回路241
で入力データとの差分が領域毎に算出される。評価回路
242は、この領域毎の差分の合計値の大きさを順次比
較し、読出制御回路221が画像メモリ内を探索する方
向を制御し、先に検出した部分画像よりも入力された部
分画像との差分が更に小さな符号化済み画像の部分領域
を検出する毎に、ベクトルレジスタ243にその部分画
像の領域を示すアドレスを記憶させ、入力された部分画
像に最も近い符号化済み画像の部分領域を求める。この
ようにしてクトルレジスタ243に記憶された、入力さ
れた部分画像との差分が最も小さな符号化済み画像の部
分領域を示すアドレスデータは読出制御回路233およ
び切替回路232に入力され、その符号化済み画像の部
分領域に対する符号化データの再生画像が再生画像メモ
リ(215〜218)より読み出され、そのアドレスデ
ータと共に局部符号化回路300に入力される。
First, in the motion vector detection circuit 200, the data input from the input buffer memory 100 is an image memory (any one of 211 to 214) in which image data unnecessary for the search of the motion vector is stored.
Are sequentially written by the write control circuit 222. The coded image data stored in the image memory (211 to 214) in this manner is sequentially read by the read control circuit 221 and the data switching circuit 231 from the image temporally close to the coded image for each area. , Difference circuit 241
The difference from the input data is calculated for each area. The evaluation circuit 242 sequentially compares the magnitudes of the total values of the differences for each area, controls the direction in which the read control circuit 221 searches in the image memory, and inputs the partial image rather than the previously detected partial image. Every time a partial area of an encoded image having a smaller difference from is detected, an address indicating the area of the partial image is stored in the vector register 243, and the partial area of the encoded image closest to the input partial image is stored. Ask for. The address data indicating the partial area of the encoded image having the smallest difference from the input partial image stored in the register 243 in this way is input to the read control circuit 233 and the switching circuit 232. The reproduced image of the encoded data for the partial area of the completed image is read from the reproduced image memory (215 to 218) and input to the local encoding circuit 300 together with the address data.

【0050】一方、局部符号化回路300においては、
この実施形態では動き補償誤差の符号化方法として直交
変換の一つであるDCT(離散コサイン変換)と量子化
および可変長符号化を用いている。局部符号化回路30
0において、先ず入力バッファメモリ100から出力さ
れる部分画像データは差分回路311に入力され、その
部分画像データに対して動きベクトル検出回路200か
ら出力される、符号化データを再生した部分画像データ
との差分が算出される。切替回路312は、差分回路3
11より入力される差分画像データと入力バッファメモ
リ100より入力される部分画像データとを端子002
に入力される制御信号によって順次切り替えて出力す
る。
On the other hand, in the local encoding circuit 300,
In this embodiment, DCT (discrete cosine transform), which is one of orthogonal transforms, and quantization and variable length coding are used as a method of encoding a motion compensation error. Local encoding circuit 30
0, first, the partial image data output from the input buffer memory 100 is input to the difference circuit 311, and the partial image data output from the motion vector detection circuit 200 with respect to the partial image data is reproduced as the partial image data. Is calculated. The switching circuit 312 is the difference circuit 3
The difference image data input from 11 and the partial image data input from the input buffer memory 100 are input to the terminal 002.
The signals are sequentially switched and output according to the control signal input to.

【0051】DCT回路320は、切替回路312より
順次出力される部分画像データおよび差分画像データを
順次周波数変換して出力する。量子化回路330は、D
CT回路320から出力される周波数変換されたデータ
を予め設定された量子化幅で量子化して出力する。エン
トロピ符号器340は、量子化回路330で量子化され
たデータと、その量子化幅情報および部分画像データと
差分データとの識別符号を併せて符号化し、更に差分画
像データの符号化にはベクトルレジスタ243より出力
される該部分画像に対する動きベクトルも併せて、それ
ぞれの出現確率に応じたハフマン符号等を用いて可変長
符号化して出力する。この識別符号と動きベクトルを併
せて1つのハフマン符号を形成すれば、効率の良い符号
化が可能である。また、この符号化において、予め決め
られた規則により指定される領域の符号化データを再生
して得られた画像データ、或いは固定データとの差分が
設定値以下の入力画像データについては、その様な部分
画像の連続数を可変長符号化すれば、更に符号化効率が
向上する。
The DCT circuit 320 sequentially frequency-converts and outputs the partial image data and the difference image data sequentially output from the switching circuit 312. The quantizer circuit 330
The frequency-converted data output from the CT circuit 320 is quantized with a preset quantization width and output. The entropy encoder 340 collectively encodes the data quantized by the quantization circuit 330, the quantization width information and the identification code of the partial image data and the difference data, and further encodes the difference image data by a vector. The motion vector for the partial image output from the register 243 is also variable-length coded and output using a Huffman code or the like according to the respective appearance probabilities. If one Huffman code is formed by combining the identification code and the motion vector, efficient coding is possible. In addition, in this encoding, for the input image data whose difference from the image data obtained by reproducing the encoded data of the area specified by the predetermined rule or the fixed data is the set value or less, If the number of consecutive partial images is variable-length coded, the coding efficiency is further improved.

【0052】符号量評価回路351は、符号化対象の部
分画像が動きベクトルで指定された領域との差分を符号
化した場合と、入力データをそのままDCTして符号化
した場合とで符号量の比較を行い、符号化効率の良い方
の符号化データを出力バッファ360および局部復号回
路400に出力する。
The code amount evaluation circuit 351 determines the code amount when the difference between the partial image to be encoded and the area designated by the motion vector is encoded and when the input data is directly DCT encoded. The comparison is performed, and the coded data having the higher coding efficiency is output to the output buffer 360 and the local decoding circuit 400.

【0053】出力バッファ360は、出力データ速度の
調整の為に、この符号化データを一時的に記憶すると共
に、量子化回路330で用いられる量子化幅とエントロ
ピ符号化器340で用いられる符号化テーブルを制御す
る。
The output buffer 360 temporarily stores the coded data in order to adjust the output data rate, and the quantization width used in the quantization circuit 330 and the coding used in the entropy encoder 340. Control the table.

【0054】局部復号回路400においては、動きベク
トル検出回路200より出力される部分画像データがデ
ータメモリ441に一時記憶されるとともに、符号量評
価回路351より出力される符号化データが可変長復号
器410に入力され、識別符号を含む動きベクトルおよ
び符号化前の量子化データが復号される。この復号され
た量子化データは逆量子化回路420に入力され、量子
化前のダイナミックレンジを持つ代表値に変換(逆量子
化)された後、加算回路450に入力される。逆量子化
回路420で逆量子化されたデータは逆DCT回路43
0に入力され、部分画像データ又は差分画像データが再
生される。ゲート回路442は、可変長復号器410が
復号した識別符号により、逆DCT回路430より出力
される再生データが差分画像データである場合にはデー
タメモリ441より出力される部分画像データを通過さ
せ、差分画像でない場合には出力データを零にして、そ
れぞれ加算回路450に出力する。
In the local decoding circuit 400, the partial image data output from the motion vector detection circuit 200 is temporarily stored in the data memory 441, and the encoded data output from the code amount evaluation circuit 351 is a variable length decoder. The motion vector including the identification code and the quantized data before encoding are input to 410 and decoded. The decoded quantized data is input to the inverse quantization circuit 420, converted into a representative value having a dynamic range before quantization (inverse quantization), and then input to the addition circuit 450. The data inversely quantized by the inverse quantization circuit 420 is the inverse DCT circuit 43.
0 is input, and partial image data or difference image data is reproduced. The gate circuit 442 passes the partial image data output from the data memory 441 when the reproduction data output from the inverse DCT circuit 430 is difference image data by the identification code decoded by the variable length decoder 410, If it is not a difference image, the output data is set to zero and output to the addition circuit 450.

【0055】こうして逆DCTされた画像データが差分
画像を符号化したものである場合には、動きベクトル検
出回路200より出力される部分画像データに加算さ
れ、差分画像でない場合には、動きベクトル検出回路2
00より出力された部分画像データを使用せずに、加算
回路450より再生画像が得られる。この再生画像デー
タは、動きベクトル検出回路200に入力され、次に入
力される画像データの符号化の為に一時記憶される。
When the image data subjected to the inverse DCT in this way is the encoded difference image, it is added to the partial image data output from the motion vector detection circuit 200, and when it is not the difference image, the motion vector detection is performed. Circuit 2
A reproduction image can be obtained from the adding circuit 450 without using the partial image data output from 00. This reproduced image data is input to the motion vector detection circuit 200 and is temporarily stored for encoding the image data input next.

【0056】図8は本発明の第4の実施形態であり、図
1の符号化回路400に含まれる可変長復号回路410
の代わりに量子化データを記憶するデータメモリ460
を用いた点が異なっている。この場合には、入力バッフ
ァメモリ100より出力される部分画像データとそれに
対する動きベクトルで指定される再生画像との差分画像
データをDCTおよび量子化したデータがデータメモリ
460に一時記憶される。そして、符号量評価回路35
2で選択され、出力バッファ360に出力される符号化
データに対応する画像データが逆量子化回路420に出
力される。この画像データが差分画像データである場合
には、図1の例と同様にデータメモリ441から出力さ
れる部分画像データと加算回路450において加算され
ることによって再生画像が得られる。
FIG. 8 shows a fourth embodiment of the present invention, which is a variable length decoding circuit 410 included in the encoding circuit 400 of FIG.
Data memory 460 for storing quantized data instead of
The difference is that you used. In this case, DCT and quantized data of the difference image data between the partial image data output from the input buffer memory 100 and the reproduced image designated by the motion vector corresponding thereto is temporarily stored in the data memory 460. Then, the code amount evaluation circuit 35
The image data corresponding to the encoded data selected in 2 and output to the output buffer 360 is output to the inverse quantization circuit 420. When this image data is difference image data, a reproduction image is obtained by adding the partial image data output from the data memory 441 in the addition circuit 450, as in the example of FIG.

【0057】この実施形態は、復号の為の演算が不要で
あるために、図1よりも処理時間が短くなるという利点
がある。
This embodiment has an advantage that the processing time is shorter than that in FIG. 1 because the calculation for decoding is unnecessary.

【0058】図9は本発明の第5の実施形態であり、符
号化回路400の一部を動きベクトル検出回路に用いる
様にした例である。この実施形態においても、動きベク
トル検出回路200は既に符号化し再生した画像の中か
ら読出制御回路224に従って部分画像データを切替回
路232を介して読み出すと共に、その領域の位置を示
す動きベクトル(アドレスデータ)を出力する。
FIG. 9 shows a fifth embodiment of the present invention, which is an example in which a part of the encoding circuit 400 is used for a motion vector detecting circuit. Also in this embodiment, the motion vector detection circuit 200 reads out partial image data from the already encoded and reproduced image according to the read control circuit 224 through the switching circuit 232, and at the same time, the motion vector (address data) indicating the position of the area is read. ) Is output.

【0059】図9において、入力端子001に入力され
る画像データは、図7および図8と同様に入力バッファ
メモリ100に一時的に蓄えられた後、符号化対象画像
の順序に従って複数画素で構成される領域毎に入力バッ
ファメモリ100より読み出され、局部符号化回路30
0に入力される。この入力バッファメモリ100より出
力される部分画像データは、先ず入力端子002に入力
される制御信号によりゲート回路313を介して入力さ
れる動きベクトル検出回路200からの出力データとの
差分はとられず、図7および図8と同様にDCT、量子
化、可変長符号化が施される。量子化データはデータメ
モリ460に記憶され、符号化データおよび符号量は符
号量評価器353に記憶される。次に、入力端子002
に入力される制御信号が変更され、動きベクトル検出回
路200により出力される部分画像データとの差分を算
出されて、図7および図8と同様にDCT、量子化、可
変長符号化が行われる。
In FIG. 9, the image data input to the input terminal 001 is temporarily stored in the input buffer memory 100 as in FIGS. 7 and 8, and is then composed of a plurality of pixels in the order of the image to be encoded. The local encoding circuit 30 reads out from the input buffer memory 100 for each area
Input to 0. The partial image data output from the input buffer memory 100 is not different from the output data from the motion vector detecting circuit 200 input via the gate circuit 313 by the control signal input to the input terminal 002 first. DCT, quantization, and variable length coding are performed as in FIGS. 7 and 8. The quantized data is stored in the data memory 460, and the encoded data and the code amount are stored in the code amount evaluator 353. Next, input terminal 002
The control signal input to is changed, the difference from the partial image data output by the motion vector detection circuit 200 is calculated, and DCT, quantization, and variable length coding are performed as in FIGS. 7 and 8. .

【0060】符号量評価器353は、エントロピ符号器
340からの符号化データを評価して、その評価結果に
従って読出制御回路224を制御することにより、符号
量を更に少なくできる領域を検出する毎にその符号化デ
ータを記憶させると共に、動きベクトル検出回路200
から出力された部分画像データをデータメモリ441に
記憶させ、その差分画像をDCTして量子化したデータ
をデータメモリ460に記憶させる。この様にして最終
的に最も符号量の少なくなる符号化データが出力バッフ
ァ360に出力される。この符号化データに対する量子
化データが局部復号回路400において図7および図8
と同様に再生される。再生データは動きベクトル検出回
路200に入力され、次に入力される画像データの符号
化の為に一時記憶される。
The code amount evaluator 353 evaluates the encoded data from the entropy encoder 340 and controls the read control circuit 224 according to the evaluation result, so that the code amount evaluator 353 detects a region where the code amount can be further reduced. The encoded data is stored and the motion vector detection circuit 200
The partial image data output from the data memory 441 is stored in the data memory 441, and the data obtained by DCT and quantizing the difference image is stored in the data memory 460. In this way, the coded data with the smallest code amount is finally output to the output buffer 360. The quantized data corresponding to this coded data is converted by the local decoding circuit 400 in FIGS.
Will be played as well. The reproduction data is input to the motion vector detection circuit 200 and is temporarily stored for encoding the image data input next.

【0061】図7および図8の実施形態においては、最
適動きベクトルとして、より正確な動きベクトルが求ま
るのに対し、図9の実施形態では符号化効率を最大にす
る動きベクトルが求められる。
In the embodiments of FIGS. 7 and 8, a more accurate motion vector is found as the optimum motion vector, whereas in the embodiment of FIG. 9, a motion vector that maximizes the coding efficiency is found.

【0062】図10は、図7〜図9で示した実施形態に
おいて符号化されたデータを再生する回路例を示すもの
である。可変長復号器510は入力端子004から入力
される符号化データを復号し、量子化幅情報、動きベク
トル(動きベクトルで指定される部分画像との差分画像
データかそうでないかの識別符号を含む)、および量子
化データを再生する。量子化データは逆量子化回路52
0、逆DCT回路530を通して再生される。この再生
データが動きベクトルで指定される部分画像との差分画
像データであれば、読出制御回路521がその部分画像
データを再生画像メモリ611〜614より読み出して
動きベクトル検出回路600から出力し、局部復号回路
500に入力する。この部分画像データは、ゲート回路
540を介して加算回路550で差分画像データと加算
されて、再生画像データとなる。この再生画像データ
は、次に入力される符号化データの再生の為に動きベク
トル検出回路600に入力され、一時記憶される。ま
た、この再生画像データは出力バッファ560にも入力
され、本来の画像の順序に戻されて出力される。
FIG. 10 shows an example of a circuit for reproducing the coded data in the embodiment shown in FIGS. The variable length decoder 510 decodes the encoded data input from the input terminal 004, and includes the quantization width information, the motion vector (differential image data with respect to the partial image designated by the motion vector, and an identification code indicating whether it is not). ), And the quantized data. The quantized data is the inverse quantization circuit 52.
0, reproduced through the inverse DCT circuit 530. If this reproduction data is the difference image data with the partial image specified by the motion vector, the read control circuit 521 reads the partial image data from the reproduction image memories 611 to 614 and outputs it from the motion vector detection circuit 600. Input to the decoding circuit 500. This partial image data is added to the difference image data by the addition circuit 550 via the gate circuit 540 to become reproduced image data. This reproduced image data is input to the motion vector detection circuit 600 and is temporarily stored in order to reproduce the encoded data to be input next. The reproduced image data is also input to the output buffer 560, returned in the original order of the images, and output.

【0063】次に、図7および図8の評価回路242お
よび読出制御回路221、図9の符号量評価器352お
よび読出制御回路224において行われる動きベクトル
の探索動作について説明する。
Next, the motion vector searching operation performed in the evaluation circuit 242 and the read control circuit 221 of FIGS. 7 and 8 and the code amount evaluator 352 and the read control circuit 224 of FIG. 9 will be described.

【0064】図11〜図16は、本発明による動きベク
トル探索例を示すものである。これらの図11〜図16
において、s1,s2,…,s6は1フレームまたは1
フィールドの画像を意味し、101,102,…,12
0は水平方向または垂直方向の1画素または複数画素を
意味する。
11 to 16 show examples of motion vector search according to the present invention. 11 to 16
, S1, s2, ..., s6 are 1 frame or 1
Means an image of a field, 101, 102, ..., 12
0 means one pixel or a plurality of pixels in the horizontal direction or the vertical direction.

【0065】図11に示す動きベクトル探索例において
は、符号化対象の部分画像(例えばs4−104)に対
して、先ず時間的に近い符号化済み画像s3全体(10
1〜120)を探索し、その探索により求められた最適
動きベクトル、すなわち符号化効率が高いか、またはよ
り正確な動きベクトル(例えばs3−107)を基にし
て符号化対象画像に符号化済み画像s3よりも時間的に
離れた符号化済み画像s2での探索範囲(面積)を例え
ば(105〜115)に限定する。
In the motion vector search example shown in FIG. 11, the entire encoded image s3 (10) which is temporally closest to the partial image to be encoded (eg, s4-104).
1-120), and the optimum motion vector obtained by the search, that is, the coding efficiency is high, or the more accurate motion vector (for example, s3-107) has been coded in the coding target image. The search range (area) in the encoded image s2 that is temporally distant from the image s3 is limited to (105 to 115), for example.

【0066】この時間的に離れた符号化済み画像s2で
の探索においては、先に求められた最適動きベクトル
(例えばs03−107)を含めて、最適動きベクトル
(例えばs02−109或いはs03−107)を求め
る。
In the search in the coded image s2 which is distant in time, the optimum motion vector (for example, s02-109 or s03-107) including the previously calculated optimum motion vector (for example, s03-107) is included. ).

【0067】そして、得られた最適動きベクトル(例え
ばs2−107)により指定される領域の画像と、符号
化対象の部分画像(例えばs4−104)との差分、す
なわち動き補償誤差を求め、その最適動きベクトルと動
き補償誤差を符号化する。
Then, the difference between the image of the area designated by the obtained optimum motion vector (for example, s2-107) and the partial image to be encoded (for example, s4-104), that is, the motion compensation error is obtained, and the difference is obtained. Encode the optimal motion vector and motion compensation error.

【0068】図12〜図14に示す動きベクトル探索例
は、符号化対象画像s4に時間的に近い画像(例えばs
3)が時間的に離れた画像(例えばs1)との間の動き
ベクトルを用いて符号化されている場合に好適な例であ
る。この場合、符号化対象の部分画像s4−104に対
して時間的に近い画像s3との間の動きベクトルを予測
することが可能であるため、その時間的に近い画像s3
での探索範囲を例えば(103〜112)に制限してい
る。また、これによって時間的に近い画像との間の符号
化効率の良い動きベクトル(例えばs3−107)が求
まれば、その動きベクトルで指定される時間的に近い画
像の部分領域(例えばs3−107)に対して使用され
た時間的に離れた画像(例えばs1)との間の動きベク
トル(例えばs1−110)を用いて、符号化対象画像
s4の部分画像s4−104の時間的に離れた画像(例
えばs2)との間の動きベクトルの候補となる領域を更
に狭い範囲、例えば(107〜110)に限定できる。
The motion vector search examples shown in FIGS. 12 to 14 are images (for example, s) that are temporally close to the encoding target image s4.
This is a suitable example when 3) is encoded using a motion vector between a temporally distant image (for example, s1). In this case, since it is possible to predict the motion vector between the partial image s4-104 to be encoded and the image s3 which is temporally close, the temporally close image s3 is predicted.
The search range is limited to (103 to 112), for example. Further, if a motion vector (for example, s3-107) having a high coding efficiency with the temporally close image is obtained by this, a partial region of the temporally close image designated by the motion vector (for example, s3-107). 107) using the motion vector (eg, s1-110) between the temporally distant image (eg, s1) used for 107) and the temporal separation of the partial image s4-104 of the target image s4. The area that is a candidate for the motion vector with respect to the image (for example, s2) can be limited to a narrower range, for example (107 to 110).

【0069】図15に示す動きベクトル探索例は、画像
間で動きが非常に大きく、時間的に近い画像s3でも候
補となる動きベクトルが存在しない場合や、時間的に近
い画像s3で候補として求められた動きベクトル(例え
ばs3−116)が非常に大きく、時間的に離れた画像
s2では符号化効率の良い動きベクトルが存在しないこ
とを予想できる場合の例である。
In the motion vector search example shown in FIG. 15, when the motion between images is very large and there is no candidate motion vector even in the image s3 which is close in time, or when the image s3 which is close in time is found as a candidate. This is an example of the case where the obtained motion vector (for example, s3-116) is very large, and it can be predicted that there is no motion vector with good coding efficiency in the temporally distant images s2.

【0070】このような場合、時間的に離れた画像s2
については動きベクトルの探索を行わないか、または探
索範囲を例えば(116〜120)のように更に限定す
ることができる。これにより、動きベクトルの探索に要
する演算量が少なくても、符号化効率の良い動きベクト
ルを求めることが可能となる。
In such a case, images s2 that are temporally separated
For, the motion vector search may not be performed, or the search range may be further limited, such as (116 to 120). This makes it possible to obtain a motion vector with high coding efficiency even if the amount of calculation required to search for the motion vector is small.

【0071】図16に示す動きベクトル探索例は、符号
化対象の部分画像s4−104に時間的に近い画像s3
で求められた動きベクトル(例えばs3−107)があ
る程度大きな場合や、適当な動きベクトルが求められな
かった場合の例である。これらの場合は、時間的に離れ
た画像s2での動きベクトルの探索は行わず、時間的に
近い画像s3との間の動きベクトルが小さい場合にの
み、時間的に離れた画像s2での探索範囲を符号化対象
画像s4の符号化領域と同じ位置の近傍(例えば103
〜105)に制限して動きベクトルの探索を行うように
する。
In the motion vector search example shown in FIG. 16, the image s3 that is temporally close to the partial image s4-104 to be coded is used.
This is an example of the case where the motion vector (for example, s3-107) obtained in step S1 is large to some extent, or an appropriate motion vector is not obtained. In these cases, the search for the motion vector in the temporally distant image s2 is not performed, and the search in the temporally distant image s2 is performed only when the motion vector between the temporally distant image s3 is small. The range is in the vicinity of the same position as the coding area of the coding target image s4 (for example, 103
Up to 105) and search for a motion vector.

【0072】時間的に近い画像間の動きが大きな場合に
は、通常のカメラ撮影の画像では1画像の中でも動きに
よる“ぼけ”が存在するため、画像間で動き補償を行う
ときに1/2画素単位の差を生じ難い。即ち、そのよう
な場合は時間的に更に離れた画像で動きベクトルを求め
ても、探索のための演算量が増加するにも拘らず、符号
化効率の向上は少ない。図16の例によれば、このよう
な場合は動きの大きな画像では時間的に離れた画像の動
きベクトルを符号化しないために、符号化する種類が少
なくなり、更に符号化効率が高くなる。
When there is a large motion between images that are close in time, there is a "blur" due to the motion even in one image captured by a normal camera. It is difficult to make a difference in pixel units. That is, in such a case, even if the motion vector is obtained from images that are further apart in time, the improvement in coding efficiency is small despite the increase in the amount of calculation for searching. According to the example of FIG. 16, in such a case, since the motion vector of a temporally distant image is not coded in a large motion image, the number of types of coding is reduced, and the coding efficiency is further increased.

【0073】なお、本発明における符号化の方法はフレ
ーム内、フィールド内符号化、或いはフレーム間、フィ
ールド間差分符号化のいずれでもよく、更に他の符号化
方式と組み合わせることも可能である。また、本発明に
よる動きベクトルの探索方法は、予め任意の画像数間隔
で符号化した符号化済み画像を参照画像として、それら
の間の画像に対して動きベクトルを求める場合にも同様
に符号化対象画像の前後から探索を行うことができる。
The encoding method in the present invention may be intra-frame, intra-field encoding, inter-frame or inter-field differential encoding, and may be combined with other encoding methods. Further, the motion vector search method according to the present invention similarly encodes when a motion vector is obtained for an image between them using a coded image previously encoded at an arbitrary number of image intervals as a reference image. The search can be performed before and after the target image.

【0074】次に、第6の実施形態について説明する。
図17は、本発明の第6の実施形態に係る動画像符号化
装置のブロック図である。本実施形態は、MPEG1の
シミュレーションモデルであるSM3のような符号化方
式に本発明を適用した例であり、符号化のアルゴリズム
は基本的に動き補償+DCT(離散コサイン変換)方式
を採用している。但し、入力画像フォーマットは例えば
CCIR Rec.601/525に定義される画像フ
ォーマットのようなインタレースフォーマットである。
この画像フォーマットを図18に示す。図18におい
て、Yは輝度信号、Cr,Cbは色信号であり、それぞ
れの信号の1フィールド当たりの画素数は図中に示した
通りである。
Next, a sixth embodiment will be described.
FIG. 17 is a block diagram of a moving picture coding apparatus according to the sixth embodiment of the present invention. The present embodiment is an example in which the present invention is applied to an encoding method such as SM3 which is a simulation model of MPEG1, and an encoding algorithm basically adopts a motion compensation + DCT (discrete cosine transform) method. . However, the input image format is CCIR Rec. It is an interlaced format such as the image format defined in 601/525.
This image format is shown in FIG. In FIG. 18, Y is a luminance signal, Cr and Cb are color signals, and the number of pixels per field of each signal is as shown in the figure.

【0075】符号化単位はSM3と同様に、階層的に構
成される。すなわち、図19に示されるように、下位か
らブロック、マクロブロック、スライス、ピクチャ、そ
して図19には示されていないがグループオブピクチャ
およびシーケンスの順に階層化される。ブロックは8×
8画素よりなり、DCTはこのブロック単位で行われ
る。マクロブロックはYブロック2個と、Crブロック
およびCbブロック各1個の計4ブロックよりなり、動
き補償および各符号化モードの選択は、このマクロブロ
ック単位で行われる。
The coding unit is hierarchically structured like the SM3. That is, as shown in FIG. 19, blocks, macroblocks, slices, pictures, and a group of pictures and sequences, which are not shown in FIG. 8x blocks
It consists of 8 pixels, and DCT is performed in this block unit. A macro block is composed of two Y blocks and one Cr block and one Cb block, for a total of four blocks. Motion compensation and selection of each coding mode are performed in units of this macro block.

【0076】グループオブピクチャ(GOP)は、次の
ように構成される。ピクチャはSM3と同様に予測モー
ドとして許されるマクロブロック毎のモードの種類によ
って大きくI,P,Bの各ピクチャに分けられる。モー
ドとしては、フィールド内予測(Intra)、前方予
測(Inter:動き補償を含む)、後方予測および両
方向内挿予測の4モードがある(詳細は後述)。これら
のうち、どの予測モードを使用できるかによって表1に
示すようにピクチャの種類がI,P,Bの3通りに分類
される。
The group of pictures (GOP) is constructed as follows. Like SM3, the picture is roughly divided into I, P, and B pictures according to the type of mode for each macroblock allowed as a prediction mode. The modes include four modes of intra-field prediction (Intra), forward prediction (Inter: including motion compensation), backward prediction, and bidirectional interpolation prediction (details will be described later). Of these, the types of pictures are classified into three types, I, P, and B, as shown in Table 1, depending on which prediction mode can be used.

【0077】[0077]

【表1】 [Table 1]

【0078】本実施形態では、SM3と異なり、符号化
ピクチャフォーマットとしてインタレースフォーマット
を採用しており、同じ種類のピクチャでもGOP内での
位置により予測方法等が異なるため、ピクチャはさらに
細かく分類される。図20に、GOPの構成と各ピクチ
ャがどのピクチャから予測されるかを示す。同図に示さ
れるように、GOPはランダムアクセスおよび特殊再生
用にエントリポイントとして周期的に設けられたIピク
チャに先行するB0 ピクチャから始まり、次のIピクチ
ャの前にあるP2 で終わるピクチャの組によって定義さ
れる。Iピクチャは偶数フィールドのみに現われる。
In this embodiment, unlike SM3, an interlaced format is adopted as a coded picture format, and even pictures of the same type have different prediction methods depending on their positions in the GOP, so that pictures are further classified. It FIG. 20 shows the structure of GOP and from which picture each picture is predicted. As shown in the figure, the GOP starts with a B 0 picture that precedes an I picture that is periodically provided as an entry point for random access and trick play, and ends with P 2 that precedes the next I picture. Is defined by the set of. I-pictures appear only in even fields.

【0079】また、各ピクチャがどのピクチャからどの
ように予測されるかを表2および図21に示した。
Table 2 and FIG. 21 show how each picture is predicted from which picture.

【0080】[0080]

【表2】 [Table 2]

【0081】予測方法には偶数フィールドのみから予測
するフィールド間予測と、偶/奇各1フィールドずつか
ら適応的に予測を行なうフィールド間/フレーム間適応
予測の二通りがある。図21で矢印は、フィールド間予
測に行なうことを示し、また2本の線が1本の矢印に統
合されている記号は、フィールド間/フレーム間適応予
測を行なうことを示している。また、1GOP内での各
ピクチャの符号化順序は図20(b)に示される通りで
ある。
There are two types of prediction methods: inter-field prediction in which only even fields are predicted, and inter-field / inter-frame adaptive prediction in which even / odd one field is adaptively predicted. In FIG. 21, an arrow indicates that inter-field prediction is performed, and a symbol in which two lines are integrated into one arrow indicates that inter-field / inter-frame adaptive prediction is performed. The coding order of each picture in one GOP is as shown in FIG.

【0082】以上の点を踏まえて、図17に示す動画像
符号化装置を説明する。図17において、入力端子70
0にはインターレースされた動画像信号が入力される。
この入力動画像信号は、フィールドメモリ701に連続
した8フィールド分蓄えられる。フィールドメモリ70
1内の動画像信号は第1の動きベクトル検出回路710
に供給され、原動画像によるテレスコーピックサーチ
(後述)により、動きベクトル検出が1画素精度で行わ
れる。これが動き補償の第1段階の処理である。
Based on the above points, the moving picture coding apparatus shown in FIG. 17 will be described. In FIG. 17, the input terminal 70
An interlaced moving image signal is input to 0.
This input moving image signal is stored in the field memory 701 for eight consecutive fields. Field memory 70
The moving image signal in 1 is the first motion vector detection circuit 710.
The motion vector detection is performed with one pixel accuracy by a telescopic search (described later) using the moving image. This is the first stage process of motion compensation.

【0083】次に、動き補償の第2段階での前処理とし
て、局部復号ループ内のフィールドメモリ708に蓄え
られた局部復号信号を用いて、動きベクトル検出回路7
10で原画像を用いて求められた動きベクトルをその回
りの±1の範囲を全探索することにより、リファインす
る。
Next, as preprocessing in the second stage of motion compensation, the motion vector detecting circuit 7 is used by using the locally decoded signal stored in the field memory 708 in the local decoding loop.
The motion vector obtained using the original image in 10 is refined by searching the range of ± 1 around it.

【0084】次に、動き補償の第2の段階として、フィ
ールドメモリ708とフィールド間/フレーム間適応予
測回路709および第2の動きベクトル検出回路711
において局部復号信号を用いた1/2画素精度の動きベ
クトル検出が行われ、予測回路709により予測信号が
生成される。この予測信号は減算器702に入力されて
フィールドメモリ701からの動画像信号との差がとら
れ、この差が予測誤差信号として出力される。
Next, as the second stage of motion compensation, the field memory 708, the inter-field / inter-frame adaptive prediction circuit 709, and the second motion vector detection circuit 711.
In ½, motion vector detection with 1/2 pixel precision is performed using the locally decoded signal, and the prediction circuit 709 generates a prediction signal. This prediction signal is input to the subtractor 702, the difference from the moving image signal from the field memory 701 is calculated, and this difference is output as a prediction error signal.

【0085】この予測誤差信号はDCT回路703によ
り離散コサイン変換され、DCT係数データが得られ
る。このDCT係数データは量子化回路704で量子化
され適応スキャンされた後、2次元可変長符号化回路7
10を経てマルチプレクサ714に入力される。量子化
後のDCT係数データは、逆量子化回路705および逆
DCT回路706を経て局部復号され、I,Pピクチャ
のみがフィールドメモリ708に書きこまれる。フィー
ルドメモリ708は、適応予測に必要な4フィルード分
用意される。
This prediction error signal is discrete cosine transformed by the DCT circuit 703 to obtain DCT coefficient data. The DCT coefficient data is quantized by the quantizing circuit 704 and adaptively scanned, and then the two-dimensional variable length coding circuit 7
It is input to the multiplexer 714 via 10. The quantized DCT coefficient data is locally decoded through the inverse quantization circuit 705 and the inverse DCT circuit 706, and only I and P pictures are written in the field memory 708. The field memory 708 is prepared for four fields required for adaptive prediction.

【0086】マルチプレクサ714では、DCT係数デ
ータと、後述する第2の動きベクトル検出回路711か
らの動きベクトルおよび符号化制御部717からのマク
ロブロックタイプや、ステップサイズ等の付加情報が多
重化される。マルチプレクサ714で多重化された情報
は、バッファ715を経て一定の伝送レートとされ、例
えばVTR等の蓄積系(記録媒体)へ出力される。
The multiplexer 714 multiplexes the DCT coefficient data, the motion vector from the second motion vector detecting circuit 711, which will be described later, and the additional information such as the macroblock type from the coding control unit 717 and the step size. . The information multiplexed by the multiplexer 714 has a constant transmission rate via the buffer 715 and is output to a storage system (recording medium) such as a VTR.

【0087】符号化制御部717においては、バッファ
715でのバッファ量と、アクティビティ計算回路71
6で計算されたマクロブロック内アクティビティ(Iピ
クチャ)または直前の同モードの量子化前の信号のマク
ロブロック内アクティビティ(P,Bピクチャ)を使っ
て、量子化回路704での量子化ステップサイズを制御
している。
In the encoding control unit 717, the buffer amount in the buffer 715 and the activity calculation circuit 71
Using the intra-macroblock activity (I picture) calculated in step 6 or the intra-macroblock activity (P, B picture) of the immediately preceding signal in the same mode before quantization, the quantization step size in the quantization circuit 704 is set. Have control.

【0088】次に、図17の動画像符号化装置に対応す
る動画像復号装置の構成を図22により説明する。入力
端子800には、蓄積系から読み出された信号が入力さ
れ、バッファ801に一旦蓄えられる。バッファ801
から読み出された信号は、デマルチプレクサ/可変長復
号回路801に入力され、図17のマルチプレクサ71
4で多重化されたDCT係数データ、動きベクトルおよ
びステップサイズ等の付加情報が分離されると共に復号
される。
Next, the configuration of the moving picture decoding apparatus corresponding to the moving picture coding apparatus of FIG. 17 will be described with reference to FIG. The signal read from the storage system is input to the input terminal 800 and is temporarily stored in the buffer 801. Buffer 801
The signal read from is input to the demultiplexer / variable length decoding circuit 801, and the multiplexer 71 of FIG.
The DCT coefficient data multiplexed in step 4, additional information such as motion vector and step size are separated and decoded.

【0089】すなわち、DCT係数データは2次元可変
長復号されスキャン変換された後、図17の動画像符号
化装置における局部復号ループと同様、逆量子化回路8
03および逆DCT回路804を経て局部復号され、加
算器805および4フィールド分のフィールドメモリ8
06を経て適応予測回路807に入力される。一方、動
きベクトルは後述のように差分の形で送られてくるの
で、可変長復号の後、もとの形に戻されて適応予測回路
807に供給される。適応予測回路807では予測信号
が生成され、この予測信号と逆DCT回路804からの
局部復号信号が加算器805で加算されることにより、
元の動画像信号がフィールドメモリ806を介して取り
出される。フィールドメモリ806の出力は図示しない
画像表示部に供給される。
That is, after the DCT coefficient data is two-dimensionally variable-length decoded and scan-converted, the inverse quantization circuit 8 is used as in the local decoding loop in the moving picture coding apparatus of FIG.
03 and the inverse DCT circuit 804, locally decoded, adder 805 and field memory 8 for 4 fields.
It is input to the adaptive prediction circuit 807 via 06. On the other hand, since the motion vector is sent in the form of a difference as will be described later, after the variable length decoding, it is returned to the original form and supplied to the adaptive prediction circuit 807. A prediction signal is generated in the adaptive prediction circuit 807, and this prediction signal and the locally decoded signal from the inverse DCT circuit 804 are added by the adder 805,
The original moving image signal is taken out via the field memory 806. The output of the field memory 806 is supplied to an image display unit (not shown).

【0090】但し、画像の表示については復号順序と表
示順序が異なることと、Bピクチャは予測に用いないた
めフィールドメモリに蓄えておく必要がないことから、
I,Pピクチャの出力はフィールドメモリ806から出
力し、Bピクチャは復号しながらそのまま出力するとい
う切替えを行っている。
However, regarding the display of images, the decoding order and the display order are different, and since B pictures are not used for prediction, they do not need to be stored in the field memory.
The I and P pictures are output from the field memory 806, and the B pictures are output as they are while being decoded.

【0091】次に、本実施形態における動き補償と動き
ベクトル検出動作について詳細に説明する。動き補償
は、前述のようにマクロブロック単位で行われる。動き
ベクトル検出は、第1の動きベクトル検出回路710で
の1画素精度の通常のブロックマッチングによる動きベ
クトル検出と、この1画素精度の動きベクトルで指定さ
れる参照画像の周囲1/2画素精度の画素位置に適応的
な時空間内挿を行った各点について、動きベクトルを探
索することによる第2の動きベクトル検出回路711で
の動きベクトル検出である。時空間内挿の具体的な方法
については、後述する。
Next, the motion compensation and motion vector detection operation in this embodiment will be described in detail. Motion compensation is performed in macroblock units as described above. The motion vector detection includes motion vector detection by the first motion vector detection circuit 710 by normal block matching with 1-pixel precision, and detection of a 1/2 pixel precision around the reference image specified by the motion vector with 1-pixel precision. The motion vector detection is performed by the second motion vector detection circuit 711 by searching the motion vector for each point where the adaptive spatiotemporal interpolation is performed on the pixel position. A specific method of space-time interpolation will be described later.

【0092】第1の動きベクトル検出回路710での動
きベクトル検出は、入力動画像の各フィールド画像どう
しを用いて1画素精度で各フィールド毎に全探索により
最適な動きベクトルを見つける処理である。離れたフィ
ールド間のサーチには、テレスコーピックサーチ(SM
3参照)を用いている。但し、フィールド画像ではフィ
ールド間のサーチ経路として、複数の経路が考えられ
る。本実施形態では、以下の規則に従ってサーチ経路を
決定している。
The motion vector detection in the first motion vector detection circuit 710 is a process of finding the optimum motion vector by a full search for each field with one pixel accuracy using each field image of the input moving image. Telescopic search (SM
3) is used. However, in the field image, a plurality of paths can be considered as search paths between fields. In this embodiment, the search route is determined according to the following rules.

【0093】1)同位相フィールド間のサーチ 同位相のフィールドのみを用いて行う。 2)逆位相フィールド間のサーチ できるだけ同位相のフィールドを用いて行う。1) Search between in-phase fields This is done using only in-phase fields. 2) Search between opposite phase fields Use fields with the same phase as much as possible.

【0094】唯1回、逆位相フィールド間のサーチを経
路に含める必要があるが、本実施形態では図24にテレ
スコーピックサーチの順序を示すように、始めに異なる
位相のフィールドをサーチするようにしている。例えば
I→P2 の動きベクトルを求める時は、I→Po →B1
→B3 →P2 の順でサーチし、I→B0 →B2 →P1
2 のような経路は通らない。なお、図24で斜線を施
して示す範囲がサーチ範囲である。このテレスコーピッ
クサーチは、順方向と逆方向について別々に行われる。
また、各隣接フィールド間のサーチ範囲は、水平±15
画素、垂直±7画素である。
Although it is necessary to include the search between the antiphase fields only once in the path, in this embodiment, as shown in the order of the telescopic search in FIG. 24, the fields of different phases are searched first. I have to. For example, when obtaining a motion vector of I → P 2 , I → P o → B 1
→ B 3 → P 2 are searched in this order, and I → B 0 → B 2 → P 1
Routes such as P 2 do not pass. The range indicated by hatching in FIG. 24 is the search range. This telescopic search is performed separately for the forward direction and the backward direction.
The search range between adjacent fields is ± 15 horizontal.
Pixels, vertical ± 7 pixels.

【0095】第2の動きベクトル検出回路711での動
きベクトル検出は、局部復号ループ内のフィールドメモ
リ708に蓄積されている画像を参照画像として行われ
る。まず、この動きベクトル検出の前処理として、第1
の動きベクトル検出回路710で得られた動きベクトル
で指定される参照画像の周囲±1画素の範囲を全探索す
ることにより、動きベクトルがリファインされる。第2
の動きベクトル検出回路711での動きベクトル検出の
メインプロセスは、リファインにより得られた動きベク
トルで指定される参照画像の周囲1/2画素精度の位置
に後述する方法で生成された複数の予測信号候補につい
て、予測誤差電力を全て評価し比較することにより、最
適な予測信号候補を選択することによって行われる。
Motion vector detection in the second motion vector detection circuit 711 is performed using the image stored in the field memory 708 in the local decoding loop as a reference image. First, as the pre-processing of this motion vector detection, the first
The motion vector is refined by fully searching the range of ± 1 pixel around the reference image specified by the motion vector obtained by the motion vector detection circuit 710 of FIG. Second
The main process of motion vector detection in the motion vector detection circuit 711 is a plurality of prediction signals generated by a method described later at a position of 1/2 pixel accuracy around the reference image specified by the motion vector obtained by the refinement. This is performed by selecting the most suitable prediction signal candidate by evaluating and comparing all prediction error powers of the candidates.

【0096】なお、色信号については動きベクトル検出
は行われず、動き補償は輝度信号で得られた動きベクト
ルを基にして行われる。
Motion vector detection is not performed for the color signal, and motion compensation is performed based on the motion vector obtained from the luminance signal.

【0097】次に、図17のフィールド間/フレーム間
適応予測回路709の処理について説明する。図23
は、フィールド間/フレーム間適応予測回路709の一
部の構成を示すブロック図である。
Next, the processing of the inter-field / inter-frame adaptive prediction circuit 709 of FIG. 17 will be described. FIG. 23
9 is a block diagram showing a partial configuration of an inter-field / inter-frame adaptive prediction circuit 709. FIG.

【0098】前述したように、動き補償の第2段階は第
1の動きベクトル検出回路710で得られた動きベクト
ルで指定される参照画像の周囲1/2画素精度の範囲の
探索である。図25(b)に、その様子を示した。この
フィールド間/フレーム間適応予測は、P1 ,P2 ,B
の各ピクチャにおいて、符号化対象画像(符号化フィー
ルド)に対して例えばその前の偶奇各1フィールドのペ
ア#1,#2を参照画像(参照フィールド)として用い
て行われる。
As described above, the second stage of motion compensation is a search for a range of 1/2 pixel accuracy around the reference image designated by the motion vector obtained by the first motion vector detection circuit 710. This is shown in FIG. 25 (b). This inter-field / inter-frame adaptive prediction is based on P 1 , P 2 , B
In each picture, for example, a pair # 1 and # 2 of each preceding even-odd one field is used as a reference image (reference field) for the image to be encoded (coding field).

【0099】図25(a)に示す動き補償の第1段階
で、動きベクトル検出回路710により、それぞれの参
照フィールド#1,#2での最適点(●で示す)が各々
動きベクトルV1,V2で得られたとする。図25
(b)に示す動き補償の第2段階では、この動きベクト
ルV1,V2で指定される2つの最適点の周囲の1/2
画素精度の領域の参照画像にフィールド間/フレーム間
適応予測回路709において時空間フィルタを施して複
数の予測信号候補を求め、この予測信号候補と動きベク
トル検出回路710で検出された動きベクトルとから、
動きベクトル検出回路711で最適動きベクトルの探索
を行う。この場合、予測信号候補の生成法としては、フ
ィールド補間モードとフレーム補間モードの2つのモー
ドがある。
In the first stage of the motion compensation shown in FIG. 25A, the motion vector detection circuit 710 determines the optimum points (indicated by ●) in the reference fields # 1 and # 2, respectively. Suppose that it was obtained in. Figure 25
In the second stage of the motion compensation shown in (b), 1/2 of the circumference of the two optimum points designated by the motion vectors V1 and V2.
An inter-field / inter-frame adaptive prediction circuit 709 applies a spatio-temporal filter to a reference image in an area of pixel accuracy to obtain a plurality of prediction signal candidates, and based on the prediction signal candidates and the motion vector detected by the motion vector detection circuit 710, ,
The motion vector detection circuit 711 searches for the optimum motion vector. In this case, there are two modes of generating the prediction signal candidate, the field interpolation mode and the frame interpolation mode.

【0100】まず、フィールド補間モードでは、予測信
号候補は時空間フィルタのうち空間フィルタのみによっ
て生成される。すなわち、図25(b)の画素A〜Cの
画素値は、 A=(O+D)/2 B=(O+D+E+F)/4 C=(O+F)2 により作成される。このフィールド補間モードでは、偶
奇各フィールドに9点ずつ、計18点の予測信号候補の
探索点が存在する。
First, in the field interpolation mode, the prediction signal candidate is generated only by the spatial filter among the spatiotemporal filters. That is, the pixel values of the pixels A to C in FIG. 25B are created by A = (O + D) / 2 B = (O + D + E + F) / 4 C = (O + F) 2. In this field interpolation mode, there are 18 prediction signal candidate search points, 9 points in each of the even and odd fields.

【0101】一方、フレーム補間モードでは、予測信号
候補は各フィールドにおいて1画素精度の動き補償を行
った信号に、時空間フィルタの処理を施すことにより作
成される。例えば図25(b)の画素A〜Cの画素値
は、 A=G/2+(O+D)/4 B=G/2+(O+D+E+F)/8 C=G/2+(O+F)1/4 により作成される。この場合に、1/2画素精度の画素
位置のデータを提供する側のフィールドを基準フィール
ドと呼ぶことにする。このフレーム補間モードにおいて
も、予測信号候補は偶奇各フィールドに9点ずつある
が、画素Oの位置の予測信号は一致するので、計17点
の予測信号候補の探索点が存在することになる。
On the other hand, in the frame interpolation mode, the prediction signal candidate is created by subjecting the signal subjected to motion compensation with one pixel precision in each field to the processing of the spatio-temporal filter. For example, the pixel values of the pixels A to C in FIG. 25B are created by A = G / 2 + (O + D) / 4 B = G / 2 + (O + D + E + F) / 8 C = G / 2 + (O + F) 1/4 It In this case, the field on the side that provides the pixel position data with 1/2 pixel precision is referred to as a reference field. Also in this frame interpolation mode, there are nine prediction signal candidates in each of the even and odd fields, but the prediction signals at the position of the pixel O match, so there are a total of 17 search points for prediction signal candidates.

【0102】動き補償の第2段階では、この両者の和3
5点の予測信号候補の探索を行って最も予測誤差が小さ
い予測信号候補を最適予測信号として決定する。但し、
両フィールドに対し指している動きベクトルの方向が大
きくずれている場合には、フレーム補間モードは選択さ
れない(詳細は後述)。
At the second stage of motion compensation, the sum of the two is 3
The prediction signal candidates of 5 points are searched and the prediction signal candidate with the smallest prediction error is determined as the optimum prediction signal. However,
If the directions of the motion vectors pointing to both fields are largely deviated, the frame interpolation mode is not selected (details will be described later).

【0103】フィールド補間モードおよびフレーム補間
モードのいずれが選択されたかを示す情報と、どのフィ
ールドをフィールド補間モードに使用する参照フィール
ドまたはフレーム補間モードにおける基準フィールドと
して選んだかを示す情報は、1ビットのフラグにより伝
送される。なお、P0 及びP2 の直前のフィールドによ
る予測については、フィールド補間モードを単一フィー
ルドに適応したモードのみによって予測される。この場
合、モード選択のフラグは伝送されない。
Information indicating which of the field interpolation mode and the frame interpolation mode is selected and information indicating which field is selected as the reference field used in the field interpolation mode or the reference field in the frame interpolation mode are 1-bit information. It is transmitted by a flag. Regarding the prediction by the field immediately before P 0 and P 2, the prediction is performed only by the mode in which the field interpolation mode is applied to a single field. In this case, the mode selection flag is not transmitted.

【0104】以上はPピクチャについての説明であった
が、Bピクチャの場合もほぼ同様である。但し、Bピク
チャの場合、フィールド補間モードの探索フィールド及
びフレーム補間モードの基準フィールドとしては、符号
化フィールドと同位相のフィールドのみを選択するよう
にしている。勿論、この場合にいずれのフィールドを選
択したかのフラグは伝送されない。
The above description is for the P picture, but the same is true for the B picture. However, in the case of the B picture, only the field having the same phase as the encoded field is selected as the search field in the field interpolation mode and the reference field in the frame interpolation mode. Of course, in this case, the flag indicating which field is selected is not transmitted.

【0105】次に、図23により上述の原理が実際にハ
ードウェア上でどのように実現されるかについて説明す
る。キャッシュメモリ901a,901bおよび902
a,902bには、図17の局部復号ループの4フィー
ルド分のフィールドメモリ708からの画像信号のう
ち、第2の動きベクトル検出の前処理で得られた動きベ
クトルで指示された部分が記憶される。切替回路900
は、第2の動きベクトル検出回路711からの制御信号
に従ってキャッシュメモリ901a,901bの出力を
時間フィルタ903と空間フィルタ905に振り分け、
またキャッシュメモリ902a,902bの出力を時間
フィルタ904と空間フィルタ906に振り分ける。
Next, with reference to FIG. 23, how the above-described principle is actually realized on hardware will be described. Cache memories 901a, 901b and 902
In a and 902b, of the image signals from the field memory 708 for four fields of the local decoding loop of FIG. 17, the portion designated by the motion vector obtained by the preprocessing of the second motion vector detection is stored. It Switching circuit 900
Distributes the outputs of the cache memories 901a and 901b to the temporal filter 903 and the spatial filter 905 according to the control signal from the second motion vector detection circuit 711,
Further, the outputs of the cache memories 902a and 902b are distributed to the temporal filter 904 and the spatial filter 906.

【0106】セレクタ907は第2の動きベクトル検出
回路711からのフィールド補間モードおよびフレーム
補間モードのいずれを選択するかを示す制御信号に従っ
て、空間フィルタ905のみを通過した信号と、空間フ
ィルタ905および時間フィルタ903の両方を通過し
た信号のいずれかを選択する。セレクタ908も同様で
ある。例えば、切替回路900から時間フィルタ903
に図25(b)の画素Gの信号が入力され、空間フィル
タ905から図25(b)の画素Bの信号が出力された
とすると、時間フィルタ903の出力には画素Gと画素
Bの信号を平均した信号、つまり時空間フィルタ処理を
施した信号が得られる。従って、フィールド補間モード
では空間フィルタ905の出力を選択し、フレーム補間
モードでは時間フィルタ903の出力を選択すればよ
い。
The selector 907 selects the field interpolation mode or the frame interpolation mode from the second motion vector detection circuit 711 according to a control signal indicating that the signal has passed only the spatial filter 905, the spatial filter 905 and the time. One of the signals that has passed through both filters 903 is selected. The same applies to the selector 908. For example, from the switching circuit 900 to the time filter 903.
25B, the signal of the pixel G of FIG. 25B is input, and the signal of the pixel B of FIG. 25B is output from the spatial filter 905. Then, the signals of the pixel G and the pixel B are output to the time filter 903. An averaged signal, that is, a signal subjected to spatiotemporal filtering is obtained. Therefore, the output of the spatial filter 905 may be selected in the field interpolation mode, and the output of the temporal filter 903 may be selected in the frame interpolation mode.

【0107】セレクタ907,908の出力はセレクタ
911に直接入力される一方、加算器909で加算され
除算器910で1/2にされた後セレクタ911に入力
される。セレクタ911は、これら3つの入力、すなわ
ちセレクタ907からの参照フィールド#1,#2を使
って予測した信号と、セレクタ908からの参照フィー
ルド#3,#4を使って予測した信号および除算器91
0からの参照フィールド#1〜#4を使って予測した信
号を選択して、予測信号候補として第2の動きベクトル
検出回路711へ出力する。動きベクトル検出回路71
1では、これらの予測信号候補35個の中から、前述の
ようにして最も予測誤差が小さい予測信号候補を最適
測信号として決定し、その旨を示す情報をフィールド間
/フレーム間適応予測回路709へ返送する。これによ
りフィールド間/フレーム間適応予測回路709は、動
きベクトル検出回路711により指示された最適予測信
号を減算器および加算器707へ出力する。
The outputs of the selectors 907 and 908 are directly input to the selector 911, added by the adder 909 and halved by the divider 910, and then input to the selector 911. The selector 911 uses these three inputs, that is, the signal predicted using the reference fields # 1 and # 2 from the selector 907, the signal predicted using the reference fields # 3 and # 4 from the selector 908, and the divider 91.
Signals predicted using reference fields # 1 to # 4 from 0 are selected and output to the second motion vector detection circuit 711 as predicted signal candidates. Motion vector detection circuit 71
1, the prediction signal candidate with the smallest prediction error is determined from the 35 prediction signal candidates as the optimum prediction signal as described above, and information indicating that is determined between the fields.
/ Returns to the inter-frame adaptive prediction circuit 709 . As a result, the inter-field / inter-frame adaptive prediction circuit 709 outputs the optimum prediction signal instructed by the motion vector detection circuit 711 to the subtractor and adder 707.

【0108】次に、第2の動きベクトル検出回路711
からの動きベクトルをどのような形態で符号化して送る
かについて説明する。まず、フィールド補間モードでの
動きベクトルまたはフレーム補間モードでの基準フィー
ルド側の動きベクトルを基準ベクトルとして可変長符号
化回路713で符号化してマルチプレクサ714へ送
る。この動きベクトル(基準ベクトル)は1/2画素精
度である。フレーム補間モードが選ばれた場合には、さ
らに基準フィールドでない方のフィールドの動きベクト
ルと基準フィールドでの動きベクトル(基準ベクトル)
を当該フィールドに換算したものとの差分を同様に符号
化して送る。すなわち、基準フィールドでの動きベクト
ルの延長線と、基準フィールドでない方のフィールドの
交わる点に一番近い点と、該動きベクトルとの差分を1
画素精度で送るものとする。この2つの動きベクトルの
方向が近い場合以外は、フレーム補間モードは有効でな
いと考えて、この差分の値が微小値以下の範囲、この例
では±1の範囲を越える場合にはフレーム補間モードは
選択しない、言い換えれば差分の値が±1の範囲内のと
きのみ、フレーム補間モードを使用するものとする。
Next, the second motion vector detection circuit 711.
How to encode and send the motion vector from the above will be described. First, the motion vector in the field interpolation mode or the motion vector on the reference field side in the frame interpolation mode is coded by the variable length coding circuit 713 as a reference vector and sent to the multiplexer 714. This motion vector (reference vector) has 1/2 pixel precision. When the frame interpolation mode is selected, the motion vector of the non-reference field and the motion vector of the reference field (reference vector)
Is similarly encoded and sent. That is, the difference between the extension line of the motion vector in the reference field, the point closest to the intersection of the fields other than the reference field, and the motion vector is 1
It shall be sent with pixel accuracy. Except when the directions of these two motion vectors are close to each other, it is considered that the frame interpolation mode is not effective, and the value of this difference is in the range of a minute value or less.
Then, if it exceeds the range of ± 1, the frame interpolation mode is not selected . In other words, the difference value is within the range of ± 1.
Frame interpolation mode only.

【0109】図26は、この動きベクトルの送り方の具
体例を示したもので、第1の参照フィールド#1と符号
化対象フィールド(図中の符号化フィールド)との間の
1/2画素精度の第1の動きベクトル(図中上側の矢印
で示す)と、第2の参照フィールド#2と符号化対象フ
ィールドとの間の1画素精度の第2の動きベクトル(図
中下側の矢印で示す)を求め、さらに第2の動きベクト
ルとなり得る複数の動きベクトル(○および●で示す)
のうちで第1の動きベクトルに方向が最も近いベクト
ル、すなわち第1の動きベクトルと第2の参照フィール
ド#2の交わる点△に一番近い点●のベクトルと、第2
の動きベクトルとの差分(図中縦方向に延びた矢印)に
相当する1画素精度の差分ベクトルを求めて、第1の動
きベクトルの情報及び差分ベクトルの情報を符号化して
送る。図26の例では、差分は−1である。このように
することによって、予測の性能を落とすことなく、動き
ベクトルの情報量を節約することができる。
[0109] Figure 26 shows a specific example of how to send this motion vector, the first reference field # 1 and code
Between the target field (encoded field in the figure)
First motion vector with 1/2 pixel accuracy (upper arrow in the figure
, And the second reference field # 2 and the encoding target frame.
The second motion vector with 1 pixel accuracy between the field and
(Indicated by the arrows on the middle and lower sides), and the second motion vector
Motion vectors that can be
Vector whose direction is closest to the first motion vector
The first motion vector and the second reference field
The vector of the point ● that is closest to the point where intersection # 2 intersects △
To the motion vector of (the arrow extending in the vertical direction in the figure)
The corresponding 1-pixel precision difference vector is obtained, and the first motion is calculated.
And sends the vector information and the difference vector information . In the example of FIG. 26, the difference is -1. Depending on this way, without lowering the prediction performance, it is possible to save the information amount of the motion vector.

【0110】次に、色信号の動き補償について説明す
る。図19に示したように、一つのマクロブロック内で
輝度信号Yと色信号Cr,Cbは垂直方向には同じ画素
数であるが、水平方向では色信号の画素数が半分になっ
ている。従って、輝度信号で得られた動きベクトルを色
信号に適用する際には、動きベクトルの水平方向の成分
を1/2にする。1/2の除算は、整数以下を0の方向
に丸めるようにして行われる。これはフィールド補間モ
ードでもフレーム補間モードでも同じである。
Next, motion compensation of color signals will be described. As shown in FIG. 19, the luminance signal Y and the color signals Cr and Cb have the same number of pixels in the vertical direction in one macroblock, but the number of pixels of the color signal is half in the horizontal direction. Therefore, when the motion vector obtained from the luminance signal is applied to the color signal, the horizontal component of the motion vector is halved. The division by ½ is performed by rounding an integer or less toward 0. This is the same in the field interpolation mode and the frame interpolation mode.

【0111】図27(a)(b)に、フィールド補間モ
ードおよびフレーム補間モードにおいて輝度信号の動き
ベクトルから色信号の動きベクトルを求める場合の具体
例を示す。図27において点線で示された丸印は、色信
号が存在しない画素位置である。第1段階で得られた画
素位置を中央の丸印、第2段階で得られた点を×とす
る。また、この例ではいずれの場合も原点の水平方向座
標は、中央の丸の点の水平方向座標よりも大きいものと
する。図27(a)のフィールド補間モードの場合、×
の位置に輝度信号の動きベクトルが得られると、色信号
の1/4画素精度分はA方向に丸められて補間画素△が
作られる。この補間画素△は、 △=1/4(A+B+C+D) により作成される。図27(b)のフレーム補間モード
での参照フィールド#1についても、同様に △=1/4(E+F+G+H) により参照フィールド#1内の補間画素△が作られる。
27 (a) and 27 (b) show specific examples in the case of obtaining the motion vector of the color signal from the motion vector of the luminance signal in the field interpolation mode and the frame interpolation mode. Circles indicated by dotted lines in FIG. 27 are pixel positions where no color signal exists. The pixel position obtained in the first step is indicated by a circle in the center, and the point obtained in the second step is indicated by x. Further, in this example, in any case, the horizontal coordinate of the origin is set to be larger than the horizontal coordinate of the circle point in the center. In the case of the field interpolation mode of FIG. 27 (a), ×
When the motion vector of the luminance signal is obtained at the position, the 1/4 pixel precision of the color signal is rounded in the A direction to form the interpolated pixel Δ. This interpolation pixel Δ is created by Δ = 1/4 (A + B + C + D). Also for the reference field # 1 in the frame interpolation mode of FIG. 27B, the interpolation pixel Δ in the reference field # 1 is similarly created by Δ = 1/4 (E + F + G + H).

【0112】一、方参照フィールド#2での補間画素は
色信号の1/2画素精度分がA方向に丸められて、Iの
位置の画素が使用される。結局、図27の例の場合、補
間画素△の値は I×1/2+(E+F+G+H)×1/8 により得られることとなる。
As for the interpolated pixel in the first reference field # 2, the pixel at the I position is used by rounding the 1/2 pixel precision of the color signal in the A direction. After all, in the case of the example in FIG. 27, the value of the interpolated pixel Δ is obtained by I × 1/2 + (E + F + G + H) × 1/8.

【0113】[0113]

【発明の効果】以上説明したように、本発明によれば2
つの参照画面の画像信号を効果的に使ってインタレース
画像に適した効率的で精度の高い予測を行うことが可能
であり、特にインタレース画像における動領域におい
て、より精度の高い予測信号を得ることができる。
As described above, according to the present invention, 2
It is possible to effectively use the image signals of two reference screens to perform efficient and highly accurate prediction suitable for interlaced images, and obtain highly accurate predicted signals especially in the moving region of interlaced images. be able to.

【0114】また、本発明によれば動きベクトル探索に
要する演算量を低減しつつ、正確な動き補償を行い、高
い符号化効率を得ることができる。
Further, according to the present invention, it is possible to perform accurate motion compensation and obtain high coding efficiency while reducing the amount of calculation required for motion vector search.

【0115】[0115]

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1の実施形態を示すブロック図FIG. 1 is a block diagram showing a first embodiment.

【図2】 従来技術における各画面の画像信号の関係を
示す図
FIG. 2 is a diagram showing a relationship between image signals of respective screens in the related art.

【図3】 隣接する3フィールドが既に符号化されてい
ない例を示す図
FIG. 3 is a diagram showing an example in which three adjacent fields are not already coded.

【図4】 第1の実施形態における各画面の画像信号の
関係を示す図
FIG. 4 is a diagram showing a relationship of image signals of each screen in the first embodiment.

【図5】 第2の実施形態を示すブロック図FIG. 5 is a block diagram showing a second embodiment.

【図6】 第2の実施形態における各画面の画像信号の
関係を示す図
FIG. 6 is a diagram showing the relationship of image signals of each screen in the second embodiment.

【図7】 第3の実施形態を示すブロック図FIG. 7 is a block diagram showing a third embodiment.

【図8】 第4の実施形態を示すブロック図FIG. 8 is a block diagram showing a fourth embodiment.

【図9】 第5の実施形態を示すブロック図FIG. 9 is a block diagram showing a fifth embodiment.

【図10】 動画像復号装置のブロック図FIG. 10 is a block diagram of a video decoding device.

【図11】 本発明による動きベクトル探索例を示す図FIG. 11 is a diagram showing an example of motion vector search according to the present invention.

【図12】 本発明による動きベクトル探索例を示す図FIG. 12 is a diagram showing an example of motion vector search according to the present invention.

【図13】 本発明による動きベクトル探索例を示す図FIG. 13 is a diagram showing an example of motion vector search according to the present invention.

【図14】 本発明による動きベクトル探索例を示す図FIG. 14 is a diagram showing an example of motion vector search according to the present invention.

【図15】 本発明による動きベクトル探索例を示す図FIG. 15 is a diagram showing an example of motion vector search according to the present invention.

【図16】 本発明による動きベクトル探索例を示す図FIG. 16 is a diagram showing an example of motion vector search according to the present invention.

【図17】 本発明の第6の実施形態に係る動画像符号
化装置のブロック図
FIG. 17 is a block diagram of a moving picture coding apparatus according to a sixth embodiment of the present invention.

【図18】 同実施形態における入力画像フォーマット
を示す図
FIG. 18 is a diagram showing an input image format in the same embodiment.

【図19】 同実施形態における符号化単位の階層構造
を示す図
FIG. 19 is a diagram showing a hierarchical structure of coding units in the embodiment.

【図20】 同実施形態におけるグループオブピクチャ
の構成と符号化順序を示す図
FIG. 20 is a diagram showing a configuration of a group of pictures and an encoding order in the embodiment.

【図21】 同実施形態における各ピクチャの予測法を
説明するための図
FIG. 21 is a diagram for explaining a prediction method of each picture in the same embodiment.

【図22】 図17の動画像符号化装置に対応する動画
像復号装置のブロック図
22 is a block diagram of a moving picture decoding apparatus corresponding to the moving picture coding apparatus of FIG.

【図23】 図17におけるフィールド間/フレーム間
適応予測回路のブロック図
23 is a block diagram of the inter-field / inter-frame adaptive prediction circuit in FIG.

【図24】 同実施形態におけるテレスコーピックサー
チの順序を示す図
FIG. 24 is a diagram showing the order of telescopic search in the same embodiment.

【図25】 同実施形態におけるフィールド間/フレー
ム間適応予測処理を説明するための図
FIG. 25 is a diagram for explaining an inter-field / inter-frame adaptive prediction process in the same embodiment.

【図26】 同実施形態における動きベクトルの送り方
の一例を示す図
FIG. 26 is a diagram showing an example of how to send a motion vector in the embodiment.

【図27】 同実施形態における動きベクトルから色信
号の動きベクトルを求める具体例を示す図
FIG. 27 is a diagram showing a specific example of obtaining a motion vector of a color signal from a motion vector in the same embodiment.

【符号の説明】[Explanation of symbols]

14…符号化部 17…動きベクトル探索回路 19…補間値発生回路 20…相関演算回路 21…動きベクトル候補発生回路 22…最適ベクトル判定回路 200,600…動きベクトル検出回路 221,223,224,621…画像データ読出制御
回路 242,351,352,353…評価回路 300…局部符号化回路 400…局部復号回路 101…フィールドメモリ 103…DCT回路 104…量子化回路 105…逆量子化回路 106…逆DCT回路 108…フィールドメモリ 109…適応予測回路 110…動きベクトル検出回路 111…動きベクトル検出回路 112…可変長符号化回路 113…可変長符号化回路 114…マルチプレクサ 115…バッファ 116…アクティビティ計算回路 117…符号制御部 700…入力端子 701…第1のフィールドメモリ 702…減算器 703…DCT回路 704…量子化回路 705…逆量子化回路 706…逆DCT回路 707…加算器 708…第2のフィールドメモリ 709…フィールド間/フレーム間適応予測回路 710…第1の動きベクトル検出回路 711…第2の動きベクトル検出回路 712,713…可変長符号化回路 714…マルチプレクサ 715…バッファ 716…アクティビティ計算回路 717…符号化制御部 903,904…時間フィルタ 905,906…空間フィルタ
14 ... Encoding unit 17 ... Motion vector search circuit 19 ... Interpolation value generation circuit 20 ... Correlation calculation circuit 21 ... Motion vector candidate generation circuit 22 ... Optimal vector determination circuits 200, 600 ... Motion vector detection circuits 221, 223, 224, 621 Image data read control circuit 242, 351, 352, 353 ... Evaluation circuit 300 ... Local encoding circuit 400 ... Local decoding circuit 101 ... Field memory 103 ... DCT circuit 104 ... Quantization circuit 105 ... Inverse quantization circuit 106 ... Inverse DCT Circuit 108 ... Field memory 109 ... Adaptive prediction circuit 110 ... Motion vector detection circuit 111 ... Motion vector detection circuit 112 ... Variable length coding circuit 113 ... Variable length coding circuit 114 ... Multiplexer 115 ... Buffer 116 ... Activity calculation circuit 117 ... Code Control unit 700 ... Input terminal 701 ... No. Field memory 702 ... Subtractor 703 ... DCT circuit 704 ... Quantization circuit 705 ... Inverse quantization circuit 706 ... Inverse DCT circuit 707 ... Adder 708 ... Second field memory 709 ... Interfield / interframe adaptive prediction circuit 710 ... First motion vector detection circuit 711 ... Second motion vector detection circuit 712, 713 ... Variable length coding circuit 714 ... Multiplexer 715 ... Buffer 716 ... Activity calculation circuit 717 ... Encoding control unit 903, 904 ... Temporal filter 905 906 ... Spatial filter

───────────────────────────────────────────────────── フロントページの続き (72)発明者 増田 忠昭 神奈川県川崎市幸区小向東芝町1番地 株式会社東芝総合研究所内 (72)発明者 上野 秀幸 神奈川県川崎市幸区小向東芝町1番地 株式会社東芝総合研究所内 (72)発明者 山口 昇 神奈川県川崎市幸区小向東芝町1番地 株式会社東芝総合研究所内 (72)発明者 山影 朋夫 神奈川県川崎市幸区小向東芝町1番地 株式会社東芝総合研究所内 (56)参考文献 特開 昭56−143776(JP,A) 特開 昭55−158784(JP,A) 特開 平2−33286(JP,A) 特開 平2−224490(JP,A) 特開 平3−4680(JP,A) 特開 昭61−283292(JP,A) 特開 平3−117991(JP,A) “A HIGH QUALITY V IDEOPHONE CODER US ING HIERARCHICAL M OTION ESTIMATION A ND STRUCTURE CODIN G OF THE PREDICTIO N ERROR”,Michael G ilge,SPIE Vol.1001 V isual Communicatio ns and Image Proce ssing’88,pp.864−874 1991年電子情報通信学会春季全国大 会、7−64,D−354,「蓄積系メディ ア用符号化に適したフレーム間/フィー ルド間動き補償の検討」,西川博文他2 名   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Tadaaki Masuda               1 Komukaishiba-cho, Saiwai-ku, Kawasaki-shi, Kanagawa               Toshiba Research Institute, Ltd. (72) Inventor Hideyuki Ueno               1 Komukaishiba-cho, Saiwai-ku, Kawasaki-shi, Kanagawa               Toshiba Research Institute, Ltd. (72) Inventor Noboru Yamaguchi               1 Komukaishiba-cho, Saiwai-ku, Kawasaki-shi, Kanagawa               Toshiba Research Institute, Ltd. (72) Inventor Tomoo Yamakage               1 Komukaishiba-cho, Saiwai-ku, Kawasaki-shi, Kanagawa               Toshiba Research Institute, Ltd.                (56) References JP-A-56-143776 (JP, A)                 JP-A-55-158784 (JP, A)                 JP-A-2-33286 (JP, A)                 JP-A-2-224490 (JP, A)                 JP 3-4680 (JP, A)                 JP-A-61-283292 (JP, A)                 JP-A-3-117991 (JP, A)                 "A HIGH QUALITY V               IDEPHONE CODER US               ING HIERARCHICAL M               OTITION ESTIMATION A               ND STRUCTURE CODIN               GO OF THE PREDICTIO               N ERROR ”, Michael G               ilge, SPIE Vol. 1001 V               isal Communicatio               ns and Image Proce               ssing'88, pp. 864-874                 1991 IEICE Spring National University               Kai, 7-64, D-354, "Accumulating media               Frame-to-frame / feed suitable for video coding               Study on Motion Compensation between Ludos ”, Hirofumi Nishikawa et al. 2               Name

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】第1及び第2の参照画面の画像信号をそれ
ぞれ蓄積する第1及び第2のメモリ手段と、 前記第1のメモリ手段に蓄積された第1の参照画面の画
像信号のうちの第1の動きベクトルで指定される点の周
囲の第1の参照画像信号と、前記第2のメモリ手段に蓄
積された第2の参照画面の画像信号のうちの第2の動き
ベクトルで指定される点の周囲の第2の参照画像信号と
から、符号化対象画面の画像信号に対して複数の予測信
号候補を生成する予測信号候補生成手段と、 前記予測信号候補から前記符号化対象画面の画像信号に
対する最小の予測誤差を与える最適予測信号を探索し、
この最適予測信号に対応する前記第1及び第2の動きベ
クトルの最適の組を検出する動きベクトル検出手段と、 前記符号化対象画面の画像信号に対する前記最適予測信
号の誤差を符号化する手段と、 前記動きベクトル検出手段により検出された前記最適の
組の第1及び第2の動きベクトルの情報を符号化する手
段とを有することを特徴とする動画像符号化装置。
1. A first and second memory means for accumulating image signals of a first and a second reference screen, respectively, and an image signal of the first reference screen accumulated in the first memory means. Of the first reference image signal around the point specified by the first motion vector of the first reference vector and the second motion vector of the image signals of the second reference screen stored in the second memory means. Prediction signal candidate generation means for generating a plurality of prediction signal candidates for the image signal of the encoding target screen from the second reference image signal around the point to be encoded, and the encoding target screen from the prediction signal candidate Search for the optimum prediction signal that gives the smallest prediction error for the image signal of
Motion vector detection means for detecting an optimum set of the first and second motion vectors corresponding to the optimum prediction signal; and means for coding an error of the optimum prediction signal with respect to the image signal of the encoding target screen. And a means for encoding the information of the first and second motion vectors of the optimum set detected by the motion vector detecting means.
【請求項2】第1及び第2の参照画面の画像信号をそれ
ぞれ蓄積する第1及び第2のメモリ手段から、第1の参
照画面の画像信号のうちの第1の動きベクトルで指定さ
れる点の周囲の第1の参照画像信号と、第2の参照画面
の画像信号のうちの第2の動きベクトルで指定される点
の周囲の第2の参照画像信号を読み出し、これら第1及
び第2の参照画像信号から符号化対象画面の画像信号に
対して複数の予測信号候補を生成する予測信号候補生成
ステップと、 前記予測信号候補から前記符号化対象画面の画像信号に
対する最小の予測誤差を与える最適予測信号を探索し、
この最適予測信号に対応する前記第1及び第2の動きベ
クトルの最適の組を検出する動きベクトル検出ステップ
と、 前記符号化対象画面の画像信号に対する前記最適予測信
号の誤差を符号化するステップと、 前記動きベクトル検出ステップにより検出された前記最
適の組の第1及び第2の動きベクトルの情報を符号化す
るステップとを有することを特徴とする動画像符号化方
法。
2. A first motion vector of the image signals of the first reference screen is designated by the first and second memory means for accumulating the image signals of the first and second reference screens, respectively. The first reference image signal around the point and the second reference image signal around the point specified by the second motion vector in the image signal of the second reference screen are read out, and the first and second A prediction signal candidate generating step of generating a plurality of prediction signal candidates for the image signal of the encoding target screen from the second reference image signal; and a minimum prediction error from the prediction signal candidate to the image signal of the encoding target screen. Search for the optimal prediction signal to give,
A motion vector detecting step of detecting an optimum set of the first and second motion vectors corresponding to the optimum prediction signal; and a step of encoding an error of the optimum prediction signal with respect to an image signal of the encoding target screen. Encoding the information of the first and second motion vectors of the optimum set detected by the motion vector detecting step.
JP10342397A 1991-05-31 1997-04-21 Moving picture coding apparatus and moving picture coding method Expired - Lifetime JP3415390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10342397A JP3415390B2 (en) 1991-05-31 1997-04-21 Moving picture coding apparatus and moving picture coding method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP3-130012 1991-05-31
JP13001291 1991-05-31
JP10342397A JP3415390B2 (en) 1991-05-31 1997-04-21 Moving picture coding apparatus and moving picture coding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29831691A Division JP2755851B2 (en) 1991-05-31 1991-10-17 Moving picture coding apparatus and moving picture coding method

Publications (2)

Publication Number Publication Date
JPH1042296A JPH1042296A (en) 1998-02-13
JP3415390B2 true JP3415390B2 (en) 2003-06-09

Family

ID=26444058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10342397A Expired - Lifetime JP3415390B2 (en) 1991-05-31 1997-04-21 Moving picture coding apparatus and moving picture coding method

Country Status (1)

Country Link
JP (1) JP3415390B2 (en)

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"A HIGH QUALITY VIDEOPHONE CODER USING HIERARCHICAL MOTION ESTIMATION AND STRUCTURE CODING OF THE PREDICTION ERROR",Michael Gilge,SPIE Vol.1001 Visual Communications and Image Processing’88,pp.864−874
1991年電子情報通信学会春季全国大会、7−64,D−354,「蓄積系メディア用符号化に適したフレーム間/フィールド間動き補償の検討」,西川博文他2名

Also Published As

Publication number Publication date
JPH1042296A (en) 1998-02-13

Similar Documents

Publication Publication Date Title
US5731850A (en) Hybrid hierarchial/full-search MPEG encoder motion estimation
US5754231A (en) Bit allocation for motion video compression
US5539466A (en) Efficient coding apparatus for picture signal and decoding apparatus therefor
US6108039A (en) Low bandwidth, two-candidate motion estimation for interlaced video
US20070047649A1 (en) Method for coding with motion compensated prediction
US5416522A (en) Motion detection apparatus for moving pictures and encoding and decoding apparatus for picture signals
KR100233764B1 (en) Video signal coder
US7822123B2 (en) Efficient repeat padding for hybrid video sequence with arbitrary video resolution
KR100345968B1 (en) High efficient coder for picture signal, decoder and recording medium
JP3331351B2 (en) Image data encoding method and apparatus
JP2000270332A (en) Method and device for encoding dynamic picture
JP2005510984A (en) Picture-level adaptive frame / field coding for digital video content
WO2012098845A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
JP2885322B2 (en) Inter-field prediction encoding device and decoding device
JP2000244927A (en) Moving picture transforming device
JP2755851B2 (en) Moving picture coding apparatus and moving picture coding method
KR20040070490A (en) Method and apparatus for encoding/decoding video signal in interlaced video
JP3257052B2 (en) Highly efficient image signal encoding apparatus and method
JP2883592B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP2883585B2 (en) Moving picture coding apparatus and moving picture coding method
JP3415390B2 (en) Moving picture coding apparatus and moving picture coding method
JP2758378B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP2001086508A (en) Method and device for moving image decoding
JPH0698311A (en) High efficiency coding and decoding device for picture signal
JP2000188735A (en) Motion vector detector and dynamic picture coder using the same

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9