JPH0541861A - Moving picture encoding equipment - Google Patents

Moving picture encoding equipment

Info

Publication number
JPH0541861A
JPH0541861A JP29831691A JP29831691A JPH0541861A JP H0541861 A JPH0541861 A JP H0541861A JP 29831691 A JP29831691 A JP 29831691A JP 29831691 A JP29831691 A JP 29831691A JP H0541861 A JPH0541861 A JP H0541861A
Authority
JP
Japan
Prior art keywords
motion vector
image
field
circuit
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP29831691A
Other languages
Japanese (ja)
Other versions
JP2755851B2 (en
Inventor
Yoshiharu Kamiya
義治 上谷
Toshinori Otaka
敏則 尾高
Tadaaki Masuda
忠昭 増田
Hideyuki Ueno
秀幸 上野
Noboru Yamaguchi
昇 山口
Tomoo Yamakage
朋夫 山影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP29831691A priority Critical patent/JP2755851B2/en
Priority to US07/890,705 priority patent/US5317397A/en
Publication of JPH0541861A publication Critical patent/JPH0541861A/en
Priority to US08/156,709 priority patent/US5424779A/en
Priority to US08/197,862 priority patent/US5467136A/en
Priority to US08/295,421 priority patent/US5541661A/en
Priority to US08/430,366 priority patent/US5647049A/en
Priority to US08/626,969 priority patent/US5742344A/en
Priority to US08/626,922 priority patent/US5754231A/en
Priority to US09/054,403 priority patent/US6016162A/en
Application granted granted Critical
Publication of JP2755851B2 publication Critical patent/JP2755851B2/en
Priority to US09/095,712 priority patent/US5986713A/en
Priority to US09/095,722 priority patent/US6005627A/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy

Abstract

PURPOSE:To realize the moving picture encoding equipment in which encoding is implemented without implementing motion detection with respect to a refer ence picture and moving compensation prediction to an interlace picture is implemented with high accuracy and less arithmetic operation quantity. CONSTITUTION:The coder is provided with a motion vector candidate generating circuit 21 which generates selectively plural motion vector candidates to designate a reference picture among encoded pictures and pictures generated by using the encoded pictures, an interpolation value generating circuit 19 generating an interpolation value between picture elements or in-pattern picture elements by using the picture element of the encoded picture of the plural patterns with the generating method in response to the motion vector candidate, a motion vector retrieval circuit 17 retrieving an optimum motion vector whose correlation between the reference picture designated by the motion vector candidate and an encoded object picture is maximized from the motion vector candidate and outputting the retrieved vector, and an encoding section 14 encoding the encoding object picture by using the optimum motion vector.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像通信、伝送、蓄積
および放送等において、ビデオ信号などの動画像信号を
符号化するための動画像符号化装置に係り、特に動き補
償予測符号化を用いた動画像符号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture coding apparatus for coding a moving picture signal such as a video signal in image communication, transmission, storage and broadcasting, and more particularly to motion compensation predictive coding. The present invention relates to a moving picture coding device.

【0002】[0002]

【従来の技術】TV電話、TV会議、光ディスク装置、
VTRおよびCATV等の装置では、動画像信号を符号
化する技術が必要となる。このような動画像の符号化方
式として、符号化しようとする画像(以下、符号化象画
像という)の画素値を動きベクトルで指定される既に符
号化されている参照画像の画素値を用いて予測し、その
予測誤差と動きベクトルを符号化する、いわゆる動き補
償予測符号化が知られている。
2. Description of the Related Art Video telephones, video conferences, optical disk devices,
Devices such as VTRs and CATVs require a technique for encoding moving image signals. As a coding method for such a moving image, a pixel value of an image to be coded (hereinafter referred to as a coded image) is used by using a pixel value of an already coded reference image specified by a motion vector. There is known a so-called motion compensation predictive coding which predicts and codes the prediction error and the motion vector.

【0003】この動き補償予測符号化を通常のテレビジ
ョンビデオ信号のようなインターレース画像(フィール
ド画像)に適用する場合、フィールド内1/2ライン精
度以上の動き精度(フレーム内1ライン精度以上の動き
精度)に対しては、参照画像中に対応する画素値が存在
しないために対応出来ないという問題がある。
When this motion compensation predictive coding is applied to an interlaced image (field image) such as an ordinary television video signal, a motion accuracy of 1/2 line accuracy or more in a field (motion of 1 line accuracy or more in a frame). There is a problem in that the accuracy cannot be met because the corresponding pixel value does not exist in the reference image.

【0004】そこで、参照画像上で対応する画素が存在
しない画素の画素値を隣接する2フィールドの画像を用
いて補間して動き補償を行う方法が提案されている(例
えば1990年画像符号化シンポジウム(PCSJ9
0)、8−1、「適応ライン補間フィールド間動き補償
方式の検討」)。この動き補償方式では、符号化対象画
像信号は参照画像信号および最適動きベクトルを用いて
符号化される。参照画像信号は、過去2フィールドの符
号化済み画像信号のうち、動きベクトル探索回路で得ら
れる動きベクトルによって指定される位置の信号から補
間によって作成される。具体的には3つのフィールドメ
モリを用意し、第1のフィールドメモリの出力からフィ
ールド内補間によって作成される信号と、第2のフィー
ルドメモリの出力とを混合比km :1−km で混合する
ことにより参照画像信号が作成される。km は第1のフ
ィールドメモリと第3のフィールドメモリの出力を基
に、動き検出回路によって検出される動き量によって変
化する。
Therefore, there has been proposed a method of performing motion compensation by interpolating the pixel values of pixels having no corresponding pixels on the reference image by using images of two adjacent fields (for example, 1990 Image Coding Symposium). (PCSJ9
0), 8-1, "Consideration of adaptive line interpolation inter-field motion compensation method"). In this motion compensation method, the encoding target image signal is encoded using the reference image signal and the optimum motion vector. The reference image signal is created by interpolation from the signal at the position designated by the motion vector obtained by the motion vector search circuit, out of the coded image signals of the past two fields. Specifically, three field memories are prepared, and the signal generated by the intra-field interpolation from the output of the first field memory and the output of the second field memory are mixed at a mixing ratio km: 1-km. Thus, a reference image signal is created. km varies depending on the amount of motion detected by the motion detection circuit based on the outputs of the first field memory and the third field memory.

【0005】図2は、この従来技術による各画像信号の
関係を示すための図である。3つのフィールドメモリに
蓄積された画像信号41,42,43および符号化対象
画像信号44の関係は図に示す通りであり、動きベクト
ルの垂直方向成分がフィールド内n+1/2ライン(n
は整数)の場合、画像信号41内の対応する画素値をそ
のまま参照画像信号として出力する。例えばn=0の場
合、符号化対象画像信号44の画素値45に対する参照
画像信号の画素値は46となる。動きベクトルの垂直方
向成分がフィールド内nラインの場合には、画像信号4
2,43の補間値△に隣接する信号○を用いて補間値△
を作成する。即ち、例えば符号化対象画像信号44内の
画素値45に対する参照画像信号となる補間値49は、
フィールド内補間によって作成される、画素値46と画
素値47の平均値がkm 倍された値と、画素値48が
(1−km )倍された値との加算値となる。このとき、
動き検出回路において動きが大と判定された場合には、
補間値△をそれと同一フィールドの画像信号内の、補間
値△に隣接する信号を主に用いて補間することが適切で
あるからkm を大とし、動きが小と判定された場合に
は、補間値△をそれに隣接するフィールドの画像信号内
の、補間値△に隣接する信号を主に用いて補間すること
が適切であるからkm を小とする。
FIG. 2 is a diagram showing the relationship between the image signals according to this conventional technique. The relationship between the image signals 41, 42, 43 and the encoding target image signal 44 accumulated in the three field memories is as shown in the figure, and the vertical component of the motion vector is n + 1/2 lines (n
Is an integer), the corresponding pixel value in the image signal 41 is output as it is as the reference image signal. For example, when n = 0, the pixel value of the reference image signal is 46 with respect to the pixel value 45 of the encoding target image signal 44. If the vertical component of the motion vector is n lines in the field, the image signal 4
Interpolation value △ using the signal ○ adjacent to the interpolation value △ of 2,43
To create. That is, for example, the interpolated value 49 which is the reference image signal for the pixel value 45 in the encoding target image signal 44 is
The value obtained by inter-field interpolation is the sum of the pixel value 46 and the pixel value 47 multiplied by km, and the pixel value 48 multiplied by (1-km). At this time,
If the motion detection circuit determines that the motion is large,
Since it is appropriate to interpolate the interpolated value Δ mainly by using the signal adjacent to the interpolated value Δ in the image signal of the same field as the interpolated value Δ, it is appropriate to set km to be large, and when it is determined that the motion is small, the interpolated value Δ is interpolated. Since it is appropriate to interpolate the value Δ mainly by using the signal adjacent to the interpolation value Δ in the image signal of the field adjacent thereto, km is set to be small.

【0006】このように、隣接する2フィールドの画像
信号を用いて動き量に適応させて補間値を作成すること
により、フィールド画像においてもフィールド内1/2
ライン精度以上の動き精度(フレーム内1ライン精度以
上の動き精度)に対して適切な参照画像信号を発生する
ことができるようになり、精度の良い動き補償予測が可
能となる。
As described above, the interpolated value is created by adapting the motion amount using the image signals of the adjacent two fields, so that even in the field image, it is 1/2 in the field.
It becomes possible to generate a reference image signal suitable for motion accuracy of line accuracy or more (motion accuracy of one line in a frame or more), and it is possible to perform accurate motion compensation prediction.

【0007】しかしながら、この方式では上述のように
参照画像における動きの検出が必要であり、そのための
動き検出回路が必要となる。また、動き検出を可能とす
るために、隣接する3フィールドが既に符号化済みでな
ければならない。従って、隣接する3フィールドが既に
符号化されていない場合には、動き検出ができないとい
う問題が生じる。
However, in this method, it is necessary to detect the motion in the reference image as described above, and the motion detection circuit for that is required. Also, in order to be able to detect motion, three adjacent fields must already be coded. Therefore, if the three adjacent fields are not already coded, there is a problem that motion detection cannot be performed.

【0008】図3に、隣接する3フィールドが既に符号
化されていない場合の一例を示す。この例においては、
VTRでの特殊再生(ランダムアクセス、早送り再生、
逆転再生等)の必要な蓄積系への適応を考慮して、複数
フィールド毎(図においては6フィールド毎)に隣接す
る2フィールド(図の例ではフィールド1,2,7,
8)を予め符号化し、残りの4フィールド(図の例では
3〜6)を予め符号化した近傍の2フィールドを参照画
像として動き補償予測符号化する方法をとっている。こ
のような場合、隣接する3フィールドが既に符号化され
ていないため、動き検出が出来ないことになる。
FIG. 3 shows an example in which three adjacent fields have not been coded. In this example,
Special playback on VTR (random access, fast forward playback,
In consideration of adaptation to a storage system that requires reverse reproduction, etc., two adjacent fields (fields 1, 2, 7, in the example in the figure) for every multiple fields (every 6 fields in the figure)
8) is pre-encoded, and the remaining 4 fields (3 to 6 in the example in the figure) are pre-encoded. The neighboring 2 fields are used as a reference image for motion compensation predictive encoding. In such a case, the motion detection cannot be performed because the three adjacent fields have not been encoded.

【0009】一方、上述したような動き補償予測符号化
方式を用いた動画像符号化装置において、従来では順方
向あるいは逆方向の動き補償のための動きベクトル探索
に際し、動きベクトルを探索する参照画像としては、符
号化対象画像がノンインタレース画像の場合は符号化済
みの1画像だけに限定されるため、隣接する画像間で1
/2画素単位の移動が存在する動画像に対しては正確な
動き補償ができないという問題があった。画像がインタ
レース画像の場合は、前述のように符号化済みの連続す
る2画面の画像を使用するが、従来では2画面とも同一
面積を探索しているため、探索のための演算量が非常に
多くなっていた。
On the other hand, in the moving picture coding apparatus using the motion compensation predictive coding method as described above, in the conventional case, the reference picture for searching the motion vector is searched for in the motion vector search for the forward or backward motion compensation. If the image to be encoded is a non-interlaced image, it is limited to only one image that has already been encoded.
There is a problem in that accurate motion compensation cannot be performed on a moving image in which a movement of / 2 pixels is present. If the image is an interlaced image, two consecutive screens that have already been encoded are used as described above, but since the same area is searched for on both screens in the past, the amount of calculation for searching is extremely large. Was increasing.

【0010】また、上述したような動画像符号化方式の
うちでも特にVTRや光ディスクのような蓄積メディア
のための符号化方式として、1〜2Mbps程度の伝送
レートをターゲットとした動画像符号化方式がMPEG
1なる規格名で標準化されつつある。これは、動き補償
フレーム間予測+DCTを基本とした方式である。
Further, among the moving picture coding methods as described above, a moving picture coding method targeting a transmission rate of about 1 to 2 Mbps is particularly used as a coding method for a storage medium such as a VTR or an optical disk. Is MPEG
It is being standardized under the standard name of 1. This is a system based on motion-compensated interframe prediction + DCT.

【0011】現在、類似の目的でTV放送程度以上の品
質の動画像を2〜10Mbps程度で符号化する方式の
検討が進んでいる。MPEG1の符号化方式をこれに適
応しようとする場合、MPEG1は入力画像としてノン
インタレース画像を前提としているのに対して、TV信
号はインタレース画像の信号であるため、インタレース
画像に適した新たな工夫が必要となる。インタレース画
像の符号化においては、フィールド間/フレーム間適応
予測が知られている。これは注目フィールドと走査位相
の一致するフィールド(注目フィールドが奇数フィール
ドの場合は奇数フィールド、また注目フィールドが偶数
フィールドの場合は偶数フィールド)と、一致しないが
時間的に近いフィールド(例えば注目フィールドが奇数
フィールドの場合はそれに隣接する偶数フィールド、ま
た注目フィールドが偶数フィールドの場合はそれに隣接
する奇数フィールド)とを予測信号として切り替える方
式である。また、最近の研究では複数のフィールドに対
して動き補償した信号を平均して予測する内挿予測も検
討されている(例えばF.Wang et al.,"High-quality co
ding of the even fields based on the odd fields of
interlaced videosequences",IEEE trans.CS)。
[0011] At present, for similar purposes, studies are underway on a method of encoding a moving image having a quality equal to or higher than that of TV broadcasting at about 2 to 10 Mbps. When trying to adapt the encoding method of MPEG1 to this, MPEG1 presupposes a non-interlaced image as an input image, whereas the TV signal is a signal of an interlaced image, so it is suitable for an interlaced image. New ideas are needed. In interlaced image coding, interfield / interframe adaptive prediction is known. This is a field whose scanning phase matches the field of interest (an odd field if the field of interest is an odd field, and an even field if the field of interest is an even field), but a field that does not match but is close in time (for example, if the field of interest is In the case of an odd field, an even field adjacent to the odd field, and when the field of interest is an even field, an odd field adjacent to the even field) is switched as a prediction signal. In addition, recent studies have also examined interpolative prediction that averages motion-compensated signals for multiple fields (for example, F. Wang et al., "High-quality co
ding of the even fields based on the odd fields of
interlaced video sequences ", IEEE trans.CS).

【0012】しかしながら、インタレース画像において
もMPEG1の符号化におけるような過去のフィールド
と未来のフィールドを使った予測符号化を行なう上で、
インタレース画像に適した偶/奇両フィールドを使った
予測方法をとり入れることが望まれる。この場合、各フ
ィールドに対して動きベクトルを送ると、動きベクトル
の情報量が増大するので、効率を極力落とさずに動きベ
クトルの情報量も減らすことが必要となる。すなわち、
インタレース画像に対する予測精度を向上して予測誤差
の符号化出力の情報量を減らすと共に、動きベクトル情
報の増加を最小限に止めることが要求されるが、従来で
はこのような要求に応えられる有効な技術は未だ提案さ
れていない。
However, even in the interlaced image, the predictive coding using the past field and the future field as in the coding of MPEG1 is performed.
It is desirable to incorporate a prediction method using even / odd fields suitable for interlaced images. In this case, when the motion vector is sent to each field, the amount of information of the motion vector increases, so it is necessary to reduce the amount of information of the motion vector without reducing efficiency as much as possible. That is,
It is required to improve the prediction accuracy for interlaced images to reduce the amount of information in the coding output of prediction errors, and to minimize the increase in motion vector information. Conventionally, it is effective to meet such requirements. Technology has not been proposed yet.

【0013】[0013]

【発明が解決しようとする課題】上述したように、従来
の技術では参照画像上の画素が存在しない点の画素を参
照画像に隣接する2フィールドの画像を用いて補間する
場合、参照画像について動き検出が必要であるため、動
き検出回路が必要となりハードウェアが複雑になると共
に、隣接する3フィールドが既に符号化されていない場
合には動き検出ができないという問題があった。
As described above, in the prior art, when the pixel at the point where the pixel on the reference image does not exist is interpolated using the images of the two fields adjacent to the reference image, the reference image moves. Since the detection is necessary, there is a problem that the motion detection circuit is required and the hardware is complicated, and the motion cannot be detected when the adjacent three fields are not already coded.

【0014】また、従来の技術では符号化対象画像がノ
ンインタレース画像の場合、動きベクトル探索に際して
参照画像は符号化済みの1画像だけに限定されるため、
隣接する画像間で1/2画素単位の移動が存在する動画
像に対しては正確な動き補償ができず、符号化効率が低
下するという問題があり、さらに符号化対象画像がイン
タレース画像の場合は、動きベクトル探索のための演算
量が非常に多くなるため、動きベクトル探索時間が長く
なったり、ハードウェアの回路規模が増大するという問
題があった。
Further, in the prior art, when the image to be coded is a non-interlaced image, the reference image is limited to only one coded image in the motion vector search.
There is a problem that accurate motion compensation cannot be performed for moving images in which there is a movement of 1/2 pixel unit between adjacent images, and the encoding efficiency is reduced. Furthermore, the encoding target image is an interlaced image. In this case, the amount of calculation for the motion vector search is very large, which causes a problem that the motion vector search time becomes long and the hardware circuit scale increases.

【0015】さらに、従来の技術ではインターレース画
像に対する予測精度を効果的に向上させることができ
ず、また各フィールドに対して送られる動きベクトルの
情報量が増大するという問題があった。
Further, the conventional technique has a problem that the prediction accuracy for the interlaced image cannot be effectively improved and the amount of information of the motion vector sent to each field increases.

【0016】本発明の第1の目的は、参照画像に対する
動き検出を行わず、少ない演算量で精度の良いインター
レース画像に対する動き補償予測を行って符号化を行う
ことができる動画像符号化装置を提供することにある。
A first object of the present invention is to provide a moving picture coding apparatus capable of performing a motion-compensated prediction for an accurate interlaced picture with a small amount of calculation and performing coding without performing motion detection for a reference picture. To provide.

【0017】本発明の第2の目的は、隣接する画像間で
微小な動きが存在する場合でも正確な動き補償を可能と
して符号化効率の向上を図り、しかも動きベクトル探索
のための演算量を小さくできる動画像符号化装置を提供
することにある。
A second object of the present invention is to improve the coding efficiency by enabling accurate motion compensation even when there is a small motion between adjacent images, and to reduce the calculation amount for motion vector search. An object of the present invention is to provide a moving image coding apparatus that can be made smaller.

【0018】本発明の第3の目的は、インタレース画像
に対する予測精度を向上して予測誤差の符号化出力の情
報量を減らす共に、動きベクトル情報の増加を最小限に
止めることにある。
A third object of the present invention is to improve the prediction accuracy for an interlaced image to reduce the information amount of the coded output of the prediction error and to minimize the increase of the motion vector information.

【0019】[0019]

【課題を解決するための手段】本発明は第1の目的を達
成するため、符号化済み画像および該符号化済み画像を
用いて生成される画像の中から参照画像を指定するため
の複数の動きベクトル候補を選択的に発生する動きベク
トル候補発生手段と、複数画面の符号化済み画像の画素
値を用いて、動きベクトル候補に応じた生成方法により
それらの画像間または画面内画素間の画素間の補間値を
発生する補間値発生手段と、動きベクトル候補で指定さ
れる参照画像と符号化対象画像との相関が最大となる最
適動きベクトルを動きベクトル候補から探索して出力す
る動きベクトル探索手段と、符号化対象画像を最適動き
ベクトルを用いて符号化する手段とを具備することを特
徴としている。
In order to achieve the first object of the present invention, a plurality of coded images for designating a reference image from among coded images and images generated using the coded images are provided. By using a motion vector candidate generating means for selectively generating motion vector candidates and a pixel value of encoded images of a plurality of screens, a pixel between those images or pixels between screens by a generation method according to the motion vector candidates Interpolation value generating means for generating an interpolated value between the motion vector candidates, and a motion vector search for searching and outputting from the motion vector candidates an optimum motion vector that maximizes the correlation between the reference image specified by the motion vector candidates and the encoding target image. It is characterized by comprising means and means for encoding an image to be encoded using an optimum motion vector.

【0020】補間値発生手段は、動きベクトル候補に応
じて連続的に補間値を変化させる構成でもよいし、複数
の補間値発生回路を持ち、動きベクトル候補に応じて少
なくとも一つの補間値発生回路からの補間値を選択的に
出力する構成でもよい。
The interpolation value generating means may be configured to continuously change the interpolation value according to the motion vector candidate, or may have a plurality of interpolation value generating circuits and at least one interpolation value generating circuit according to the motion vector candidate. It is also possible to adopt a configuration in which the interpolated value from is output selectively.

【0021】本発明は第2の目的を達成するため、符号
化対象画像に時間的に近い第1の符号化済み画像を動き
補償の参照画像として、該参照画像の所定の範囲につい
て符号化対象画像またはその部分画像との相関が最大と
なる参照画像またはその部分画像を指定する動きベクト
ルを探索する第1の動きベクトル探索手段と、符号化対
象画像に第1の符号化済み画像よりも時間的に遠い第2
の符号化済み画像を動き補償の参照画像として、第1の
動きベクトル探索手段よりも狭い範囲または面積にわた
り動きベクトルを探索する第2の動きベクトル探索手段
と、これら第1および第2の動きベクトル探索手段によ
り探索された動きベクトルの中から、符号化対象画像ま
たはその部分画像との相関が最大となる参照画像または
その部分画像を指定する最適動きベクトルを選択し、こ
の最適動きベクトルとその最適動きベクトルで指定され
る画像または部分画像と符号化対象画像またはその部分
画像との差分である動き補償誤差を符号化する手段とを
具備することを特徴としている。
In order to achieve the second object of the present invention, the first encoded image temporally close to the image to be encoded is used as a reference image for motion compensation, and the object to be encoded is within a predetermined range of the reference image. First motion vector searching means for searching a motion vector designating the reference image or its partial image having the maximum correlation with the image or its partial image, and the image to be coded has a time longer than that of the first coded image. Second far away
Second motion vector searching means for searching a motion vector over a narrower range or area than the first motion vector searching means, and the first and second motion vectors as a reference image for motion compensation. From the motion vectors searched by the search means, the optimum motion vector designating the reference image or the partial image having the maximum correlation with the image to be coded or its partial image is selected, and the optimum motion vector and its optimal It is characterized by further comprising means for encoding a motion compensation error which is a difference between an image or partial image designated by a motion vector and an encoding target image or its partial image.

【0022】ここで、第2の動きベクトル探索手段にお
いては、探索範囲の中心位置が第1の動きベクトル探索
手段により探索された動きベクトルに応じて定められる
か、または符号化化対象画像の符号化領域の近傍に定め
られる。
Here, in the second motion vector searching means, the center position of the search range is determined according to the motion vector searched by the first motion vector searching means, or the code of the image to be coded. It is defined in the vicinity of the digitized region.

【0023】本発明は、第3の目的を達成するため、フ
ィールド単位で入力される入力画像間の動きベクトルを
検出する第1の動きベクトル検出手段と、この第1の動
きベクトル検出手段により検出された動きベクトルで指
定される領域の参照画像に時空間フィルタ処理を施して
入力画像についての複数の予測信号候補を生成する予測
信号候補生成手段と、この手段により生成された複数の
予測信号候補を比較して予測信号を決定する予測信号決
定手段と、前記予測信号候補と前記第1の動きベクトル
検出手段により検出された動きベクトルから最適動きベ
クトルを検出する第2の動きベクトル検出手段と、この
手段により検出された最適動きベクトルに関する情報と
前記予測信号の予測誤差を符号化する符号化手段とを具
備することを特徴としている。
In order to achieve the third object of the present invention, a first motion vector detecting means for detecting a motion vector between input images input in field units, and detection by the first motion vector detecting means. Prediction signal candidate generating means for generating a plurality of prediction signal candidates for the input image by performing spatiotemporal filtering on the reference image in the area specified by the selected motion vector, and a plurality of prediction signal candidates generated by this means And a second motion vector detecting means for detecting an optimum motion vector from the predicted signal candidate and the motion vector detected by the first motion vector detecting means. It is characterized by comprising information about the optimum motion vector detected by this means and an encoding means for encoding the prediction error of the prediction signal. It is.

【0024】より具体的には例えば予測信号候補生成手
段においては、予測に用いる過去の1フィールドの複数
画素に空間フィルタ処理を施した出力と、この空間フィ
ルタ処理を施した出力の1画素以下の精度の位置に補間
した補間画素と予測に用いる過去の他のフィールドの画
素との間で時間フィルタを施した出力とを前記複数の予
測信号候補として生成し、また符号化手段は空間フィル
タ処理が施されるフィールドに対する動きベクトルは1
画素以下の精度で符号化し、それ以外のフィールドに対
する動きベクトルは該1画素以下の精度で符号化する動
きベクトルを当該フィールドにおける動きベクトルとの
差分を符号化する構成とする。
More specifically, for example, in the prediction signal candidate generating means, a plurality of pixels in one field in the past used for prediction are subjected to spatial filter processing, and an output obtained by performing the spatial filter processing is less than one pixel. The interpolated pixel interpolated at the position of accuracy and the time-filtered output between the pixels of the other fields in the past used for prediction are generated as the plurality of prediction signal candidates, and the encoding means performs the spatial filter processing. The motion vector for the applied field is 1
The motion vector for the other fields is coded with a precision of less than a pixel, and the motion vector to be coded with a precision of one pixel or less is configured to encode the difference from the motion vector in the field.

【0025】[0025]

【作用】一般に、相関を最大とする最適動きベクトルと
参照画像での動き量との間には大きな相関があり、参照
画像と符号化対象画像との間の相関的な動きが小であれ
ば、参照画像においても動きが小である確率が極めて高
く、逆に参照画像と符号化対象画像の間の相対的な動き
が大であれば、参照画像においても動きが大である確率
が高い。
In general, there is a large correlation between the optimum motion vector that maximizes the correlation and the amount of motion in the reference image, and if the relative motion between the reference image and the image to be encoded is small. The probability that the motion is small in the reference image is extremely high, and conversely, if the relative motion between the reference image and the image to be encoded is large, the motion is also likely to be large in the reference image.

【0026】そこで、本発明では動きベクトル探索時に
各々の動きベクトル候補に対して、それらの動きベクト
ル候補が参照画像における実際の動き量に対応している
と仮定し、その動き量に対応した補間値を補間値発生回
路から発生させて該補間値を用いて参照画像を構成し、
動きベクトルの探索を行う。このようにすることによ
り、参照画像に対する動き検出を行わなくとも、最終的
に適切な補間値による参照画像のもとで動きベクトルの
探索を行ったことになり、インターレース画像に対する
精度の良い動き補償が可能となる。
Therefore, in the present invention, for each motion vector candidate at the time of motion vector search, it is assumed that those motion vector candidates correspond to the actual motion amount in the reference image, and the interpolation corresponding to the motion amount is performed. A value is generated from an interpolation value generation circuit, and a reference image is configured using the interpolation value,
Perform a motion vector search. By doing this, even if the motion detection for the reference image is not performed, the motion vector search is finally performed under the reference image with the appropriate interpolation value, and the motion compensation for the interlaced image is performed with high accuracy. Is possible.

【0027】また、本発明においては符号化済みの2画
面の画像を参照画像として動きベクトルを探索する場
合、符号化対象画像に時間的に近い符号化済み画像につ
いては広い範囲にわたり探索を行い、符号化対象画像か
ら時間的に遠い符号化済み画像についてはより限定され
た狭い範囲にわたり探索を行うことにより、動きベクト
ル探索のための演算量を抑えつつ、正確な動き補償が可
能となる。
Further, in the present invention, when a motion vector is searched using a coded two-screen image as a reference image, a coded image that is temporally close to the coding target image is searched over a wide range, By performing a search for a coded image that is distant in time from the image to be coded over a more limited and narrow range, it is possible to perform accurate motion compensation while suppressing the calculation amount for motion vector search.

【0028】例えば符号化対象画像と時間的に近い符号
化済み画像での探索により、少なくとも1つの符号化効
率の良い動きベクトルの候補を求め、その動きベクトル
を基準にベクトルの延長等の操作を行えば、符号化対象
画像と時間的に離れた符号化済み画像との間の符号化効
率の良い動きベクトルの候補となる領域の中心を限定で
きる。この場合、時間的に近い符号化済み画像で動きベ
クトルの候補として選択された領域が時間的に離れた符
号化済み画像との間の動きベクトルを用いて符号化され
ていれば、直ちにその時間的に離れた画像と符号化する
画像との間の動きベクトルの候補となる領域の存在する
範囲を限定できる。
For example, by searching a coded image that is temporally close to the image to be coded, at least one motion vector candidate with good coding efficiency is obtained, and operations such as vector extension are performed based on the motion vector. By doing so, it is possible to limit the center of a region that is a candidate for a motion vector with good coding efficiency between the image to be coded and the coded images that are temporally separated. In this case, if the area selected as a motion vector candidate in a coded image that is close in time is coded using a motion vector between a coded image that is temporally distant, the time immediately It is possible to limit the range in which a region that is a candidate for a motion vector between an image that is distant from the target image and an image to be encoded exists.

【0029】画像間で動きが非常に大きく、時間的に近
い符号化済み画像でも候補となる動きベクトルが存在し
ない場合や、時間的に近い符号化済み画像で候補として
求められた動きベクトルが非常に大きく時間的に離れた
符号化済み画像では符号化効率の良い動きベクトルが存
在しないことを予想できる場合には、時間的に離れた符
号化済み画像での動きベクトルの探索を行わないこと
や、更に探索範囲を限定するなどのことができる。この
ようにすることにより、探索に要する演算量が少なくと
も符号化効率の良い動きベクトルが求められる。
When the motion between images is very large and there is no candidate motion vector even in a coded image that is close in time, or when the motion vector obtained as a candidate in a coded image that is close in time is very large. If it is possible to predict that there is no motion vector with high coding efficiency in a coded image that is significantly distant in time, do not search for a motion vector in a coded image that is distant in time. Further, the search range can be further limited. By doing so, it is possible to obtain a motion vector having a high computational efficiency, at least in the amount of calculation required for the search.

【0030】一方、時間的に近い画像間の動きが大きな
場合には、通常のカメラ撮影の画像では1画像の中でも
動きによるぼけが存在するために、画像間で動き補償を
行う時に、1/2画素単位の差を生じ難い。即ち、その
様な場合は時間的に更に離れた画像で動きベクトルを求
めても、探索のための演算量が増加するにも拘らず、符
号化効率の向上は少ない。従って、時間的に離れた画像
での動きベクトルの探索範囲を符号化対象画像の符号化
領域の近傍に制限することにより、探索のための演算量
を更に低減して高い符号化効率が得られる。
On the other hand, when there is a large motion between images that are close in time, there is a blur due to the motion even in one image captured by a normal camera. Therefore, when motion compensation is performed between images, 1 / It is difficult to make a difference in units of two pixels. That is, in such a case, even if the motion vector is obtained from images that are further apart in time, the improvement in coding efficiency is small despite the increase in the amount of calculation for searching. Therefore, by restricting the search range of motion vectors in temporally distant images to the vicinity of the coding region of the image to be coded, the amount of calculation for searching can be further reduced and high coding efficiency can be obtained. ..

【0031】さらに、本発明では入力画像間の動きベク
トルで指定される領域の参照画像に時空間フィルタ処理
を施して予測信号候補を生成し、これらの中から予測信
号を決定するため、フィールド単位で入力される入力画
像、すなわちインターレース画像に適した予測が可能と
なり、予測精度が向上する。この場合、空間フィルタ処
理が施されるフィールドに対する動きベクトルは1画素
以下の精度で符号化するが、それ以外のフィールドに対
する動きベクトルは該1画素以下の精度で符号化する動
きベクトルを当該フィールドにおける動きベクトルに換
算したものと当該フィールドにおける動きベクトルとの
差分として符号化して伝送することで、最終的に伝送さ
れる動きベクトルの情報が減少する。
Further, according to the present invention, the reference image in the area designated by the motion vector between the input images is subjected to the spatio-temporal filter processing to generate the prediction signal candidate, and the prediction signal is determined from these, so that the prediction signal is determined in field units. It is possible to make a prediction suitable for the input image input at, that is, the interlaced image, and the prediction accuracy is improved. In this case, the motion vector for the field to be spatially filtered is encoded with an accuracy of 1 pixel or less, but the motion vector for the other fields is encoded with the accuracy of 1 pixel or less. The information of the finally transmitted motion vector is reduced by encoding and transmitting the difference as the difference between the converted motion vector and the motion vector in the field.

【0032】[0032]

【実施例】まず、本発明の請求項1に係る実施例につい
て説明する。図1は、本発明の第1の実施例に係る動画
像符号化装置のブロック図である。図1の動画像符号化
装置は、符号化部14、2つのフィールドメモリ15,
16、動きベクトル探索回路17、補間値発生回路19
および局部復号部25によって構成される。
First, an embodiment according to claim 1 of the present invention will be described. FIG. 1 is a block diagram of a moving picture coding apparatus according to the first embodiment of the present invention. The moving picture coding apparatus of FIG. 1 includes a coding unit 14, two field memories 15,
16, motion vector search circuit 17, interpolation value generation circuit 19
And the local decoding unit 25.

【0033】符号化対象画像信号11は、補間値発生回
路19から出力される参照画像信号12と、動きベクト
ル探索回路17から出力される最適動きベクトル13を
用いて符号化部14で符号化される。参照画像信号12
は、フィールドメモリ15,16に蓄積されている過去
2フィールドの符号化済み画像信号のうち動きベクトル
探索回路17から出力される動きベクトル候補18によ
って指定される位置の画像信号から、補間値発生回路1
9によって作成される。
The encoding target image signal 11 is encoded by the encoding unit 14 using the reference image signal 12 output from the interpolation value generating circuit 19 and the optimum motion vector 13 output from the motion vector searching circuit 17. It Reference image signal 12
Is the interpolation value generation circuit from the image signal at the position designated by the motion vector candidate 18 output from the motion vector search circuit 17 among the coded image signals of the past two fields stored in the field memories 15 and 16. 1
Created by 9.

【0034】動きベクトル探索回路17は、相関演算回
路20、動きベクトル候補発生回路21、最適ベクトル
判定回路22および切替器23からなり、動きベクトル
探索動作中は動きベクトル候補発生回路21が逐次発生
する動きベクトル候補24が切替器23によりフィール
ドメモリ15,16に入力され、これをもとに補間値発
生回路19により発生される参照画像信号12と符号化
対象画像信号11との相関演算が相関演算回路20によ
って行われる。最適ベクトル判定回路22は、符号化対
象画像信号11と参照画像信号12との相関を最大とす
る動きベクトルを記憶し、動きベクトル探索動作終了時
には最適動きベクトル13が切替器23によって出力さ
れる。この最適動きベクトル13と補間値発生回路19
からの最適な参照画像信号12に基づいて符号化対象画
像信号11が符号化部14で符号化され、符号化データ
26が出力される。
The motion vector search circuit 17 comprises a correlation calculation circuit 20, a motion vector candidate generation circuit 21, an optimum vector determination circuit 22 and a switch 23, and the motion vector candidate generation circuit 21 sequentially generates during the motion vector search operation. The motion vector candidate 24 is input to the field memories 15 and 16 by the switch 23, and the correlation calculation between the reference image signal 12 and the encoding target image signal 11 generated by the interpolation value generation circuit 19 based on this is performed. It is performed by the circuit 20. The optimum vector determination circuit 22 stores the motion vector that maximizes the correlation between the encoding target image signal 11 and the reference image signal 12, and the optimum motion vector 13 is output by the switch 23 at the end of the motion vector search operation. The optimum motion vector 13 and the interpolation value generation circuit 19
The encoding target image signal 11 is encoded by the encoding unit 14 based on the optimum reference image signal 12 from, and the encoded data 26 is output.

【0035】局部復号部25は、符号化部14から出力
される符号化データ26を基に、局部復号画像信号27
を作成する。この局部復号画像信号27は切替器28に
よりフィールドメモリ15,16のいずれかに入力さ
れ、それらの出力は切替器29を経て補間値発生回路1
9に入力される。ここで、切替器28,29は符号化対
象画像に対して予め定めた参照画像を作成するための2
画像の信号が補間値発生回路19に入力されるように切
替えられる。
The local decoding unit 25, based on the encoded data 26 output from the encoding unit 14, the locally decoded image signal 27.
To create. The locally decoded image signal 27 is input to either of the field memories 15 and 16 by the switch 28, and the outputs thereof are passed through the switch 29 and the interpolation value generating circuit 1 is output.
9 is input. Here, the switchers 28 and 29 are used to create a reference image which is predetermined for the image to be encoded.
It is switched so that the image signal is input to the interpolation value generation circuit 19.

【0036】補間値発生回路19は、フィールド内補間
回路30、乗算器31、乗算器32および加算器33か
らなり、フィールドメモリ15からの出力信号よりフィ
ールド内補間回路30によって作成される信号と、フィ
ールドメモリ16からの出力信号とを混合比k:1−k
で混合することにより参照画像信号12を得る。
The interpolated value generating circuit 19 comprises an intra-field interpolating circuit 30, a multiplier 31, a multiplier 32 and an adder 33, and a signal generated by the intra-field interpolating circuit 30 from the output signal from the field memory 15. The output signal from the field memory 16 is mixed with the mixing ratio k: 1-k.
The reference image signal 12 is obtained by mixing in.

【0037】動きベクトル探索回路17から出力される
動きベクトル候補18は補間値発生回路19にも入力さ
れ、フィールドメモリ15,16からの出力信号に対す
る混合比を決定するパラメータkを制御する。すなわ
ち、動きベクトル候補18の垂直方向成分がフィールド
内n+1/2ライン(nは整数)の場合はk=1に制御
され、フィールドメモリ15に記憶された対応する画素
値(ここでは、フィールドメモリ15の内容が符号化対
象画像に近い画像であると仮定して説明する)がそのま
ま参照画像信号12として出力される。
The motion vector candidate 18 output from the motion vector search circuit 17 is also input to the interpolation value generation circuit 19 and controls the parameter k that determines the mixing ratio of the output signals from the field memories 15 and 16. That is, when the vertical component of the motion vector candidate 18 is n + 1/2 lines in the field (n is an integer), k = 1 is controlled, and the corresponding pixel value stored in the field memory 15 (here, the field memory 15 Will be output as it is as the reference image signal 12.

【0038】動きベクトル候補18の垂直方向成分がフ
ィールド内nラインの場合には、フィールドメモリ1
5,16からの出力信号を用いて図2における補間値△
が補間される。このとき、動きベクトル候補18の垂直
方向成分の絶対値がある閾値より大の場合は、参照画像
における動きも大とみなし、補間値△をそれと同一フィ
ールドのフィールドメモリ15内の補間値△に隣接する
信号を主に用いて補間することが適切であるから、パラ
メータkを大とする。逆に、動きベクトル候補18の垂
直方向成分の絶対値が閾値より小の場合は、参照画像に
おける動きも小とみなし、補間値△をフィールドメモリ
内の補間値△に隣接する信号を主に用いて補間すること
が適切であるから、パラメータkを小とする。
If the vertical component of the motion vector candidate 18 is n lines in the field, the field memory 1
Interpolation values in FIG. 2 using the output signals from 5 and 16
Is interpolated. At this time, if the absolute value of the vertical component of the motion vector candidate 18 is larger than a certain threshold value, the motion in the reference image is also regarded as large, and the interpolation value Δ is adjacent to the interpolation value Δ in the field memory 15 of the same field. The parameter k is set to a large value because it is appropriate to mainly use the signals to be interpolated. On the contrary, when the absolute value of the vertical component of the motion vector candidate 18 is smaller than the threshold value, the motion in the reference image is also regarded as small, and the interpolation value Δ is mainly used for the signal adjacent to the interpolation value Δ in the field memory. Since it is appropriate to interpolate, the parameter k is made small.

【0039】なお、図2に示すように符号化対象画像4
4と参照画像41が隣接している場合には、パラメータ
kを0に近づけてフィールドメモリ16からの信号を参
照画像41の補間値として使用することが有効なのは、
動きベクトル候補18の垂直成分の絶対値が0の場合に
ほとんど限られる。一方、図3に示したような符号化順
序を採用する場合、図4に示すように符号化対象画像5
3と参照画像51とが比較的離れる場合も生じる。この
ような場合は、パラメータkを0に近づけてフィールド
メモリ16からの信号を参照画像51の補間値として使
用することが、動きベクトルの垂直成分の絶対値が0で
ない場合にも有効となってくる。
It should be noted that as shown in FIG.
4 and the reference image 41 are adjacent to each other, it is effective to bring the parameter k close to 0 and use the signal from the field memory 16 as the interpolation value of the reference image 41.
It is almost limited to the case where the absolute value of the vertical component of the motion vector candidate 18 is 0. On the other hand, when the encoding order as shown in FIG. 3 is adopted, as shown in FIG.
3 and the reference image 51 may be relatively separated from each other. In such a case, it is effective to use the signal from the field memory 16 as the interpolation value of the reference image 51 by setting the parameter k close to 0 even when the absolute value of the vertical component of the motion vector is not 0. come.

【0040】図5に、本発明の第2の実施例を示す。補
間値発生回路19の構成以外は図1と同一であるため、
その詳細な説明は省略する。補間値発生回路19は2つ
の補間値発生回路34,35と、これらの出力を選択す
る切替器36によって構成される。補間値発生回路3
4,35は、いずれも図1に示した補間値発生回路19
と同様に、フィールド内補間回路30と乗算器31,3
2および加算器33により構成される。図6に本実施例
における各画像信号の関係を示す。
FIG. 5 shows a second embodiment of the present invention. Since the configuration is the same as that of FIG. 1 except for the configuration of the interpolation value generation circuit 19,
Detailed description thereof will be omitted. The interpolated value generation circuit 19 is composed of two interpolated value generation circuits 34 and 35, and a switch 36 for selecting the output of these. Interpolation value generation circuit 3
Reference numerals 4 and 35 denote the interpolation value generation circuit 19 shown in FIG.
Similarly to the above, the intra-field interpolation circuit 30 and the multipliers 31, 3
2 and adder 33. FIG. 6 shows the relationship between the image signals in this embodiment.

【0041】第1の補間値発生回路34は、参照画像6
1における動き量が大の場合に有効な補間値を発生す
る。すなわち、図6(a)に示すように、動きベクトル
候補18の垂直方向成分がフィールド内n+1/2ライ
ン(nは整数)の場合は、フィールドメモリ15に記憶
された対応する画素値○(ここでは、フィールドメモリ
15の内容が符号化対象画像63に近い画像であると仮
定して説明する)がそのまま参照画像信号として出力さ
れる(k=1に制御される)。
The first interpolated value generation circuit 34 uses the reference image 6
When the motion amount in 1 is large, an effective interpolation value is generated. That is, as shown in FIG. 6A, when the vertical component of the motion vector candidate 18 is n + 1/2 lines in the field (n is an integer), the corresponding pixel value ∘ stored in the field memory 15 (here Then, the description will be made assuming that the content of the field memory 15 is an image close to the encoding target image 63) is output as it is as a reference image signal (controlled to k = 1).

【0042】また、第1の補間値発生回路34は動きベ
クトル候補18の垂直方向成分がフィールド内nライン
(nは整数)の場合には、補間すべき画素△に隣接する
フィールドメモリ15内の画像信号61の二つの画素値
○の平均によって補間値△を作成する。
When the vertical component of the motion vector candidate 18 is n lines in the field (n is an integer), the first interpolation value generating circuit 34 stores in the field memory 15 adjacent to the pixel Δ to be interpolated. An interpolation value Δ is created by averaging two pixel values ◯ of the image signal 61.

【0043】第2の補間値発生回路35は、参照画像6
1における動き量が小の場合に有効な補間値を発生す
る。すなわち、図6(b)に示すように、動きベクトル
候補18の垂直方向成分がフィールド内n+1/2ライ
ン(nは整数)の場合、フィールドメモリ15に記憶さ
れた対応する画素値○(ここでは、フィールドメモリ1
5の内容が符号化対象画像63に近い画像であると仮定
して説明する)がそのまま参照画像信号として出力され
る(k=1に制御される)。例えばn=0の場合、符号
化対象画像信号64に対する参照画像信号は画素値65
となる。
The second interpolated value generation circuit 35 uses the reference image 6
When the amount of movement at 1 is small, an effective interpolation value is generated. That is, as shown in FIG. 6B, when the vertical component of the motion vector candidate 18 is n + 1/2 lines in the field (n is an integer), the corresponding pixel value ∘ stored in the field memory 15 (here: , Field memory 1
The description will be made assuming that the content of 5 is an image close to the encoding target image 63) is output as it is as a reference image signal (controlled to k = 1). For example, when n = 0, the reference image signal for the encoding target image signal 64 is the pixel value 65.
Becomes

【0044】また、第2の補間値発生回路35は動きベ
クトル候補18の垂直方向成分がフィールド内nライン
の場合は、補間すべき画素◎を隣接するフィールドメモ
リ16内の信号○とする。例えば、n=0の場合、符号
化対象画像信号64に対する参照画像信号の補間値68
は、画素値66となる。
When the vertical component of the motion vector candidate 18 is n lines in the field, the second interpolation value generation circuit 35 sets the pixel ⊚ to be interpolated as the signal ∘ in the adjacent field memory 16. For example, when n = 0, the interpolation value 68 of the reference image signal with respect to the encoding target image signal 64 is
Has a pixel value of 66.

【0045】動きベクトル候補18の垂直方向成分がフ
ィールド内n/2+1/4ラインの場合には、補間すべ
き画素△に隣接するフィールドメモリ15からの画素値
○と、フィールドメモリ16からの画素値○との平均に
よって、補間値△が作成される。例えばn=0の場合、
符号化対象画像信号64に対する参照画像信号の補間値
67は、画素値65と画素値66の平均値となる。
When the vertical component of the motion vector candidate 18 is n / 2 + 1/4 lines in the field, the pixel value ◯ from the field memory 15 adjacent to the pixel Δ to be interpolated and the pixel value from the field memory 16 An interpolated value Δ is created by averaging with ○. For example, when n = 0,
The interpolation value 67 of the reference image signal with respect to the encoding target image signal 64 is an average value of the pixel value 65 and the pixel value 66.

【0046】このように、補間値発生回路35はフィー
ルド内1/4ライン単位の精度で参照画像信号を発生さ
せることができ、動きが少なく解像度の高い画像に対し
て有効な動き補償を可能とする。
As described above, the interpolation value generating circuit 35 can generate a reference image signal with an accuracy of a unit of 1/4 line in the field, and enables effective motion compensation for an image with few motions and high resolution. To do.

【0047】ここで、切替器36は動きベクトル探索回
路17から出力される動きベクトル候補18の垂直方向
成分の絶対値がある閾値より大の場合、補間値発生回路
34の出力を選択し、閾値より小の場合は補間値回路3
5の出力を選択することにより、それぞれに適切な参照
画像信号を発生する。また、別の方式として、動きベク
トル探索回路17から出力される動きベクトル候補18
の垂直方向成分の絶対値が大の時は補間値回路34の出
力を選択し、小の場合は補間値発生回路34,35の両
方の出力を参照画像信号とし、両者について相関演算を
行って、いずれか一方を選択する方法も有効である。
Here, when the absolute value of the vertical component of the motion vector candidate 18 output from the motion vector search circuit 17 is larger than a certain threshold value, the switch 36 selects the output of the interpolation value generation circuit 34 and sets the threshold value. Interpolation value circuit 3 if smaller
By selecting the output of 5, an appropriate reference image signal is generated for each. As another method, the motion vector candidate 18 output from the motion vector search circuit 17
When the absolute value of the vertical component of is large, the output of the interpolating value circuit 34 is selected, and when it is small, both outputs of the interpolating value generating circuits 34 and 35 are used as reference image signals, and correlation calculation is performed for both. The method of selecting either one is also effective.

【0048】次に、本発明の請求項2に係る実施例につ
いて説明する。図7は、本発明の第3の実施例に係る動
画像符号化装置のブロック図である。
Next, an embodiment according to claim 2 of the present invention will be described. FIG. 7 is a block diagram of a moving picture coding apparatus according to the third embodiment of the present invention.

【0049】図7において、入力端子001に入力され
る画像データは、入力バッファメモリ100に一時的に
蓄えられた後、符号化対象画像の順序に従って、複数画
素で構成される部分領域毎に、部分画像データ入力バッ
ファメモリ100より読み出される。入力バッファメモ
リ100より読み出される部分画像データは、動きベク
トル検出回路200に入力される。動きベクトル検出回
路200は、過去に符号化した再生画像の中から入力デ
ータを効率良く符号化できる部分画像を求め、その部分
画像の領域のデータおよびその領域の位置を示す動きベ
クトル(アドレスデータ)を出力する。
In FIG. 7, the image data input to the input terminal 001 is temporarily stored in the input buffer memory 100, and then, in accordance with the order of the image to be encoded, for each partial area composed of a plurality of pixels. It is read from the partial image data input buffer memory 100. The partial image data read from the input buffer memory 100 is input to the motion vector detection circuit 200. The motion vector detection circuit 200 obtains a partial image from which the input data can be efficiently coded from the previously coded reproduced images, and the motion vector (address data) indicating the data of the partial image region and the position of the region. Is output.

【0050】入力バッファメモリ100より出力される
部分画像データは、動きベクトル検出回路200より出
力される部分画像データおよび動きベクトルと共に局部
符号化回路300にも入力される。この局部符号化回路
300では、入力バッファメモリ100より出力される
部分画像データそのもの、または動きベクトルで指定さ
れる部分画像データとの差分データのうち何れか一方が
符号化される。ここで、動きベクトルで指定される領域
との差分の符号化データには、その動きベクトルを可変
長符号化したデータも含まれる。
The partial image data output from the input buffer memory 100 is also input to the local encoding circuit 300 together with the partial image data and the motion vector output from the motion vector detecting circuit 200. The local encoding circuit 300 encodes either the partial image data itself output from the input buffer memory 100 or the difference data from the partial image data specified by the motion vector. Here, the encoded data of the difference from the area designated by the motion vector also includes data obtained by variable-length encoding the motion vector.

【0051】局部符号化回路300で符号化されたデー
タは、動きベクトル検出回路200より出力される部分
画像データと共に局部復号回路400に入力され復号さ
れることにより、再生画像が得られる。また、符号化デ
ータが動きベクトルを用いて符号化されている場合に
は、復号結果が動きベクトル検出回路200より出力さ
れる部分画像データに加算されて再生画像が得られる。
この再生画像データは、動きベクトル検出回路200に
入力され、次に入力される画像データの符号化のために
一時記憶される。
The data coded by the local coding circuit 300 is input to the local decoding circuit 400 together with the partial image data output from the motion vector detection circuit 200 and decoded, whereby a reproduced image is obtained. When the encoded data is encoded using the motion vector, the decoding result is added to the partial image data output from the motion vector detection circuit 200 to obtain the reproduced image.
This reproduced image data is input to the motion vector detection circuit 200 and is temporarily stored for encoding the image data input next.

【0052】次に、動きベクトル検出回路200、局部
符号化回路300および局部復号回路400の具体的な
動作例を説明する。
Next, a concrete operation example of the motion vector detection circuit 200, the local coding circuit 300 and the local decoding circuit 400 will be described.

【0053】先ず、動きベクトル検出回路200におい
ては、入力バッファメモリ100より入力されるデータ
は、動きベクトルの探索に不要となった画像データが記
憶されていた画像メモリ(211〜214の何れか)
に、書込制御回路222によって順次書き込まれる。こ
の様にして画像メモリ(211〜214)に保存された
符号化済み画像データは、読出制御回路221およびデ
ータ切り換え回路231により、符号化画像に時間的に
近い画像から領域毎に順次読み出され、差分回路241
で入力データとの差分が領域毎に算出される。評価回路
242は、この領域毎の差分の合計値の大きさを順次比
較し、読出制御回路221が画像メモリ内を探索する方
向を制御し、先に検出した部分画像よりも入力された部
分画像との差分が更に小さな符号化済み画像の部分領域
を検出する毎に、ベクトルレジスタ243にその部分画
像の領域を示すアドレスを記憶させ、入力された部分画
像に最も近い符号化済み画像の部分領域を求める。この
ようにしてクトルレジスタ243に記憶された、入力さ
れた部分画像との差分が最も小さな符号化済み画像の部
分領域を示すアドレスデータは読出制御回路233およ
び切替回路232に入力され、その符号化済み画像の部
分領域に対する符号化データの再生画像が再生画像メモ
リ(215〜218)より読み出され、そのアドレスデ
ータと共に局部符号化回路300に入力される。
First, in the motion vector detection circuit 200, the data input from the input buffer memory 100 is an image memory (any one of 211 to 214) in which image data unnecessary for the motion vector search is stored.
Are sequentially written by the write control circuit 222. The coded image data stored in the image memory (211 to 214) in this manner is sequentially read by the read control circuit 221 and the data switching circuit 231 from the image temporally close to the coded image for each area. , Difference circuit 241
The difference from the input data is calculated for each area. The evaluation circuit 242 sequentially compares the magnitudes of the total values of the differences for each area, controls the direction in which the read control circuit 221 searches the image memory, and inputs the partial image rather than the previously detected partial image. Each time a partial area of an encoded image having a smaller difference from is detected, an address indicating the area of the partial image is stored in the vector register 243, and the partial area of the encoded image closest to the input partial image is stored. Ask for. The address data indicating the partial area of the encoded image having the smallest difference from the input partial image stored in the register 243 in this way is input to the read control circuit 233 and the switching circuit 232. The reproduced image of the encoded data for the partial area of the completed image is read from the reproduced image memory (215 to 218) and input to the local encoding circuit 300 together with the address data.

【0054】一方、局部符号化回路300においては、
この実施例では動き補償誤差の符号化方法として直交変
換の一つであるDCT(離散コサイン変換)と量子化お
よび可変長符号化を用いている。局部符号化回路300
において、先ず入力バッファメモリ100から出力され
る部分画像データは差分回路311に入力され、その部
分画像データに対して動きベクトル検出回路200から
出力される、符号化データを再生した部分画像データと
の差分が算出される。切替回路312は、差分回路31
1より入力される差分画像データと入力バッファメモリ
100より入力される部分画像データとを端子002に
入力される制御信号によって順次切り替えて出力する。
On the other hand, in the local encoding circuit 300,
In this embodiment, DCT (discrete cosine transform), which is one of orthogonal transforms, and quantization and variable length coding are used as a motion compensation error coding method. Local encoding circuit 300
First, the partial image data output from the input buffer memory 100 is input to the difference circuit 311, and the partial image data and the partial image data reproduced from the motion vector detection circuit 200 are reproduced. The difference is calculated. The switching circuit 312 includes the difference circuit 31.
The differential image data input from 1 and the partial image data input from the input buffer memory 100 are sequentially switched by the control signal input to the terminal 002 and output.

【0055】DCT回路320は、切替回路312より
順次出力される部分画像データおよび差分画像データを
順次周波数変換して出力する。量子化回路330は、D
CT回路320から出力される周波数変換されたデータ
を予め設定された量子化幅で量子化して出力する。エン
トロピ符号器340は、量子化回路330で量子化され
たデータと、その量子化幅情報および部分画像データと
差分データとの識別符号を併せて符号化し、更に差分画
像データの符号化にはベクトルレジスタ243より出力
される該部分画像に対する動きベクトルも併せて、それ
ぞれの出現確率に応じたハフマン符号等を用いて可変長
符号化して出力する。この識別符号と動きベクトルを併
せて1つのハフマン符号を形成すれば、効率の良い符号
化が可能である。また、この符号化において、予め決め
られた規則により指定される領域の符号化データを再生
して得られた画像データ、或いは固定データとの差分が
設定値以下の入力画像データについては、その様な部分
画像の連続数を可変長符号化すれば、更に符号化効率が
向上する。
The DCT circuit 320 sequentially frequency-converts and outputs the partial image data and the difference image data sequentially output from the switching circuit 312. The quantizer circuit 330
The frequency-converted data output from the CT circuit 320 is quantized and output with a preset quantization width. The entropy encoder 340 collectively encodes the data quantized by the quantization circuit 330, the quantization width information and the identification code of the partial image data and the difference data, and further encodes the difference image data by a vector. The motion vector for the partial image output from the register 243 is also variable-length coded and output using a Huffman code or the like according to the respective appearance probabilities. If one Huffman code is formed by combining the identification code and the motion vector, efficient coding is possible. In addition, in this encoding, for the image data obtained by reproducing the encoded data of the area specified by the predetermined rule, or the input image data whose difference from the fixed data is the set value or less, If the number of consecutive partial images is variable-length coded, the coding efficiency is further improved.

【0056】符号量評価回路351は、符号化対象の部
分画像が動きベクトルで指定された領域との差分を符号
化した場合と、入力データをそのままDCTして符号化
した場合とで符号量の比較を行い、符号化効率の良い方
の符号化データを出力バッファ360および局部復号回
路400に出力する。
The code amount evaluation circuit 351 determines the code amount when the difference between the partial image to be encoded and the area specified by the motion vector is encoded and when the input data is directly DCT encoded. The comparison is performed, and the coded data having the higher coding efficiency is output to the output buffer 360 and the local decoding circuit 400.

【0057】出力バッファ360は、出力データ速度の
調整の為に、この符号化データを一時的に記憶すると共
に、量子化回路330で用いられる量子化幅とエントロ
ピ符号化器340で用いられる符号化テーブルを制御す
る。
The output buffer 360 temporarily stores the coded data in order to adjust the output data rate, and the quantization width used in the quantization circuit 330 and the coding used in the entropy encoder 340. Control the table.

【0058】局部復号回路400においては、動きベク
トル検出回路200より出力される部分画像データがデ
ータメモリ441に一時記憶されるとともに、符号量評
価回路351より出力される符号化データが可変長復号
器410に入力され、識別符号を含む動きベクトルおよ
び符号化前の量子化データが復号される。この復号され
た量子化データは逆量子化回路420に入力され、量子
化前のダイナミックレンジを持つ代表値に変換(逆量子
化)された後、加算回路450に入力される。逆量子化
回路420で逆量子化されたデータは逆DCT回路43
0に入力され、部分画像データ又は差分画像データが再
生される。ゲート回路442は、可変長復号器410が
復号した識別符号により、逆DCT回路430より出力
される再生データが差分画像データである場合にはデー
タメモリ441より出力される部分画像データを通過さ
せ、差分画像でない場合には出力データを零にして、そ
れぞれ加算回路450に出力する。
In the local decoding circuit 400, the partial image data output from the motion vector detection circuit 200 is temporarily stored in the data memory 441, and the encoded data output from the code amount evaluation circuit 351 is a variable length decoder. The motion vector including the identification code and the quantized data before encoding are input to 410 and decoded. The decoded quantized data is input to the inverse quantization circuit 420, converted into a representative value having a dynamic range before quantization (inverse quantization), and then input to the addition circuit 450. The data inversely quantized by the inverse quantization circuit 420 is the inverse DCT circuit 43.
0 is input, and partial image data or difference image data is reproduced. The gate circuit 442 passes the partial image data output from the data memory 441 when the reproduction data output from the inverse DCT circuit 430 is difference image data by the identification code decoded by the variable length decoder 410, If it is not a difference image, the output data is set to zero and output to the addition circuit 450.

【0059】こうして逆DCTされた画像データが差分
画像を符号化したものである場合には、動きベクトル検
出回路200より出力される部分画像データに加算さ
れ、差分画像でない場合には、動きベクトル検出回路2
00より出力された部分画像データを使用せずに、加算
回路450より再生画像が得られる。この再生画像デー
タは、動きベクトル検出回路200に入力され、次に入
力される画像データの符号化の為に一時記憶される。
When the image data subjected to the inverse DCT in this way is the encoded difference image, it is added to the partial image data output from the motion vector detection circuit 200, and when it is not the difference image, the motion vector detection is performed. Circuit 2
A reproduction image can be obtained from the adding circuit 450 without using the partial image data output from 00. This reproduced image data is input to the motion vector detection circuit 200 and is temporarily stored for encoding the image data input next.

【0060】図8は本発明の第4の実施例であり、図1
の符号化回路400に含まれる可変長復号回路410の
代わりに量子化データを記憶するデータメモリ460を
用いた点が異なっている。この場合には、入力バッファ
メモリ100より出力される部分画像データとそれに対
する動きベクトルで指定される再生画像との差分画像デ
ータをDCTおよび量子化したデータがデータメモリ4
60に一時記憶される。そして、符号量評価回路352
で選択され、出力バッファ360に出力される符号化デ
ータに対応する画像データが逆量子化回路420に出力
される。この画像データが差分画像データである場合に
は、図1の例と同様にデータメモリ441から出力され
る部分画像データと加算回路450において加算される
ことによって再生画像が得られる。
FIG. 8 shows a fourth embodiment of the present invention.
The difference is that a data memory 460 for storing quantized data is used instead of the variable length decoding circuit 410 included in the encoding circuit 400 of FIG. In this case, data obtained by performing DCT and quantization on the difference image data between the partial image data output from the input buffer memory 100 and the reproduced image specified by the motion vector for the partial image data is the data memory 4
It is temporarily stored in 60. Then, the code amount evaluation circuit 352
The image data corresponding to the encoded data selected by the output buffer 360 is output to the inverse quantization circuit 420. When this image data is difference image data, a reproduced image is obtained by adding the partial image data output from the data memory 441 in the addition circuit 450, as in the example of FIG.

【0061】この実施例は、復号の為の演算が不要であ
るために、図1よりも処理時間が短くなるという利点が
ある。
This embodiment has an advantage that the processing time is shorter than that in FIG. 1 since the calculation for decoding is unnecessary.

【0062】図9は本発明の第5の実施例であり、符号
化回路400の一部を動きベクトル検出回路に用いる様
にした例である。この実施例においても、動きベクトル
検出回路200は既に符号化し再生した画像の中から読
出制御回路224に従って部分画像データを切替回路2
32を介して読み出すと共に、その領域の位置を示す動
きベクトル(アドレスデータ)を出力する。
FIG. 9 shows a fifth embodiment of the present invention, which is an example in which a part of the encoding circuit 400 is used for a motion vector detecting circuit. Also in this embodiment, the motion vector detection circuit 200 switches the partial image data from the already encoded and reproduced image according to the read control circuit 224.
The data is read via 32 and a motion vector (address data) indicating the position of the area is output.

【0063】図9において、入力端子001に入力され
る画像データは、図7および図8と同様に入力バッファ
メモリ100に一時的に蓄えられた後、符号化対象画像
の順序に従って複数画素で構成される領域毎に入力バッ
ファメモリ100より読み出され、局部符号化回路30
0に入力される。この入力バッファメモリ100より出
力される部分画像データは、先ず入力端子002に入力
される制御信号によりゲート回路313を介して入力さ
れる動きベクトル検出回路200からの出力データとの
差分はとられず、図7および図8と同様にDCT、量子
化、可変長符号化が施される。量子化データはデータメ
モリ460に記憶され、符号化データおよび符号量は符
号量評価器353に記憶される。次に、入力端子002
に入力される制御信号が変更され、動きベクトル検出回
路200により出力される部分画像データとの差分を算
出されて、図7および図8と同様にDCT、量子化、可
変長符号化が行われる。
In FIG. 9, the image data input to the input terminal 001 is temporarily stored in the input buffer memory 100 as in FIGS. 7 and 8, and then is composed of a plurality of pixels according to the order of the image to be encoded. The local encoding circuit 30 is read from the input buffer memory 100 for each region
Input to 0. The partial image data output from the input buffer memory 100 is not different from the output data from the motion vector detecting circuit 200 input via the gate circuit 313 by the control signal input to the input terminal 002 first. DCT, quantization, and variable length coding are performed as in FIGS. 7 and 8. The quantized data is stored in the data memory 460, and the encoded data and the code amount are stored in the code amount evaluator 353. Next, input terminal 002
The control signal input to is changed, the difference from the partial image data output by the motion vector detection circuit 200 is calculated, and DCT, quantization, and variable length coding are performed as in FIGS. 7 and 8. ..

【0064】符号量評価器353は、エントロピ符号器
340からの符号化データを評価して、その評価結果に
従って読出制御回路224を制御することにより、符号
量を更に少なくできる領域を検出する毎にその符号化デ
ータを記憶させると共に、動きベクトル検出回路200
から出力された部分画像データをデータメモリ441に
記憶させ、その差分画像をDCTして量子化したデータ
をデータメモリ460に記憶させる。この様にして最終
的に最も符号量の少なくなる符号化データが出力バッフ
ァ360に出力される。この符号化データに対する量子
化データが局部復号回路400において図7および図8
と同様に再生される。再生データは動きベクトル検出回
路200に入力され、次に入力される画像データの符号
化の為に一時記憶される。
The code amount evaluator 353 evaluates the encoded data from the entropy encoder 340 and controls the read control circuit 224 according to the evaluation result, so that the code amount evaluator 353 detects an area where the code amount can be further reduced. The encoded data is stored and the motion vector detection circuit 200
The partial image data output from the data memory 441 is stored in the data memory 441, and the data obtained by DCT and quantizing the difference image is stored in the data memory 460. In this way, the encoded data having the smallest code amount is finally output to the output buffer 360. The quantized data corresponding to this coded data is converted by the local decoding circuit 400 in FIGS.
Is played as well. The reproduced data is input to the motion vector detection circuit 200 and is temporarily stored for encoding the image data input next.

【0065】図7および図8の実施例においては、最適
動きベクトルとして、より正確な動きベクトルが求まる
のに対し、図9の実施例では符号化効率を最大にする動
きベクトルが求められる。
In the embodiments of FIGS. 7 and 8, a more accurate motion vector is obtained as the optimum motion vector, whereas in the embodiment of FIG. 9, a motion vector that maximizes the coding efficiency is obtained.

【0066】図10は、図7〜図9で示した実施例にお
いて符号化されたデータを再生する回路例を示すもので
ある。可変長復号器510は入力端子004から入力さ
れる符号化データを復号し、量子化幅情報、動きベクト
ル(動きベクトルで指定される部分画像との差分画像デ
ータかそうでないかの識別符号を含む)、および量子化
データを再生する。量子化データは逆量子化回路52
0、逆DCT回路530を通して再生される。この再生
データが動きベクトルで指定される部分画像との差分画
像データであれば、読出制御回路521がその部分画像
データを再生画像メモリ611〜614より読み出して
動きベクトル検出回路600から出力し、局部復号回路
500に入力する。この部分画像データは、ゲート回路
540を介して加算回路550で差分画像データと加算
されて、再生画像データとなる。この再生画像データ
は、次に入力される符号化データの再生の為に動きベク
トル検出回路600に入力され、一時記憶される。ま
た、この再生画像データは出力バッファ560にも入力
され、本来の画像の順序に戻されて出力される。
FIG. 10 shows an example of a circuit for reproducing the data coded in the embodiment shown in FIGS. The variable length decoder 510 decodes the coded data input from the input terminal 004, and includes quantization width information, motion vector (differential image data with respect to the partial image designated by the motion vector, and an identification code indicating whether or not it is different). ), And quantized data. The quantized data is the inverse quantization circuit 52.
0, reproduced through the inverse DCT circuit 530. If the reproduction data is the difference image data with the partial image specified by the motion vector, the read control circuit 521 reads the partial image data from the reproduction image memories 611 to 614 and outputs it from the motion vector detection circuit 600. Input to the decoding circuit 500. This partial image data is added to the difference image data by the addition circuit 550 via the gate circuit 540 to become reproduced image data. This reproduced image data is input to the motion vector detection circuit 600 and is temporarily stored in order to reproduce the encoded data input next. The reproduced image data is also input to the output buffer 560, returned to the original order of the images, and output.

【0067】次に、図7および図8の評価回路242お
よび読出制御回路221、図9の符号量評価器352お
よび読出制御回路224において行われる動きベクトル
の探索動作について説明する。
Next, the motion vector search operation performed in the evaluation circuit 242 and the read control circuit 221 of FIGS. 7 and 8 and the code amount evaluator 352 and the read control circuit 224 of FIG. 9 will be described.

【0068】図11〜図16は、本発明による動きベク
トル探索例を示すものである。これらの図11〜図16
において、s1,s2,…,s6は1フレームまたは1
フィールドの画像を意味し、101,102,…,12
0は水平方向または垂直方向の1画素または複数画素を
意味する。
11 to 16 show examples of motion vector search according to the present invention. 11 to 16
, S1, s2, ..., s6 are 1 frame or 1
Means an image of a field, 101, 102, ..., 12
0 means one pixel or a plurality of pixels in the horizontal or vertical direction.

【0069】図11に示す動きベクトル探索例において
は、符号化対象の部分画像(例えばs4−104)に対
して、先ず時間的に近い符号化済み画像s3全体(10
1〜120)を探索し、その探索により求められた最適
動きベクトル、すなわち符号化効率が高いか、またはよ
り正確な動きベクトル(例えばs3−107)を基にし
て符号化対象画像に符号化済み画像s3よりも時間的に
離れた符号化済み画像s2での探索範囲(面積)を例え
ば(105〜115)に限定する。
In the motion vector search example shown in FIG. 11, the entire encoded image s3 (10) that is temporally close to the partial image to be encoded (eg, s4-104) is first displayed.
1-120) are searched, and the optimum motion vector obtained by the search, that is, the coding efficiency is high or the more accurate motion vector (for example, s3-107) has been coded in the coding target image. The search range (area) in the coded image s2 that is temporally distant from the image s3 is limited to (105 to 115), for example.

【0070】この時間的に離れた符号化済み画像s2で
の探索においては、先に求められた最適動きベクトル
(例えばs03−107)を含めて、最適動きベクトル
(例えばs02−109或いはs03−107)を求め
る。
In the search in the encoded image s2 which is distant in time, the optimum motion vector (for example, s02-109 or s03-107) including the previously calculated optimum motion vector (for example, s03-107) is included. ).

【0071】そして、得られた最適動きベクトル(例え
ばs2−107)により指定される領域の画像と、符号
化対象の部分画像(例えばs4−104)との差分、す
なわち動き補償誤差を求め、その最適動きベクトルと動
き補償誤差を符号化する。
Then, the difference between the image of the area designated by the obtained optimum motion vector (for example, s2-107) and the partial image to be encoded (for example, s4-104), that is, the motion compensation error is obtained, and the difference is obtained. Encode the optimal motion vector and motion compensation error.

【0072】図12〜図14に示す動きベクトル探索例
は、符号化対象画像s4に時間的に近い画像(例えばs
3)が時間的に離れた画像(例えばs1)との間の動き
ベクトルを用いて符号化されている場合に好適な例であ
る。この場合、符号化対象の部分画像s4−104に対
して時間的に近い画像s3との間の動きベクトルを予測
することが可能であるため、その時間的に近い画像s3
での探索範囲を例えば(103〜112)に制限してい
る。また、これによって時間的に近い画像との間の符号
化効率の良い動きベクトル(例えばs3−107)が求
まれば、その動きベクトルで指定される時間的に近い画
像の部分領域(例えばs3−107)に対して使用され
た時間的に離れた画像(例えばs1)との間の動きベク
トル(例えばs1−110)を用いて、符号化対象画像
s4の部分画像s4−104の時間的に離れた画像(例
えばs2)との間の動きベクトルの候補となる領域を更
に狭い範囲、例えば(107〜110)に限定できる。
The motion vector search examples shown in FIGS. 12 to 14 are images (for example, s) that are temporally close to the encoding target image s4.
This is a suitable example when 3) is encoded using a motion vector between a temporally distant image (for example, s1). In this case, since it is possible to predict the motion vector between the partial image s4-104 to be encoded and the image s3 that is close in time, the image s3 that is close in time.
The search range in is limited to (103 to 112), for example. Further, if a motion vector (for example, s3-107) having a high coding efficiency with the temporally close image is obtained by this, a partial region of the temporally close image designated by the motion vector (for example, s3-107). 107) using the motion vector (for example, s1-110) between the temporally distant image (for example, s1) used for 107) and the temporal separation of the partial image s4-104 of the encoding target image s4. The area that is a candidate for the motion vector with respect to the image (for example, s2) can be limited to a narrower range, for example, (107 to 110).

【0073】図15に示す動きベクトル探索例は、画像
間で動きが非常に大きく、時間的に近い画像s3でも候
補となる動きベクトルが存在しない場合や、時間的に近
い画像s3で候補として求められた動きベクトル(例え
ばs3−116)が非常に大きく、時間的に離れた画像
s2では符号化効率の良い動きベクトルが存在しないこ
とを予想できる場合の例である。
In the motion vector search example shown in FIG. 15, when the motion between images is very large and there is no motion vector that is a candidate even in the image s3 that is close in time, or when the image s3 that is close in time is obtained as a candidate. This is an example of the case where the obtained motion vector (for example, s3-116) is very large, and it can be predicted that there is no motion vector with high coding efficiency in the temporally distant images s2.

【0074】このような場合、時間的に離れた画像s2
については動きベクトルの探索を行わないか、または探
索範囲を例えば(116〜120)のように更に限定す
ることができる。これにより、動きベクトルの探索に要
する演算量が少なくても、符号化効率の良い動きベクト
ルを求めることが可能となる。
In such a case, images s2 that are temporally separated
For, the motion vector search may not be performed, or the search range may be further limited, such as (116 to 120). This makes it possible to obtain a motion vector with high coding efficiency even if the amount of calculation required to search for the motion vector is small.

【0075】図16に示す動きベクトル探索例は、符号
化対象の部分画像s4−104に時間的に近い画像s3
で求められた動きベクトル(例えばs3−107)があ
る程度大きな場合や、適当な動きベクトルが求められな
かった場合の例である。これらの場合は、時間的に離れ
た画像s2での動きベクトルの探索は行わず、時間的に
近い画像s3との間の動きベクトルが小さい場合にの
み、時間的に離れた画像s2での探索範囲を符号化対象
画像s4の符号化領域と同じ位置の近傍(例えば103
〜105)に制限して動きベクトルの探索を行うように
する。
In the motion vector search example shown in FIG. 16, the image s3 temporally close to the partial image s4-104 to be coded is used.
This is an example of the case where the motion vector (for example, s3-107) obtained in step S1 is large to some extent, or an appropriate motion vector is not obtained. In these cases, the search for the motion vector in the temporally distant image s2 is not performed, and the search in the temporally distant image s2 is performed only when the motion vector between the temporally distant image s3 is small. The range is in the vicinity of the same position as the coding region of the coding target image s4 (for example, 103
Up to 105) and search for a motion vector.

【0076】時間的に近い画像間の動きが大きな場合に
は、通常のカメラ撮影の画像では1画像の中でも動きに
よる“ぼけ”が存在するため、画像間で動き補償を行う
ときに1/2画素単位の差を生じ難い。即ち、そのよう
な場合は時間的に更に離れた画像で動きベクトルを求め
ても、探索のための演算量が増加するにも拘らず、符号
化効率の向上は少ない。図16の例によれば、このよう
な場合は動きの大きな画像では時間的に離れた画像の動
きベクトルを符号化しないために、符号化する種類が少
なくなり、更に符号化効率が高くなる。
When there is a large motion between images that are close in time, there is a "blur" due to motion even in one image captured by a normal camera. It is difficult to make a difference in pixel units. That is, in such a case, even if the motion vector is obtained from images that are further apart in time, the improvement in coding efficiency is small despite the increase in the amount of calculation for search. According to the example of FIG. 16, in such a case, since a motion vector of an image having a large motion is not encoded, the types of encoding are reduced, and the encoding efficiency is further increased.

【0077】なお、本発明における符号化の方法はフレ
ーム内、フィールド内符号化、或いはフレーム間、フィ
ールド間差分符号化のいずれでもよく、更に他の符号化
方式と組み合わせることも可能である。また、本発明に
よる動きベクトルの探索方法は、予め任意の画像数間隔
で符号化した符号化済み画像を参照画像として、それら
の間の画像に対して動きベクトルを求める場合にも同様
に符号化対象画像の前後から探索を行うことができる。
The encoding method in the present invention may be intra-frame, intra-field encoding, or inter-frame or inter-field differential encoding, and may be combined with other encoding methods. Further, the motion vector search method according to the present invention similarly encodes when a motion vector is obtained for an image between them using a coded image previously encoded at an arbitrary number of image intervals as a reference image. The search can be performed before and after the target image.

【0078】次に、請求項3に係る実施例について説明
する。図17は、本発明の第6の実施例に係る動画像符
号化装置のブロック図である。本実施例は、MPEG1
のシミュレーションモデルであるSM3のような符号化
方式に本発明を適用した例であり、符号化のアルゴリズ
ムは基本的に動き補償+DCT(離散コサイン変換)方
式を採用している。但し、入力画像フォーマットは例え
ばCCIRRec.601/525に定義される画像フ
ォーマットのようなインタレースフォーマットである。
この画像フォーマットを図18に示す。図18におい
て、Yは輝度信号、Cr,Cbは色信号であり、それぞ
れの信号の1フィールド当たりの画素数は図中に示した
通りである。
Next, an embodiment according to claim 3 will be described. FIG. 17 is a block diagram of a moving picture coding apparatus according to the sixth embodiment of the present invention. This embodiment is based on MPEG1.
This is an example in which the present invention is applied to an encoding method such as SM3 which is a simulation model of the above. The encoding algorithm basically adopts the motion compensation + DCT (discrete cosine transform) method. However, the input image format is, for example, CCIR Rec. It is an interlaced format such as the image format defined in 601/525.
This image format is shown in FIG. In FIG. 18, Y is a luminance signal, Cr and Cb are color signals, and the number of pixels per field of each signal is as shown in the figure.

【0079】符号化単位はSM3と同様に、階層的に構
成される。すなわち、図19に示されるように、下位か
らブロック、マクロブロック、スライス、ピクチャ、そ
して図19には示されていないがグループオブピクチャ
およびシーケンスの順に階層化される。ブロックは8×
8画素よりなり、DCTはこのブロック単位で行われ
る。マクロブロックはYブロック2個と、Crブロック
およびCbブロック各1個の計4ブロックよりなり、動
き補償および各符号化モードの選択は、このマクロブロ
ック単位で行われる。
Similar to SM3, the coding unit is hierarchically structured. That is, as shown in FIG. 19, blocks, macroblocks, slices, pictures, and a group of pictures and sequences, which are not shown in FIG. 8x blocks
It consists of 8 pixels, and DCT is performed in this block unit. The macroblock is composed of two Y blocks and one Cr block and one Cb block, for a total of 4 blocks. Motion compensation and selection of each coding mode are performed in units of this macroblock.

【0080】グループオブピクチャ(GOP)は、次の
ように構成される。ピクチャはSM3と同様に予測モー
ドとして許されるマクロブロック毎のモードの種類によ
って大きくI,P,Bの各ピクチャに分けられる。モー
ドとしては、フィールド内予測(Intra)、前方予
測(Inter:動き補償を含む)、後方予測および両
方向内挿予測の4モードがある(詳細は後述)。これら
のうち、どの予測モードを使用できるかによって表1に
示すようにピクチャの種類がI,P,Bの3通りに分類
される。
The group of pictures (GOP) is constructed as follows. Like SM3, the picture is roughly divided into I, P, and B pictures according to the type of mode for each macroblock allowed as a prediction mode. As modes, there are four modes of intra-field prediction (Intra), forward prediction (Inter: including motion compensation), backward prediction, and bidirectional interpolation prediction (details will be described later). Of these, the types of pictures are classified into three types, I, P, and B, as shown in Table 1, depending on which prediction mode can be used.

【0081】[0081]

【表1】 本実施例では、SM3と異なり、符号化ピクチャフォー
マットとしてインタレースフォーマットを採用してお
り、同じ種類のピクチャでもGOP内での位置により予
測方法等が異なるため、ピクチャはさらに細かく分類さ
れる。図20に、GOPの構成と各ピクチャがどのピク
チャから予測されるかを示す。同図に示されるように、
GOPはランダムアクセスおよび特殊再生用にエントリ
ポイントとして周期的に設けられたIピクチャに先行す
るB0 ピクチャから始まり、次のIピクチャの前にある
2 で終わるピクチャの組によって定義される。Iピク
チャは偶数フィールドのみに現われる。
[Table 1] In the present embodiment, unlike SM3, an interlace format is adopted as a coded picture format, and even pictures of the same type have different prediction methods depending on their positions in the GOP, so pictures are further classified. FIG. 20 shows the structure of GOP and from which picture each picture is predicted. As shown in the figure,
A GOP is defined by a set of pictures that start with a B 0 picture that precedes an I picture that is periodically provided as an entry point for random access and trick play, and that ends with P 2 that precedes the next I picture. I-pictures appear only in even fields.

【0082】また、各ピクチャがどのピクチャからどの
ように予測されるかを表2および図21に示した。
Table 2 and FIG. 21 show how each picture is predicted from which picture.

【0083】[0083]

【表2】 予測方法には偶数フィールドのみから予測するフィール
ド間予測と、偶/奇各1フィールドずつから適応的に予
測を行なうフィールド間/フレーム間適応予測の二通り
がある。図21で矢印は、フィールド間予測に行なうこ
とを示し、また2本の線が1本の矢印に統合されている
記号は、フィールド間/フレーム間適応予測を行なうこ
とを示している。また、1GOP内での各ピクチャの符
号化順序は図20(b)に示される通りである。
[Table 2] There are two types of prediction methods: inter-field prediction in which only even fields are predicted, and inter-field / inter-frame adaptive prediction in which each even / odd field is adaptively predicted. In FIG. 21, an arrow indicates that inter-field prediction is performed, and a symbol in which two lines are integrated into one arrow indicates that inter-field / inter-frame adaptive prediction is performed. The coding order of each picture in one GOP is as shown in FIG.

【0084】以上の点を踏まえて、図17に示す動画像
符号化装置を説明する。図17において、入力端子70
0にはインターレースされた動画像信号が入力される。
この入力動画像信号は、フィールドメモリ701に連続
した8フィールド分蓄えられる。フレームメモリ701
内の動画像信号は第1の動きベクトル検出回路710に
供給され、原動画像によるテレスコーピックサーチ(後
述)により、動きベクトル検出が1画素精度で行われ
る。これが動き補償の第1段階の処理である。
Based on the above points, the moving picture coding apparatus shown in FIG. 17 will be described. In FIG. 17, the input terminal 70
An interlaced moving image signal is input to 0.
The input moving image signal is stored in the field memory 701 for eight consecutive fields. Frame memory 701
The moving image signal in the inside is supplied to the first motion vector detecting circuit 710, and the motion vector is detected with one pixel accuracy by a telescopic search (described later) using the original moving image. This is the first stage process of motion compensation.

【0085】次に、動き補償の第2段階での前処理とし
て、局部復号ループ内のフィールドメモリ708に蓄え
られた局部復号信号を用いて、動きベクトル検出回路7
10で原画像を用いて求められた動きベクトルをその回
りの±1の範囲を全探索することにより、リファインす
る。
Next, as preprocessing in the second stage of motion compensation, the motion vector detection circuit 7 is used by using the locally decoded signal stored in the field memory 708 in the local decoding loop.
The motion vector obtained using the original image in 10 is refined by searching the range of ± 1 around it.

【0086】次に、動き補償の第2の段階として、フィ
ールドメモリ708とフィールド間/フレーム間適応予
測回路709および第2の動きベクトル検出回路711
において局部復号信号を用いた1/2画素精度の動きベ
クトル検出が行われ、予測回路709により予測信号が
生成される。この予測信号は減算器702に入力されて
フィールドメモリ701からの動画像信号との差がとら
れ、この差が予測誤差信号として出力される。
Next, as the second stage of motion compensation, the field memory 708, the inter-field / inter-frame adaptive prediction circuit 709, and the second motion vector detection circuit 711.
At 1/2, motion vector detection with 1/2 pixel precision is performed using the locally decoded signal, and the prediction circuit 709 generates a prediction signal. This prediction signal is input to the subtractor 702 and the difference from the moving image signal from the field memory 701 is calculated, and this difference is output as the prediction error signal.

【0087】この予測誤差信号はDCT回路703によ
り離散コサイン変換され、DCT係数データが得られ
る。このDCT係数データは量子化回路704で量子化
され適応スキャンされた後、2次元可変長符号化回路7
10を経てマルチプレクサ714に入力される。量子化
後のDCT係数データは、逆量子化回路705および逆
DCT回路706を経て局部復号され、I,Pピクチャ
のみがフィールドメモリ708に書きこまれる。フィー
ルドメモリ708は、適応予測に必要な4フィルード分
用意される。
This prediction error signal is discrete cosine transformed by the DCT circuit 703 to obtain DCT coefficient data. The DCT coefficient data is quantized by the quantizing circuit 704 and adaptively scanned, and then the two-dimensional variable length coding circuit 7
It is input to the multiplexer 714 via 10. The quantized DCT coefficient data is locally decoded through the inverse quantization circuit 705 and the inverse DCT circuit 706, and only I and P pictures are written in the field memory 708. The field memory 708 is prepared for four fields required for adaptive prediction.

【0088】マルチプレクサ714では、DCT係数デ
ータと、後述する第2の動きベクトル検出回路711か
らの動きベクトルおよび符号化制御部717からのマク
ロブロックタイプや、ステップサイズ等の付加情報が多
重化される。マルチプレクサ714で多重化された情報
は、バッファ715を経て一定の伝送レートとされ、例
えばVTR等の蓄積系(記録媒体)へ出力される。
The multiplexer 714 multiplexes the DCT coefficient data, the motion vector from the second motion vector detecting circuit 711, which will be described later, and the additional information such as the macroblock type from the coding control unit 717 and the step size. .. The information multiplexed by the multiplexer 714 passes through the buffer 715 to have a constant transmission rate, and is output to a storage system (recording medium) such as a VTR.

【0089】符号化制御部717においては、バッファ
715でのバッファ量と、アクティビティ計算回路71
6で計算されたマクロブロック内アクティビティ(Iピ
クチャ)または直前の同モードの量子化前の信号のマク
ロブロック内アクティビティ(P,Bピクチャ)を使っ
て、量子化回路704での量子化ステップサイズを制御
している。
In the encoding control unit 717, the buffer amount in the buffer 715 and the activity calculation circuit 71
By using the intra-macroblock activity (I picture) calculated in step 6 or the intra-macroblock activity (P, B picture) of the immediately preceding signal in the same mode before quantization, the quantization step size in the quantization circuit 704 is set. Have control.

【0090】次に、図17の動画像符号化装置に対応す
る動画像復号装置の構成を図22により説明する。入力
端子800には、蓄積系から読み出された信号が入力さ
れ、バッファ801に一旦蓄えられる。バッファ801
から読み出された信号は、デマルチプレクサ/可変長復
号回路801に入力され、図17のマルチプレクサ71
4で多重化されたDCT係数データ、動きベクトルおよ
びステップサイズ等の付加情報が分離されると共に復号
される。
Next, the configuration of a moving picture decoding apparatus corresponding to the moving picture coding apparatus of FIG. 17 will be described with reference to FIG. The signal read from the storage system is input to the input terminal 800 and temporarily stored in the buffer 801. Buffer 801
The signal read from is input to the demultiplexer / variable length decoding circuit 801, and the multiplexer 71 of FIG.
Additional information such as DCT coefficient data, motion vectors and step sizes multiplexed in 4 is separated and decoded.

【0091】すなわち、DCT係数データは2次元可変
長復号されスキャン変換された後、図17の動画像符号
化装置における局部復号ループと同様、逆量子化回路8
03および逆DCT回路804を経て局部復号され、加
算器805および4フィールド分のフィールドメモリ8
06を経て適応予測回路807に入力される。一方、動
きベクトルは後述のように差分の形で送られてくるの
で、可変長復号の後、もとの形に戻されて適応予測回路
807に供給される。適応予測回路807では予測信号
が生成され、この予測信号と逆DCT回路804からの
局部復号信号が加算器805で加算されることにより、
元の動画像信号がフィールドメモリ806を介して取り
出される。フィールドメモリ806の出力は図示しない
画像表示部に供給される。
That is, after the DCT coefficient data is two-dimensionally variable-length decoded and scan-converted, the inverse quantization circuit 8 is used as in the local decoding loop in the moving picture coding apparatus of FIG.
03 and the inverse DCT circuit 804 and locally decoded to adder 805 and field memory 8 for 4 fields.
It is input to the adaptive prediction circuit 807 via 06. On the other hand, since the motion vector is sent in the form of a difference as described later, after the variable length decoding, it is returned to the original form and supplied to the adaptive prediction circuit 807. A prediction signal is generated in the adaptive prediction circuit 807, and this prediction signal and the locally decoded signal from the inverse DCT circuit 804 are added by the adder 805,
The original moving image signal is taken out via the field memory 806. The output of the field memory 806 is supplied to an image display unit (not shown).

【0092】但し、画像の表示については復号順序と表
示順序が異なることと、Bピクチャは予測に用いないた
めフィールドメモリに蓄えておく必要がないことから、
I,Pピクチャの出力はフィールドメモリ806から出
力し、Bピクチャは復号しながらそのまま出力するとい
う切替えを行っている。
However, regarding the display of images, the decoding order and the display order are different, and since B pictures are not used for prediction, it is not necessary to store them in the field memory.
The I and P pictures are output from the field memory 806, and the B pictures are output as they are while being decoded.

【0093】次に、本実施例における動き補償と動きベ
クトル検出動作について詳細に説明する。動き補償は、
前述のようにマクロブロック単位で行われる。動きベク
トル検出は、第1の動きベクトル検出回路710での1
画素精度の通常のブロックマッチングによる動きベクト
ル検出と、この1画素精度の動きベクトルで指定される
参照画像の周囲1/2画素精度の画素位置に適応的な時
空間内挿を行った各点について、動きベクトルを探索す
ることによる第2の動きベクトル検出回路711での動
きベクトル検出である。時空間内挿の具体的な方法につ
いては、後述する。
Next, the motion compensation and motion vector detection operation in this embodiment will be described in detail. Motion compensation
As described above, it is performed in macroblock units. The motion vector detection is performed by the 1 in the first motion vector detection circuit 710.
For each point where motion vector detection by normal block matching with pixel accuracy and adaptive spatio-temporal interpolation at pixel positions with 1/2 pixel accuracy around the reference image specified by this 1-pixel accuracy motion vector , Motion vector detection in the second motion vector detection circuit 711 by searching for a motion vector. A specific method of spatiotemporal interpolation will be described later.

【0094】第1の動きベクトル検出回路710での動
きベクトル検出は、入力動画像の各フィールド画像どう
しを用いて1画素精度で各フィールド毎に全探索により
最適な動きベクトルを見つける処理である。離れたフィ
ールド間のサーチには、テレスコーピックサーチ(SM
3参照)を用いている。但し、フィールド画像ではフィ
ールド間のサーチ経路として、複数の経路が考えられ
る。本実施例では、以下の規則に従ってサーチ経路を決
定している。 1)同位相フィールド間のサーチ 同位相のフィールドのみを用いて行う。 2)逆位相フィールド間のサーチ できるだけ同位相のフィールドを用いて行う。
The motion vector detection in the first motion vector detection circuit 710 is a process of finding the optimum motion vector by a full search for each field with one pixel accuracy using each field image of the input moving image. Telescopic search (SM
3) is used. However, in the field image, a plurality of paths can be considered as the search path between the fields. In this embodiment, the search route is determined according to the following rules. 1) Search between in-phase fields This is performed using only in-phase fields. 2) Search between opposite phase fields Use fields with the same phase as much as possible.

【0095】唯1回、逆位相フィールド間のサーチを経
路に含める必要があるが、本実施例では図24にテレス
コーピックサーチの順序を示すように、始めに異なる位
相のフィールドをサーチするようにしている。例えばI
→P2 の動きベクトルを求める時は、I→Po →B1
3 →P2 の順でサーチし、I→B0 →B2 →P1 →P
2 のような経路は通らない。なお、図24で斜線を施し
て示す範囲がサーチ範囲である。このテレスコーピック
サーチは、順方向と逆方向について別々に行われる。ま
た、各隣接フィールド間のサーチ範囲は、水平±15画
素、垂直±7画素である。
Although it is necessary to include the search between the opposite phase fields only once in the path, in this embodiment, as shown in the order of the telescopic search in FIG. 24, the fields of different phases are searched first. I have to. For example I
→ When obtaining the motion vector of P 2 , I → P o → B 1
Search in the order of B 3 → P 2 and I → B 0 → B 2 → P 1 → P
Routes like 2 do not pass. The range indicated by hatching in FIG. 24 is the search range. This telescopic search is performed separately for the forward direction and the backward direction. The search range between adjacent fields is ± 15 pixels horizontally and ± 7 pixels vertically.

【0096】第2の動きベクトル検出回路711での動
きベクトル検出は、局部復号ループ内のフィールドメモ
リ708に蓄積されている画像を参照画像として行われ
る。まず、この動きベクトル検出の前処理として、第1
の動きベクトル検出回路710で得られた動きベクトル
で指定される参照画像の周囲±1画素の範囲を全探索す
ることにより、動きベクトルがリファインされる。第2
の動きベクトル検出回路711での動きベクトル検出の
メインプロセスは、リファインにより得られた動きベク
トルで指定される参照画像の周囲1/2画素精度の位置
に後述する方法で生成された複数の予測信号候補につい
て、予測誤差電力を全て評価し比較することにより、最
適な予測信号候補を選択することによって行われる。
Motion vector detection in the second motion vector detection circuit 711 is performed using the image stored in the field memory 708 in the local decoding loop as a reference image. First, as the pre-processing of this motion vector detection, the first
The motion vector is refined by fully searching the range of ± 1 pixel around the reference image designated by the motion vector obtained by the motion vector detection circuit 710 of FIG. Second
The main process of motion vector detection in the motion vector detection circuit 711 is a plurality of prediction signals generated by a method described later at a position of 1/2 pixel accuracy around the reference image specified by the motion vector obtained by the refinement. This is performed by selecting the most suitable prediction signal candidate by evaluating and comparing all prediction error powers of the candidates.

【0097】なお、色信号については動きベクトル検出
は行われず、動き補償は輝度信号で得られた動きベクト
ルを基にして行われる。
Motion vector detection is not performed for the color signal, and motion compensation is performed based on the motion vector obtained from the luminance signal.

【0098】次に、図17のフィールド間/フレーム間
適応予測回路709の処理について説明する。図23
は、フィールド間/フレーム間適応予測回路709の一
部の構成を示すブロック図である。
Next, the processing of the inter-field / inter-frame adaptive prediction circuit 709 of FIG. 17 will be described. Figure 23
9 is a block diagram showing a partial configuration of an inter-field / inter-frame adaptive prediction circuit 709. FIG.

【0099】前述したように、動き補償の第2段階は第
1の動きベクトル検出回路710で得られた動きベクト
ルで指定される参照画像の周囲1/2画素精度の範囲の
探索である。図25(b)に、その様子を示した。この
フィールド間/フレーム間適応予測は、P1 ,P2 ,B
の各ピクチャにおいて、符号化対象画像(符号化フィー
ルド)に対して例えばその前の偶奇各1フィールドのペ
ア#1,#2を参照画像(参照フィールド)として用い
て行われる。
As described above, the second stage of motion compensation is a search for a range of 1/2 pixel accuracy around the reference image designated by the motion vector obtained by the first motion vector detection circuit 710. This is shown in FIG. 25 (b). This inter-field / inter-frame adaptive prediction is based on P 1 , P 2 , B
In each of the pictures, for example, a pair # 1 and # 2 of each preceding even-odd one field is used as a reference image (reference field) for the encoding target image (encoding field).

【0100】図25(a)に示す動き補償の第1段階
で、動きベクトル検出回路710により、それぞれの参
照フィールド#1,#2での最適点(●で示す)が各々
動きベクトルV1,V2で得られたとする。図25
(b)に示す動き補償の第2段階では、この動きベクト
ルV1,V2で指定される2つの最適点の周囲の1/2
画素精度の領域の参照画像にフィールド間/フレーム間
適応予測回路709において時空間フィルタを施して複
数の予測信号候補を求め、この予測信号候補と動きベク
トル検出回路710で検出された動きベクトルとから、
動きベクトル検出回路711で最適動きベクトルの探索
を行う。この場合、予測信号候補の生成法としては、フ
ィールド補間モードとフレーム補間モードの2つのモー
ドがある。
In the first stage of motion compensation shown in FIG. 25A, the motion vector detecting circuit 710 determines the optimum points (indicated by ●) in the reference fields # 1 and # 2, respectively. Suppose that it was obtained in. Figure 25
In the second stage of the motion compensation shown in (b), 1/2 of the circumference of the two optimum points designated by the motion vectors V1 and V2.
An inter-field / inter-frame adaptive prediction circuit 709 applies a spatio-temporal filter to a reference image in a pixel-precision region to obtain a plurality of prediction signal candidates, and based on the prediction signal candidates and the motion vector detected by the motion vector detection circuit 710. ,
The motion vector detection circuit 711 searches for the optimum motion vector. In this case, there are two modes of generating a prediction signal candidate, a field interpolation mode and a frame interpolation mode.

【0101】まず、フィールド補間モードでは、予測信
号候補は時空間フィルタのうち空間フィルタのみによっ
て生成される。すなわち、図25(b)の画素A〜Cの
画素値は、 A=(O+D)/2 B=(O+D+E+F)/4 C=(O+F)2 により作成される。このフィールド補間モードでは、偶
奇各フィールドに9点ずつ、計18点の予測信号候補の
探索点が存在する。
First, in the field interpolation mode, the prediction signal candidate is generated only by the spatial filter among the spatiotemporal filters. That is, the pixel values of the pixels A to C in FIG. 25B are created by A = (O + D) / 2 B = (O + D + E + F) / 4 C = (O + F) 2. In this field interpolation mode, there are a total of 18 prediction signal candidate search points, 9 points in each of the even and odd fields.

【0102】一方、フレーム補間モードでは、予測信号
候補は各フィールドにおいて1画素精度の動き補償を行
った信号に、時空間フィルタの処理を施すことにより作
成される。例えば図25(b)の画素A〜Cの画素値
は、 A=G/2+(O+D)/4 B=G/2+(O+D+E+F)/8 C=G/2+(O+F)1/4 により作成される。この場合に、1/2画素精度の画素
位置のデータを提供する側のフィールドを基準フィール
ドと呼ぶことにする。このフレーム補間モードにおいて
も、予測信号候補は偶奇各フィールドに9点ずつある
が、画素Oの位置の予測信号は一致するので、計17点
の予測信号候補の探索点が存在することになる。
On the other hand, in the frame interpolation mode, the prediction signal candidate is created by subjecting the signal subjected to motion compensation with one pixel precision in each field to the processing of space-time filter. For example, the pixel values of the pixels A to C in FIG. 25B are created by A = G / 2 + (O + D) / 4 B = G / 2 + (O + D + E + F) / 8 C = G / 2 + (O + F) 1/4 It In this case, the field on the side which provides the data of the pixel position with the 1/2 pixel precision is referred to as a reference field. Also in this frame interpolation mode, there are nine prediction signal candidates in each of the even and odd fields, but the prediction signals at the pixel O positions match, so there are a total of 17 search points for prediction signal candidates.

【0103】動き補償の第2段階では、この両者の和3
5点の予測信号候補の探索を行って最も予測誤差が小さ
い予測信号候補を予測信号として決定する。但し、両フ
ィールドに対し指している動きベクトルの方向が大きく
ずれている場合には、フレーム補間モードは選択されな
い(詳細は後述)。
In the second stage of motion compensation, the sum of the two is 3
The prediction signal candidates of 5 points are searched and the prediction signal candidate having the smallest prediction error is determined as the prediction signal. However, if the direction of the motion vector pointing to both fields is largely deviated, the frame interpolation mode is not selected (details will be described later).

【0104】フィールド補間モードおよびフレーム補間
モードのいずれが選択されたかを示す情報と、どのフィ
ールドをフィールド補間モードに使用する参照フィール
ドまたはフレーム補間モードにおける基準フィールドと
して選んだかを示す情報は、1ビットのフラグにより伝
送される。なお、P0 及びP2 の直前のフィールドによ
る予測については、フィールド補間モードを単一フィー
ルドに適応したモードのみによって予測される。この場
合、モード選択のフラグは伝送されない。
Information indicating which of the field interpolation mode and the frame interpolation mode is selected and information indicating which field is selected as the reference field used in the field interpolation mode or the reference field in the frame interpolation mode are 1-bit information. It is transmitted by a flag. Regarding the prediction by the field immediately before P 0 and P 2, the prediction is performed only by the mode in which the field interpolation mode is applied to a single field. In this case, the mode selection flag is not transmitted.

【0105】以上はPピクチャについての説明であった
が、Bピクチャの場合もほぼ同様である。但し、Bピク
チャの場合、フィールド補間モードの探索フィールド及
びフレーム補間モードの基準フィールドとしては、符号
化フィールドと同位相のフィールドのみを選択するよう
にしている。勿論、この場合にいずれのフィールドを選
択したかのフラグは伝送されない。
The above description is for the P picture, but the same is true for the B picture. However, in the case of a B picture, as the search field in the field interpolation mode and the reference field in the frame interpolation mode, only fields having the same phase as the encoded field are selected. Of course, in this case, the flag indicating which field is selected is not transmitted.

【0106】次に、図23により上述の原理が実際にハ
ードウェア上でどのように実現されるかについて説明す
る。キャッシュメモリ901a,901bおよび902
a,902bには、図17の局部復号ループの4フィー
ルド分のフィールドメモリ708からの画像信号のう
ち、第2の動きベクトル検出の前処理で得られた動きベ
クトルで指示された部分が記憶される。切替回路900
は、第2の動きベクトル検出回路711からの制御信号
に従ってキャッシュメモリ901a,901bの出力を
時間フィルタ903と空間フィルタ905に振り分け、
またキャッシュメモリ902a,902bの出力を時間
フィルタ904と空間フィルタ906に振り分ける。
Next, with reference to FIG. 23, how the above-mentioned principle is actually realized on hardware will be described. Cache memories 901a, 901b and 902
In a and 902b, of the image signals from the field memory 708 for four fields of the local decoding loop of FIG. 17, the portion designated by the motion vector obtained by the preprocessing of the second motion vector detection is stored. It Switching circuit 900
Distributes the outputs of the cache memories 901a and 901b to the temporal filter 903 and the spatial filter 905 according to the control signal from the second motion vector detection circuit 711,
The outputs of the cache memories 902a and 902b are distributed to the temporal filter 904 and the spatial filter 906.

【0107】セレクタ907は第2の動きベクトル検出
回路711からのフィールド補間モードおよびフレーム
補間モードのいずれを選択するかを示す制御信号に従っ
て、空間フィルタ905のみを通過した信号と、空間フ
ィルタ905および時間フィルタ903の両方を通過し
た信号のいずれかを選択する。セレクタ908も同様で
ある。例えば、切替回路900から時間フィルタ903
に図25(b)の画素Gの信号が入力され、空間フィル
タ905から図25(b)の画素Bの信号が出力された
とすると、時間フィルタ903の出力には画素Gと画素
Bの信号を平均した信号、つまり時空間フィルタ処理を
施した信号が得られる。従って、フィールド補間モード
では空間フィルタ905の出力を選択し、フレーム補間
モードでは時間フィルタ903の出力を選択すればよ
い。
In accordance with a control signal from the second motion vector detection circuit 711 indicating which of the field interpolation mode and the frame interpolation mode is to be selected, the selector 907 receives the signal passing through only the spatial filter 905, the spatial filter 905 and the time filter. Either of the signals that have passed through both filters 903 is selected. The same applies to the selector 908. For example, from the switching circuit 900 to the temporal filter 903.
If the signal of the pixel G of FIG. 25 (b) is input to the pixel and the signal of the pixel B of FIG. 25 (b) is output from the spatial filter 905, the signals of the pixel G and the pixel B are output to the output of the temporal filter 903. An averaged signal, that is, a signal subjected to spatiotemporal filtering is obtained. Therefore, the output of the spatial filter 905 may be selected in the field interpolation mode, and the output of the temporal filter 903 may be selected in the frame interpolation mode.

【0108】セレクタ907,908の出力はセレクタ
911に直接入力される一方、加算器909で加算され
除算器910で1/2にされた後セレクタ911に入力
される。セレクタ911は、これら3つの入力、すなわ
ちセレクタ907からの参照フィールド#1,#2を使
って予測した信号と、セレクタ908からの参照フィー
ルド#3,#4を使って予測した信号および除算器91
0からの参照フィールド#1〜#4を使って予測した信
号を選択して、予測信号候補として第2の動きベクトル
検出回路711へ出力する。動きベクトル検出回路71
1では、これらの予測信号候補35個の中から、前述の
ようにして最も予測誤差が小さい予測信号候補を予測信
号として決定し、その旨を示す情報をへ返送する。これ
によりフィールド間/フレーム間適応予測回路709
は、動きベクトル検出回路711により指示された予測
信号を減算器および加算器707へ出力する。
The outputs of the selectors 907 and 908 are directly input to the selector 911, added by the adder 909 and halved by the divider 910, and then input to the selector 911. The selector 911 uses these three inputs, that is, the signal predicted using the reference fields # 1 and # 2 from the selector 907, the signal predicted using the reference fields # 3 and # 4 from the selector 908, and the divider 91.
Signals predicted using reference fields # 1 to # 4 starting from 0 are selected and output to the second motion vector detection circuit 711 as predicted signal candidates. Motion vector detection circuit 71
In No. 1, the prediction signal candidate having the smallest prediction error is determined as the prediction signal from the 35 prediction signal candidates as described above, and the information indicating that is returned to. As a result, the inter-field / inter-frame adaptive prediction circuit 709
Outputs the prediction signal instructed by the motion vector detection circuit 711 to the subtractor and adder 707.

【0109】次に、第2の動きベクトル検出回路711
からの動きベクトルをどのような形態で符号化して送る
かについて説明する。まず、フィールド補間モードでの
動きベクトルまたはフレーム補間モードでの基準フィー
ルド側の動きベクトルを基準ベクトルとして可変長符号
化回路713で符号化してマルチプレクサ714へ送
る。この動きベクトル(基準ベクトル)は1/2画素精
度である。フレーム補間モードが選ばれた場合には、さ
らに基準フィールドでない方のフィールドの動きベクト
ルと基準フィールドでの動きベクトル(基準ベクトル)
を当該フィールドに換算したものとの差分を同様に符号
化して送る。すなわち、基準フィールドでの動きベクト
ルの延長線と、基準フィールドでない方のフィールドの
交わる点に一番近い点と、該動きベクトルとの差分を1
画素精度で送るものとする。この2つの動きベクトルの
方向が近い場合以外は、フレーム補間モードは有効でな
いと考えて、この差分の値が±1の範囲を越える場合に
はフレーム補間モードは選択しないものとする。
Next, the second motion vector detection circuit 711.
How to encode and send the motion vector from the above will be described. First, the motion vector in the field interpolation mode or the motion vector on the reference field side in the frame interpolation mode is coded by the variable length coding circuit 713 as a reference vector and sent to the multiplexer 714. This motion vector (reference vector) has 1/2 pixel precision. When the frame interpolation mode is selected, the motion vector of the field other than the reference field and the motion vector of the reference field (reference vector)
Is similarly encoded and transmitted. That is, the difference between the extension line of the motion vector in the reference field, the closest point to the intersection of the fields other than the reference field, and the motion vector is 1
It shall be sent with pixel accuracy. It is considered that the frame interpolation mode is not effective except when the directions of these two motion vectors are close to each other, and the frame interpolation mode is not selected when the value of the difference exceeds ± 1.

【0110】図26は、この動きベクトルの送り方の具
体例を示したもので、参照フィールド#1の1/2画素
精度の動きベクトル(図中上側の矢印で示す)と参照フ
ィールド#2の交わる点△に一番近い点●と、参照フィ
ールド#2の1画素精度の動きベクトル(図中下側の矢
印で示す)との差分(図中縦方向に延びた矢印)を1画
素精度で送る。図26の例では、差分は−1である。こ
のようにすることによって、り予測の性能を落とすこと
なく、動きベクトルの情報量を節約することができる。
FIG. 26 shows a specific example of the method of sending the motion vector. The motion vector of 1/2 pixel precision of the reference field # 1 (indicated by the arrow on the upper side in the figure) and the reference field # 2. The difference (the arrow extending in the vertical direction in the figure) between the point ● closest to the intersecting point Δ and the 1-pixel precision motion vector of the reference field # 2 (indicated by the lower arrow in the figure) is determined with the 1-pixel accuracy. send. In the example of FIG. 26, the difference is -1. By doing so, it is possible to save the information amount of the motion vector without degrading the performance of the re-prediction.

【0111】次に、色信号の動き補償について説明す
る。
Next, motion compensation of color signals will be described.

【0112】図19に示したように、一つのマクロブロ
ック内で輝度信号Yと色信号Cr,Cbは垂直方向には
同じ画素数であるが、水平方向では色信号の画素数が半
分になっている。従って、輝度信号で得られた動きベク
トルを色信号に適用する際には、動きベクトルの水平方
向の成分を1/2にする。1/2の除算は、整数以下を
0の方向に丸めるようにして行われる。これはフィール
ド補間モードでもフレーム補間モードでも同じである。
As shown in FIG. 19, the luminance signal Y and the color signals Cr and Cb have the same number of pixels in the vertical direction in one macroblock, but the number of pixels of the color signal becomes half in the horizontal direction. ing. Therefore, when the motion vector obtained from the luminance signal is applied to the color signal, the horizontal component of the motion vector is halved. The division by ½ is performed by rounding an integer or less in the direction of 0. This is the same in the field interpolation mode and the frame interpolation mode.

【0113】図27(a)(b)に、フィールド補間モ
ードおよびフレーム補間モードにおいて輝度信号の動き
ベクトルから色信号の動きベクトルを求める場合の具体
例を示す。図27において点線で示された丸印は、色信
号が存在しない画素位置である。第1段階で得られた画
素位置を中央の丸印、第2段階で得られた点を×とす
る。また、この例ではいずれの場合も原点の水平方向座
標は、中央の丸の点の水平方向座標よりも大きいものと
する。図27(a)のフィールド補間モードの場合、×
の位置に輝度信号の動きベクトルが得られると、色信号
の1/4画素精度分はA方向に丸められて補間画素△が
作られる。この補間画素△は、 △=1/4(A+B+C+D) により作成される。図27(b)のフレーム補間モード
での参照フィールド#1についても、同様に △=1/4(E+F+G+H) により参照フィールド#1内の補間画素△が作られる。
27 (a) and 27 (b) show specific examples in the case of obtaining the motion vector of the color signal from the motion vector of the luminance signal in the field interpolation mode and the frame interpolation mode. Circles shown by dotted lines in FIG. 27 are pixel positions where no color signal exists. The pixel position obtained in the first step is indicated by a circle in the center, and the point obtained in the second step is indicated by x. In this example, the horizontal coordinate of the origin is larger than the horizontal coordinate of the circle point in the center in any case. In the case of the field interpolation mode of FIG. 27 (a), ×
When the motion vector of the luminance signal is obtained at the position, the 1/4 pixel precision of the color signal is rounded in the A direction to form the interpolated pixel Δ. This interpolated pixel Δ is created by Δ = 1/4 (A + B + C + D). Also for the reference field # 1 in the frame interpolation mode of FIG. 27B, the interpolation pixel Δ in the reference field # 1 is similarly created by Δ = 1/4 (E + F + G + H).

【0114】一、方参照フィールド#2での補間画素は
色信号の1/2画素精度分がA方向に丸められて、Iの
位置の画素が使用される。結局、図27の例の場合、補
間画素△の値は I×1/2+(E+F+G+H)×1/8 により得られることとなる。
As for the interpolated pixel in the first reference field # 2, the pixel at the I position is used by rounding the 1/2 pixel precision of the color signal in the A direction. After all, in the case of the example of FIG. 27, the value of the interpolation pixel Δ is obtained by I × 1/2 + (E + F + G + H) × 1/8.

【0115】[0115]

【発明の効果】以上説明したように、本発明によれば参
照画像に対する動き検出を行うことなく、インターレー
ス画像に対する精度の良い動き補償予測符号化を行うこ
とが可能となる。従って、動き検出回路が不要となるこ
とで、回路規模が低減されるばかりでなく、例えばVT
Rの特殊再生に対応するために動き検出ができないよう
な符号化シーケンスを用いる場合にも、動き補償予測符
号化を適用することが可能となる。
As described above, according to the present invention, it is possible to perform highly accurate motion compensation predictive coding on an interlaced image without performing motion detection on a reference image. Therefore, not requiring a motion detection circuit not only reduces the circuit scale, but also reduces, for example, VT.
It is possible to apply motion compensation predictive coding even when using a coded sequence in which motion detection cannot be performed in order to support R special reproduction.

【0116】また、本発明によれば動きベクトル探索に
要する演算量を低減しつつ、正確な動き補償を行い、高
い符号化効率を得ることができる。
Further, according to the present invention, it is possible to perform accurate motion compensation and obtain high coding efficiency while reducing the amount of calculation required for motion vector search.

【0117】さらに、本発明によれば多くの参照フィー
ルドを効果的に使ってインタレース画像に適した効率的
て精度の高い予測を行うことが可能であり、かつこれに
伴う動きベクトル情報の増加を最小限に抑えることがで
きる。
Further, according to the present invention, it is possible to effectively use a large number of reference fields to perform efficient and highly accurate prediction suitable for interlaced images, and increase motion vector information accompanying this. Can be minimized.

【図面の簡単な説明】[Brief description of drawings]

【図1】 第1の実施例を示すブロック図FIG. 1 is a block diagram showing a first embodiment.

【図2】 従来技術における各画面の画像信号の関係を
示す図
FIG. 2 is a diagram showing a relationship between image signals of respective screens in the related art.

【図3】 隣接する3フィールドが既に符号化されてい
ない例を示す図
FIG. 3 is a diagram showing an example in which three adjacent fields are not already coded.

【図4】 第1の実施例における各画面の画像信号の関
係を示す図
FIG. 4 is a diagram showing a relationship between image signals of respective screens in the first embodiment.

【図5】 第2の実施例を示すブロック図FIG. 5 is a block diagram showing a second embodiment.

【図6】 第2の実施例における各画面の画像信号の関
係を示す図
FIG. 6 is a diagram showing a relationship between image signals of respective screens in the second embodiment.

【図7】 第3の実施例を示すブロック図FIG. 7 is a block diagram showing a third embodiment.

【図8】 第4の実施例を示すブロック図FIG. 8 is a block diagram showing a fourth embodiment.

【図9】 第5の実施例を示すブロック図FIG. 9 is a block diagram showing a fifth embodiment.

【図10】 動画像復号装置のブロック図FIG. 10 is a block diagram of a video decoding device.

【図11】 本発明による動きベクトル探索例を示す図FIG. 11 is a diagram showing an example of motion vector search according to the present invention.

【図12】 本発明による動きベクトル探索例を示す図FIG. 12 is a diagram showing an example of motion vector search according to the present invention.

【図13】 本発明による動きベクトル探索例を示す図FIG. 13 is a diagram showing an example of motion vector search according to the present invention.

【図14】 本発明による動きベクトル探索例を示す図FIG. 14 is a diagram showing an example of motion vector search according to the present invention.

【図15】 本発明による動きベクトル探索例を示す図FIG. 15 is a diagram showing an example of motion vector search according to the present invention.

【図16】 本発明による動きベクトル探索例を示す図FIG. 16 is a diagram showing an example of motion vector search according to the present invention.

【図17】 本発明の第6の実施例に係る動画像符号化
装置のブロック図
FIG. 17 is a block diagram of a moving picture coding apparatus according to a sixth embodiment of the present invention.

【図18】 同実施例における入力画像フォーマットを
示す図
FIG. 18 is a diagram showing an input image format in the embodiment.

【図19】 同実施例における符号化単位の階層構造を
示す図
FIG. 19 is a diagram showing a hierarchical structure of coding units in the embodiment.

【図20】 同実施例におけるグループオブピクチャの
構成と符号化順序を示す図
FIG. 20 is a diagram showing the structure of a group of pictures and the coding order in the embodiment.

【図21】 同実施例における各ピクチャの予測法を説
明するための図
FIG. 21 is a diagram for explaining a prediction method for each picture in the embodiment.

【図22】 図17の動画像符号化装置に対応する動画
像復号装置のブロック図
22 is a block diagram of a moving picture decoding apparatus corresponding to the moving picture coding apparatus of FIG.

【図23】 図17におけるフィールド間/フレーム間
適応予測回路のブロック図
23 is a block diagram of the inter-field / inter-frame adaptive prediction circuit in FIG.

【図24】 同実施例におけるテレスコーピックサーチ
の順序を示す図
FIG. 24 is a diagram showing the order of telescopic search in the embodiment.

【図25】 同実施例におけるフィールド間/フレーム
間適応予測処理を説明するための図
FIG. 25 is a diagram for explaining an inter-field / inter-frame adaptive prediction process in the embodiment.

【図26】 同実施例における動きベクトルの送り方の
一例を示す図
FIG. 26 is a diagram showing an example of how to send a motion vector in the embodiment.

【図27】 同実施例における動きベクトルから色信号
の動きベクトルを求める具体例を示す図
FIG. 27 is a diagram showing a specific example of obtaining a motion vector of a color signal from a motion vector in the embodiment.

【符号の説明】 14…符号化部 17…動きベクト
ル探索回路 19…補間値発生回路 20…相関演算回路 21…動きベクト
ル候補発生回路 22…最適ベクトル判定回路 200,600…
動きベクトル検出回路 221,223,224,621…画像データ読出制御
回路 242,351,352,353…評価回路 300…局部符号化回路 400…局部復号
回路 101…フィールドメモリ 103…DCT回
路 104…量子化回路 105…逆量子化
回路 106…逆DCT回路 108…フィール
ドメモリ 109…適応予測回路 110…動きベク
トル検出回路 111…動きベクトル検出回路 112…可変長符
号化回路 113…可変長符号化回路 114…マルチプ
レクサ 115…バッファ 116…アクティ
ビティ計算回路 117…符号制御部
[Description of Codes] 14 ... Encoding unit 17 ... Motion vector search circuit 19 ... Interpolation value generation circuit 20 ... Correlation calculation circuit 21 ... Motion vector candidate generation circuit 22 ... Optimal vector determination circuit 200, 600 ...
Motion vector detection circuit 221, 223, 224, 621 ... Image data read control circuit 242, 351, 352, 353 ... Evaluation circuit 300 ... Local encoding circuit 400 ... Local decoding circuit 101 ... Field memory 103 ... DCT circuit 104 ... Quantization Circuit 105 ... Inverse quantization circuit 106 ... Inverse DCT circuit 108 ... Field memory 109 ... Adaptive prediction circuit 110 ... Motion vector detection circuit 111 ... Motion vector detection circuit 112 ... Variable length coding circuit 113 ... Variable length coding circuit 114 ... Multiplexer 115 ... Buffer 116 ... Activity calculation circuit 117 ... Code control unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 上野 秀幸 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝総合研究所内 (72)発明者 山口 昇 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝総合研究所内 (72)発明者 山影 朋夫 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝総合研究所内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Hideyuki Ueno 1 Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Inside the Toshiba Research Institute Co., Ltd. (72) Inventor Noboru Yamaguchi Komukai-shi Toshiba, Kawasaki-shi, Kanagawa No. 1 in Toshiba Research Institute, Inc. (72) Inventor Tomio Yamakage No. 1 Komukai Toshiba-cho, Saiwai-ku, Kawasaki City, Kanagawa Incorporated Toshiba Research Institute

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】符号化済み画像および該符号化済み画像を
用いて生成される画像の中から参照画像を指定するため
の複数の動きベクトル候補を選択的に発生する動きベク
トル候補発生手段と、 複数画面の符号化済み画像の画素値を用いて、前記動き
ベクトル候補に応じた生成方法によりそれらの画像間ま
たは画面内画素間の画素間の補間値を発生する補間値発
生手段と、 前記動きベクトル候補で指定される参照画像と符号化対
象画像との相関が最大となる最適動きベクトルを前記動
きベクトル候補から探索して出力する動きベクトル探索
手段と、 前記符号化対象画像を前記最適動きベクトルを用いて符
号化する手段とを具備することを特徴とする動画像符号
化装置。
1. A motion vector candidate generating means for selectively generating a plurality of motion vector candidates for designating a reference image from an encoded image and an image generated using the encoded image. Interpolation value generating means for generating an interpolation value between pixels between the images or pixels within the screen by a generation method according to the motion vector candidate using pixel values of encoded images of a plurality of screens; Motion vector search means for searching and outputting an optimum motion vector having the maximum correlation between a reference image specified by a vector candidate and an encoding target image from the motion vector candidate, and the encoding target image being the optimum motion vector And a means for encoding by using the moving picture encoding apparatus.
【請求項2】符号化対象画像に時間的に近い第1の符号
化済み画像を動き補償の参照画像として、該参照画像の
所定の範囲について符号化対象画像またはその部分画像
との相関が最大となる参照画像またはその部分画像を指
定する動きベクトルを探索する第1の動きベクトル探索
手段と、 前記符号化対象画像に前記第1の符号化済み画像よりも
時間的に遠い第2の符号化済み画像を動き補償の参照画
像として、前記第1の動きベクトル探索手段よりも狭い
範囲または面積にわたり動きベクトルを探索する第2の
動きベクトル探索手段と、 これら第1および第2の動きベクトル探索手段により探
索された動きベクトルの中から、符号化対象画像または
その部分画像との相関が最大となる参照画像またはその
部分画像を指定する最適動きベクトルを選択し、この最
適動きベクトルとその最適動きベクトルで指定される画
像または部分画像と符号化対象画像またはその部分画像
との差分を符号化する手段とを具備することを特徴とす
る動画像符号化装置。
2. A first coded image temporally close to the image to be coded is used as a reference image for motion compensation, and a predetermined range of the reference image has a maximum correlation with the image to be coded or a partial image thereof. First motion vector searching means for searching for a motion vector designating a reference image or a partial image thereof, and second encoding which is farther in time from the first encoded image to the encoding target image. Second motion vector searching means for searching a motion vector over a narrower range or area than the first motion vector searching means, using the completed image as a reference image for motion compensation, and these first and second motion vector searching means The optimum motion vector that specifies the reference image or its partial image that has the maximum correlation with the target image or its partial image from the motion vectors searched by And a means for encoding the difference between the optimum motion vector and the image or partial image designated by the optimum motion vector and the encoding target image or the partial image thereof. Device.
【請求項3】フィールド単位で入力される入力画像間の
動きベクトルを検出する第1の動きベクトル検出手段
と、 この第1の動きベクトル検出手段により検出された動き
ベクトルで指定される領域の参照画像に時空間フィルタ
処理を施して入力画像についての複数の予測信号候補を
生成する予測信号候補生成手段と、 この手段により生成された複数の予測信号候補を比較し
て予測信号を決定する予測信号決定手段と、 前記予測信号候補と前記第1の動きベクトル検出手段に
より検出された動きベクトルから最適動きベクトルを検
出する第2の動きベクトル検出手段と、 この手段により検出された最適動きベクトルに関する情
報と前記予測信号の予測誤差を符号化する符号化手段と
を具備することを特徴とする動画像符号化装置。
3. A first motion vector detecting means for detecting a motion vector between input images input in field units, and a reference to an area designated by the motion vector detected by the first motion vector detecting means. Prediction signal candidate generating means for generating a plurality of prediction signal candidates for an input image by performing spatio-temporal filtering on an image, and a prediction signal for determining a prediction signal by comparing a plurality of prediction signal candidates generated by this means Determining means, second motion vector detecting means for detecting an optimum motion vector from the predicted signal candidate and the motion vector detected by the first motion vector detecting means, and information on the optimum motion vector detected by this means And a coding means for coding a prediction error of the prediction signal.
【請求項4】前記予測信号候補生成手段は、予測に用い
る過去の1フィールドの複数画素に空間フィルタ処理を
施した出力と、この空間フィルタ処理を施した出力の1
画素以下の精度の位置に補間した補間画素と予測に用い
る過去の他のフィールドの画素との間で時間フィルタを
施した出力を前記複数の予測信号候補として生成し、前
記符号化手段は空間フィルタ処理が施されるフィールド
に対する動きベクトルは1画素以下の精度で符号化し、
それ以外のフィールドに対する動きベクトルは該1画素
以下の精度で符号化する動きベクトルを当該フィールド
における動きベクトルに換算したものと当該フィールド
における動きベクトルとの差分として符号化することを
特徴とする請求項3記載の動画像符号化装置。
4. The prediction signal candidate generating means outputs one of a plurality of pixels in one field in the past used for prediction, which has been subjected to spatial filter processing, and one output which has been subjected to this spatial filter processing.
An output obtained by performing temporal filtering between an interpolated pixel interpolated at a position of accuracy equal to or less than a pixel and a pixel of another past field used for prediction is generated as the plurality of prediction signal candidates, and the encoding means is a spatial filter. The motion vector for the field to be processed is encoded with an accuracy of 1 pixel or less,
The motion vector for other fields is coded as a difference between a motion vector in the field and a motion vector encoded with the precision of 1 pixel or less and a motion vector in the field. 3. The moving picture coding device according to 3.
JP29831691A 1991-05-31 1991-10-17 Moving picture coding apparatus and moving picture coding method Expired - Lifetime JP2755851B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP29831691A JP2755851B2 (en) 1991-05-31 1991-10-17 Moving picture coding apparatus and moving picture coding method
US07/890,705 US5317397A (en) 1991-05-31 1992-05-29 Predictive coding using spatial-temporal filtering and plural motion vectors
US08/156,709 US5424779A (en) 1991-05-31 1993-11-24 Video coding apparatus
US08/197,862 US5467136A (en) 1991-05-31 1994-02-17 Video decoder for determining a motion vector from a scaled vector and a difference vector
US08/295,421 US5541661A (en) 1991-05-31 1994-08-25 Video coding apparatus which forms an optimum prediction signal which is designated by a set of motion vectors of separate reference pictures
US08/430,366 US5647049A (en) 1991-05-31 1995-04-28 Video recording/reproducing apparatus which uses a differential motion vector determined using two other motion vectors
US08/626,969 US5742344A (en) 1991-05-31 1996-04-03 Motion compensated video decoding method and system for decoding a coded video signal using spatial and temporal filtering
US08/626,922 US5754231A (en) 1991-05-31 1996-04-03 Bit allocation for motion video compression
US09/054,403 US6016162A (en) 1991-05-31 1998-04-03 Video coding apparatus
US09/095,712 US5986713A (en) 1991-05-31 1998-06-11 Video coding apparatus using inter-field prediction
US09/095,722 US6005627A (en) 1991-05-31 1998-06-11 Video coding apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP13001291 1991-05-31
JP3-130012 1991-05-31
JP29831691A JP2755851B2 (en) 1991-05-31 1991-10-17 Moving picture coding apparatus and moving picture coding method

Related Child Applications (4)

Application Number Title Priority Date Filing Date
JP7122108A Division JP2758378B2 (en) 1991-05-31 1995-05-22 Moving picture decoding apparatus and moving picture decoding method
JP23815696A Division JP2883585B2 (en) 1991-05-31 1996-09-09 Moving picture coding apparatus and moving picture coding method
JP10342397A Division JP3415390B2 (en) 1991-05-31 1997-04-21 Moving picture coding apparatus and moving picture coding method
JP10342497A Division JP2883592B2 (en) 1991-05-31 1997-04-21 Moving picture decoding apparatus and moving picture decoding method

Publications (2)

Publication Number Publication Date
JPH0541861A true JPH0541861A (en) 1993-02-19
JP2755851B2 JP2755851B2 (en) 1998-05-25

Family

ID=26465243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29831691A Expired - Lifetime JP2755851B2 (en) 1991-05-31 1991-10-17 Moving picture coding apparatus and moving picture coding method

Country Status (1)

Country Link
JP (1) JP2755851B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0630395A (en) * 1992-07-09 1994-02-04 Matsushita Electric Ind Co Ltd Method for predicting motion compensation
JPH07185088A (en) * 1993-12-28 1995-07-25 Sophia Co Ltd Image display device for game machine
KR100291493B1 (en) * 1993-03-12 2001-09-17 크리트먼 어윈 엠 Moving vector processing device for video signal compression
WO2003034744A1 (en) * 2001-10-17 2003-04-24 Matsushita Electric Industrial Co., Ltd. Miving picture encoding method and moving picture decoding method
WO2003063502A1 (en) * 2002-01-18 2003-07-31 Kabushiki Kaisha Toshiba Moving picture coding method and apparatus and decoding method and apparatus
WO2003077567A1 (en) * 2002-03-14 2003-09-18 Matsushita Electric Industrial Co., Ltd. Motion vector detection method
WO2007040197A1 (en) * 2005-10-05 2007-04-12 Matsushita Electric Industrial Co., Ltd. Reference image selection method and device
US7242716B2 (en) 2002-04-10 2007-07-10 Kabushiki Kaisha Toshiba Video encoding method and apparatus and video decoding method and apparatus
US7385574B1 (en) 1995-12-29 2008-06-10 Cree, Inc. True color flat panel display module
JP2008287281A (en) * 1995-12-29 2008-11-27 Cree Inc Pixel of electronic display

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03226193A (en) * 1990-01-31 1991-10-07 Sony Corp Video signal transmitter

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03226193A (en) * 1990-01-31 1991-10-07 Sony Corp Video signal transmitter

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0630395A (en) * 1992-07-09 1994-02-04 Matsushita Electric Ind Co Ltd Method for predicting motion compensation
KR100291493B1 (en) * 1993-03-12 2001-09-17 크리트먼 어윈 엠 Moving vector processing device for video signal compression
JPH07185088A (en) * 1993-12-28 1995-07-25 Sophia Co Ltd Image display device for game machine
US7385574B1 (en) 1995-12-29 2008-06-10 Cree, Inc. True color flat panel display module
US8766885B2 (en) 1995-12-29 2014-07-01 Cree, Inc. True color flat panel display module
JP2008287281A (en) * 1995-12-29 2008-11-27 Cree Inc Pixel of electronic display
US8064519B2 (en) 2001-10-17 2011-11-22 Panasonic Corporation Moving picture coding method and moving picture decoding method
US8391361B2 (en) 2001-10-17 2013-03-05 Panasonic Corporation Moving picture coding method and moving picture decoding method
US10582216B2 (en) 2001-10-17 2020-03-03 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method
US10257537B2 (en) 2001-10-17 2019-04-09 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method
US9924195B2 (en) 2001-10-17 2018-03-20 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method
US7526026B2 (en) 2001-10-17 2009-04-28 Panasonic Corporation Moving picture coding method and moving picture decoding method
US7580459B2 (en) 2001-10-17 2009-08-25 Panasonic Corporation Moving picture coding method and moving picture decoding method
US7693217B2 (en) 2001-10-17 2010-04-06 Panasonic Corporation Moving picture coding method and moving picture decoding method
US9900616B2 (en) 2001-10-17 2018-02-20 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method
US8170103B2 (en) 2001-10-17 2012-05-01 Panasonic Corporation Moving picture coding method and moving picture decoding method
US8179966B2 (en) 2001-10-17 2012-05-15 Panasonic Corporation Moving picture coding method and moving picture decoding method
US7209520B2 (en) 2001-10-17 2007-04-24 Matsushita Electric Industrial Co., Ltd. Moving picture encoding method and moving picture decoding method
US9197894B2 (en) 2001-10-17 2015-11-24 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method
US9191669B2 (en) 2001-10-17 2015-11-17 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method
WO2003034744A1 (en) * 2001-10-17 2003-04-24 Matsushita Electric Industrial Co., Ltd. Miving picture encoding method and moving picture decoding method
US8831100B2 (en) 2001-10-17 2014-09-09 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method
WO2003063502A1 (en) * 2002-01-18 2003-07-31 Kabushiki Kaisha Toshiba Moving picture coding method and apparatus and decoding method and apparatus
WO2003077567A1 (en) * 2002-03-14 2003-09-18 Matsushita Electric Industrial Co., Ltd. Motion vector detection method
US7242716B2 (en) 2002-04-10 2007-07-10 Kabushiki Kaisha Toshiba Video encoding method and apparatus and video decoding method and apparatus
US8687694B2 (en) 2005-10-05 2014-04-01 Panasonic Corporation Reference picture selection method and apparatus
JP5422124B2 (en) * 2005-10-05 2014-02-19 パナソニック株式会社 Reference picture selection method, image encoding method, program, image encoding device, and semiconductor device
WO2007040197A1 (en) * 2005-10-05 2007-04-12 Matsushita Electric Industrial Co., Ltd. Reference image selection method and device

Also Published As

Publication number Publication date
JP2755851B2 (en) 1998-05-25

Similar Documents

Publication Publication Date Title
US5731850A (en) Hybrid hierarchial/full-search MPEG encoder motion estimation
US5754231A (en) Bit allocation for motion video compression
US5467136A (en) Video decoder for determining a motion vector from a scaled vector and a difference vector
US5539466A (en) Efficient coding apparatus for picture signal and decoding apparatus therefor
US7426308B2 (en) Intraframe and interframe interlace coding and decoding
US6108039A (en) Low bandwidth, two-candidate motion estimation for interlaced video
KR100233764B1 (en) Video signal coder
JP3778721B2 (en) Video coding method and apparatus
US7822123B2 (en) Efficient repeat padding for hybrid video sequence with arbitrary video resolution
KR100345968B1 (en) High efficient coder for picture signal, decoder and recording medium
JP3331351B2 (en) Image data encoding method and apparatus
EP1047270B1 (en) Efficient coding apparatus for picture signal
US7839933B2 (en) Adaptive vertical macroblock alignment for mixed frame video sequences
JP2000244927A (en) Moving picture transforming device
JPH05268594A (en) Motion detector for moving picture
JP2885322B2 (en) Inter-field prediction encoding device and decoding device
WO2012098845A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
US6005627A (en) Video coding apparatus
JP2755851B2 (en) Moving picture coding apparatus and moving picture coding method
JPH0759096A (en) Video encoder and decoder
US5986713A (en) Video coding apparatus using inter-field prediction
JP2883592B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP2883585B2 (en) Moving picture coding apparatus and moving picture coding method
JP2758378B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3415390B2 (en) Moving picture coding apparatus and moving picture coding method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080306

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090306

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100306

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100306

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110306

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 14

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 14