JP2868445B2 - Moving image compression method and apparatus - Google Patents

Moving image compression method and apparatus

Info

Publication number
JP2868445B2
JP2868445B2 JP28548295A JP28548295A JP2868445B2 JP 2868445 B2 JP2868445 B2 JP 2868445B2 JP 28548295 A JP28548295 A JP 28548295A JP 28548295 A JP28548295 A JP 28548295A JP 2868445 B2 JP2868445 B2 JP 2868445B2
Authority
JP
Japan
Prior art keywords
motion vector
image
block
field
current image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28548295A
Other languages
Japanese (ja)
Other versions
JPH09130808A (en
Inventor
孝之 小林
俊治 中富
律彦 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK
Original Assignee
GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK filed Critical GURAFUITSUKUSU KOMYUNIKEESHON RABORATORIIZU KK
Priority to JP28548295A priority Critical patent/JP2868445B2/en
Publication of JPH09130808A publication Critical patent/JPH09130808A/en
Application granted granted Critical
Publication of JP2868445B2 publication Critical patent/JP2868445B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル動画像を
圧縮する動画像圧縮方法および装置に係り、特に、デジ
タル動画像を構成する各画像を複数種類の予測画像に基
づいて符号化する動画像圧縮方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture compression method and apparatus for compressing a digital moving picture, and more particularly to a moving picture encoding each picture constituting a digital moving picture based on a plurality of types of predicted pictures. The present invention relates to a compression method and apparatus.

【0002】[0002]

【従来の技術】文字、図形、音声、映像などの異なる情
報をデジタルデータで表現し、これらのメディアを統合
して一元的に取り扱うマルチメディアが近年注目を浴び
ている。このマルチメディアに対応するオーディオ・ビ
デオ符号化方式として、ISO/IECのMPEG(Mo
ving Picture Experts Group)1およびMPEG2がそ
れぞれ国際標準として認められるようになった。
2. Description of the Related Art In recent years, multimedia which expresses different information such as characters, figures, voices, and images by digital data, and integrates these media and handles them in a unified manner has attracted attention in recent years. As an audio / video encoding system corresponding to this multimedia, ISO / IEC MPEG (Mo
(ving Picture Experts Group) 1 and MPEG2 have each been recognized as international standards.

【0003】これらの符号化方式では、まず、動画像を
構成する各画面(以下、ピクチャともいう)に対し、画
面を構成する画素に含まれる輝度情報および色差情報が
所定の標本化周波数に基づいて水平走査方向および垂直
走査方向に抽出され、いわゆる4:2:0、4:2:2
または4:4:4の画像フォーマットに変換される。次
いで、変換された各画面が、例えば、16画素×16画
素の矩形ブロック(以下、マクロブロックという)に分
割される。次いで、これらのマクロブロック単位に、参
照画像のサーチウィンドウから現画像のマクロブロック
に類似した同サイズの類似ブロックが探索され、探索さ
れた類似ブロックとの空間的な距離および方位を表す動
きベクトル並びに探索された類似ブロックとの差分情報
が算出されて動き補償が行なわれる。次いで、これらの
差分情報がDCT変換(DiscreteCosine Transform ;
離散コサイン変換)、量子化および可変長符号化により
圧縮される。このように差分情報を圧縮すると、原画像
そのものを圧縮するよりも、効率良く圧縮することがで
きる。
In these encoding methods, first, for each screen (hereinafter, also referred to as a picture) constituting a moving image, luminance information and chrominance information included in pixels constituting the screen are based on a predetermined sampling frequency. So-called 4: 2: 0, 4: 2: 2
Alternatively, the image is converted into a 4: 4: 4 image format. Next, each converted screen is divided into, for example, rectangular blocks of 16 pixels × 16 pixels (hereinafter referred to as macroblocks). Next, for each of these macroblocks, a similar block of the same size similar to the macroblock of the current image is searched from the search window of the reference image, and a motion vector indicating a spatial distance and orientation to the searched similar block, and Difference information from the searched similar block is calculated, and motion compensation is performed. Then, the difference information is converted by DCT (Discrete Cosine Transform;
Discrete cosine transform), quantization and variable length coding. When the difference information is compressed in this way, it can be more efficiently compressed than when the original image itself is compressed.

【0004】図4に示すように、MPEGでは、Iピク
チャ、PピクチャおよびBピクチャの3種類のピクチャ
タイプが規定されている。Iピクチャ(Intra-Picture
;フレーム内予測符号化画像)は、ピクチャ内の全て
のマクロブロックが他の画像を参照しないイントラ(In
tra ;フレーム内符号化)ブロックで構成されている。
Iピクチャは、他のピクチャタイプの画像を圧縮および
再生するため周期的に設けられており、画面のランダム
アクセスにも利用される。Pピクチャ(Predictive-Pic
ture;前方向予測符号化画像)は、時間的に前方向のI
ピクチャまたはPピクチャを参照して符号化されるが、
イントラブロックを含む場合がある。Bピクチャ(Bidi
rectionally predictive-Picture;双方向予測符号化画
像)は、時間的に前方向および後方向のIピクチャまた
はPピクチャをそれぞれ参照画像として符号化され、イ
ントラブロックを含む場合がある。ただし、Bピクチャ
は他の参照画像としては利用されない。また、Iピクチ
ャおよびPピクチャは時間的に原画像と同じ順序で符号
化されるが、BピクチャはIピクチャおよびPピクチャ
が符号化された後に間に挿入される。
[0004] As shown in FIG. 4, three types of pictures, namely, I picture, P picture and B picture are defined in MPEG. I-picture (Intra-Picture
; Intra-frame coded image) is an intra (In) in which all macroblocks in the picture do not refer to other images.
tra; intra-frame coding) block.
The I picture is periodically provided for compressing and reproducing an image of another picture type, and is also used for random access to a screen. P-picture (Predictive-Pic
ture; a forward prediction coded image) is a temporally forward I
Is encoded with reference to a picture or a P picture,
May contain intra blocks. B picture (Bidi
rectionally predictive-Picture) is a temporally forward or backward I-picture or P-picture that is encoded as a reference image, and may include an intra block. However, the B picture is not used as another reference image. Further, the I picture and the P picture are temporally encoded in the same order as the original picture, but the B picture is inserted after the I picture and the P picture are encoded.

【0005】例えば、図4(a)では、周期M=2であ
り、まず、Iピクチャーが生成され、次いで、2枚目置
きにPピクチャーが生成されるとともに、生成されたP
ピクチャー若しくはIピクチャーおよびPピクチャーか
ら1枚のBピクチャーが生成されている。また、図4
(b)では、周期M=3であり、まず、Iピクチャが生
成され、3枚目置きにPピクチャが生成されるととも
に、生成されたPピクチャー若しくはIピクチャーおよ
びPピクチャーから2枚のBピクチャーが生成されてい
る。
For example, in FIG. 4 (a), the period is M = 2. First, an I picture is generated, then a P picture is generated every second picture, and the generated P picture is generated.
One B picture is generated from a picture or an I picture and a P picture. FIG.
In (b), the cycle M = 3, an I picture is generated first, a P picture is generated every third picture, and two B pictures are generated from the generated P picture or I picture and P picture. Has been generated.

【0006】さらに、MPEG1では順次走査方式の画
像のみを取扱っていたのに対し、MPEG2ではインタ
レース走査方式の画像の符号化も取扱われている。イン
タレース走査方式は、単純に順次1ライン毎に垂直走査
を行う順次走査方式に対して、所定の走査ライン毎に飛
び越して垂直走査を行い、飛び越した走査ラインの本数
に対応した走査回数によってフレームを構成するもので
ある。例えば、テレビ映像等に適用される2:1インタ
レース走査方式は、1枚のフレームを奇数走査ラインか
らなるフィールドと偶数走査ラインからなるフィールド
との2枚のフィールドで構成し、まず一方のフィールド
の走査を行ってから他方のフィールドの走査を行うもの
である。このインタレース走査方式は、信号帯域幅を節
減し、実質的に走査線数を減らすことなく、画面全体の
走査回数を多くして画像のちらつきを少なくするもので
ある。
[0006] Furthermore, whereas MPEG1 deals only with progressive scanning images, MPEG2 deals with interlaced scanning image coding. The interlaced scanning method is different from the sequential scanning method in which vertical scanning is simply performed sequentially for each line. It constitutes. For example, in the 2: 1 interlaced scanning method applied to a television image or the like, one frame is composed of two fields of a field composed of odd-numbered scanning lines and a field composed of even-numbered scanning lines. Is performed, and then the other field is scanned. This interlaced scanning system reduces the signal bandwidth, increases the number of scans of the entire screen, and reduces image flickering without substantially reducing the number of scanning lines.

【0007】インタレース走査方式の画像には、フレー
ムを符号化の単位とするフレーム構造とフィールドを符
号化の単位とするフィールド構造との両方が提供され、
さらに、予測方式には、フレーム予測方式とフィールド
予測方式とがある。ただし、フィールド構造の場合に
は、フレーム予測方式は使えない。まず、フレーム構造
における予測方式の一例を説明する。
[0007] An interlaced scanning image is provided with both a frame structure using a frame as a unit of encoding and a field structure using a field as a unit of encoding.
Further, the prediction methods include a frame prediction method and a field prediction method. However, in the case of the field structure, the frame prediction method cannot be used. First, an example of a prediction method in a frame structure will be described.

【0008】図5に示すように、現画像フレーム110
が奇数走査ラインからなる現画像第1フィールド111
および偶数走査ラインからなる現画像第2フィールド1
12から構成され、参照画像フレーム120が奇数走査
ラインからなる第1フィールド121および偶数走査ラ
インからなる第2フィールド122から構成され、参照
画像フレーム120から現画像フレーム110を予測す
るとする。また、斜線で示された人物像Aが画面の左下
から右上の方向に移動しているとする。
[0008] As shown in FIG.
Is the first field 111 of the current image composed of odd scan lines.
And second field 1 of the current image composed of even scan lines
12, the reference image frame 120 is composed of a first field 121 composed of odd-numbered scan lines and a second field 122 composed of even-numbered scan lines. It is also assumed that a person image A indicated by oblique lines moves from the lower left to the upper right of the screen.

【0009】フレーム構造におけるフレーム予測方式
は、現画像フレーム110を参照画像フレーム120か
ら動きベクトルMVAによって予測するものである。フ
レーム構造におけるフィールド予測方式では、現画像第
1フィールド111を参照画像第1フィールド121ま
たは参照画像第2フィールド122から動きベクトルM
VA1によって予測するとともに、現画像第2フィール
ド112を参照画像第1フィールド121または参照画
像第2フィールド122から動きベクトルMVA2によ
って予測し、予測された2つのフィールドを合成するこ
とによってフレーム110を予測する。
The frame prediction method in the frame structure predicts the current image frame 110 from the reference image frame 120 by using a motion vector MVA. In the field prediction method in the frame structure, the first field 111 of the current picture is converted from the first field 121 of the reference picture or the second field 122 of the reference picture to the motion vector M.
While predicting by VA1, the current image second field 112 is predicted by the motion vector MVA2 from the reference image first field 121 or the reference image second field 122, and the frame 110 is predicted by combining the two predicted fields. .

【0010】ここで、図6に示すように、現画像を時間
n、参照画像を時間(n−1)とし、現画像および参照
画像の奇数走査ラインの各画素を白丸で表し、現画像お
よび参照画像の偶数走査ラインの各画素を黒丸で表し、
垂直8画素の現画像フレームブロック210が垂直4画
素の現画像第1フィールドブロック211と垂直4画素
の現画像第2フィールドブロック212からなるとする
と、動きベクトルMVAは、現画像フレームブロック2
10の画素データおよび複数のフレーム候補ブロック2
20の画素データに基づいて求められる。
Here, as shown in FIG. 6, the current image is time n, the reference image is time (n-1), and each pixel of odd scan lines of the current image and the reference image is represented by a white circle. Each pixel of the even scan line of the reference image is represented by a black circle,
Assuming that the current image frame block 210 of vertical 8 pixels includes a current image first field block 211 of vertical 4 pixels and a current image second field block 212 of vertical 4 pixels, the motion vector MVA is represented by the current image frame block 2
10 pixel data and a plurality of frame candidate blocks 2
It is determined based on 20 pixel data.

【0011】また、動きベクトルMVA1は現画像第1
フィールドブロック211の画素データおよび複数の第
1フィールド候補ブロック221の画素データに基づい
て求められ、動きベクトルMVA2は現画像第2フィー
ルドブロック212の画素データと複数の第2フィール
ド候補ブロック222の画素データに基づいて求められ
る。
Further, the motion vector MVA1 is the first image of the current image.
The motion vector MVA2 is calculated based on the pixel data of the field block 211 and the pixel data of the plurality of first field candidate blocks 221. Is determined based on

【0012】実際には、フレームブロック210および
フレーム候補ブロック220はそれぞれ16画素×16
画素のマクロブロックであり、第1フィールドブロック
211、第2フィールドブロック212、第1フィール
ド候補フィールド221および第2フィールド候補ブロ
ック222はそれぞれ16画素×8画素のブロックによ
って構成される。
In practice, the frame block 210 and the frame candidate block 220 each have 16 pixels × 16
It is a macro block of pixels, and the first field block 211, the second field block 212, the first field candidate field 221 and the second field candidate block 222 are each configured by a block of 16 pixels × 8 pixels.

【0013】このように、フレーム構造ではフレーム予
測方式による1本の動きベクトルMVAとフィールド予
測方式による2本の動きベクトルMVA1,MVA2と
が求められ、これらの動きベクトルの中から最適な動き
ベクトルが選択される。次に、フィールド構造における
フィールド予測方式の一例を説明する。フィールド構造
におけるフィールド予測方式は、さらに、16×16フ
ィールド予測方式および16×8フィールド予測方式が
ある。
As described above, in the frame structure, one motion vector MVA according to the frame prediction method and two motion vectors MVA1 and MVA2 according to the field prediction method are obtained. Selected. Next, an example of a field prediction method in a field structure will be described. The field prediction method in the field structure further includes a 16 × 16 field prediction method and a 16 × 8 field prediction method.

【0014】図7に示すように、例えば、参照画像フィ
ールド320から現画像フィールド310を予測するも
のとする。また、斜線で示された人物像Bが画面の左下
から右上の方向に移動しているとする。ここで、図8に
示すように、現画像フィールド310を時間n、参照画
像フィールド320を時間(n−1)とし、現画像フィ
ールド310を構成する各画素を白丸で表し、参照画像
フィールド320を構成する各画素を黒丸で表すとす
る。また、現画像フィールド310内の垂直4画素の現
画像フィールドブロック410が現画像フィールドブロ
ック410の上半分を構成する現画像第1セグメントブ
ロック411と現画像フィールドブロック410の下半
分を構成する第2セグメントブロック412とから構成
されているとする。
As shown in FIG. 7, it is assumed that a current image field 310 is predicted from a reference image field 320, for example. It is also assumed that a person image B indicated by oblique lines moves from the lower left to the upper right of the screen. Here, as shown in FIG. 8, the current image field 310 is time n, the reference image field 320 is time (n-1), each pixel constituting the current image field 310 is represented by a white circle, and the reference image field 320 is Each of the constituent pixels is represented by a black circle. Also, a current image field block 410 of 4 pixels vertically in the current image field 310 has a current image first segment block 411 forming the upper half of the current image field block 410 and a second image forming the lower half of the current image field block 410. It is assumed that it is composed of a segment block 412.

【0015】16×16フィールド予測方式は、現画像
フィールドブロック410の画素データおよび複数のフ
ィールド候補ブロック420の画素データに基づいて求
められたフィールド動きベクトルMVBによって参照画
像フィールド320から現画像フィールド310を予測
するものである。一方、16×8フィールド予測方式
は、現画像第1セグメントブロック411の画素データ
および複数の第1セグメント候補ブロック421の画素
データに基づいて求められた第1セグメント動きベクト
ルMVB1および現画像第2セグメントブロック412
の画素データと複数の第2セグメント候補ブロック42
2の画素データに基づいて求められた第2セグメント動
きベクトルMVB2によって参照画像フィールド320
から現画像フィールド310を予測するものである。
In the 16 × 16 field prediction method, a current image field 310 is converted from a reference image field 320 by a field motion vector MVB obtained based on pixel data of a current image field block 410 and pixel data of a plurality of field candidate blocks 420. To predict. On the other hand, the 16 × 8 field prediction method uses the first segment motion vector MVB1 and the current image second segment obtained based on the pixel data of the current image first segment block 411 and the pixel data of the plurality of first segment candidate blocks 421. Block 412
Pixel data and a plurality of second segment candidate blocks 42
Reference image field 320 based on the second segment motion vector MVB2 determined based on the second pixel data.
From the current image field 310.

【0016】実際には、フィールドブロック410およ
びフィールド候補ブロック420はそれぞれ16画素×
16画素のマクロブロックであり、第1セグメントブロ
ック411、第2セグメントブロック412、第1セグ
メント候補フィールド421および第2セグメント候補
ブロック422はそれぞれ16画素×8画素のブロック
によって構成される。
In practice, each of the field block 410 and the field candidate block 420 is 16 pixels ×
This is a macroblock of 16 pixels, and the first segment block 411, the second segment block 412, the first segment candidate field 421, and the second segment candidate block 422 are each constituted by a block of 16 pixels × 8 pixels.

【0017】このように、フィールド構造では16×1
6フィールド予測方式による1本のフィールド動きベク
トルMVBと16×8フィールド予測方式による2本の
第1および第2セグメント動きベクトルMVB1,MV
B2とが求められ、これらの動きベクトルの中から最適
な動きベクトルが選択される。上記のように、フレーム
構造の場合には1本のフレーム動きベクトルと2本のフ
ィールド動きベクトルとから最適な動きベクトルが選択
され、フィールド構造の場合には1本のフィールド動き
ベクトルと2本のセグメント動きベクトルからそれぞれ
最適な動きベクトルが選択されることにより、さらに情
報量の圧縮率を向上させている。
As described above, in the field structure, 16 × 1
One field motion vector MVB according to the 6-field prediction method and two first and second segment motion vectors MVB1, MV according to the 16 × 8 field prediction method.
B2 is obtained, and an optimal motion vector is selected from these motion vectors. As described above, in the case of the frame structure, the optimal motion vector is selected from one frame motion vector and two field motion vectors, and in the case of the field structure, one field motion vector and two field motion vectors are selected. By selecting the optimal motion vector from each of the segment motion vectors, the compression rate of the information amount is further improved.

【0018】ところで、一般に動きベクトルを探索する
には膨大な演算とメモリアクセスが必要であるため、動
きベクトルを探索する処理能力は符号化装置全体の処理
能力を決定する大きな要因となっている。この動きベク
トルを探索する処理能力を向上する方法として、例え
ば、NTC81(National Telecommunication Confere
nce 81)1981年第G5.3.1頁〜第G5.3.5頁の「Moti
on compensated interframe coding for video confere
ncing 」に示される多段階探索方法が提案されている。
以下、多段階探索の一例である2段階探索を説明する。
In general, a huge amount of calculation and memory access are required to search for a motion vector. Therefore, the processing capability for searching for a motion vector is a major factor in determining the processing capability of the entire encoding apparatus. As a method of improving the processing capability for searching for the motion vector, for example, NTC81 (National Telecommunication Confere)
nce 81) 1981, G5.3.1 to G5.3.5, "Moti
on compensated interframe coding for video confere
ncing "has been proposed.
Hereinafter, a two-step search which is an example of the multi-step search will be described.

【0019】図9に示すように、まず、第1段階の探索
では、参照画像上の水平走査方向および垂直走査方向の
画素をそれぞれスキップして探索点が抽出されることに
より、探索密度は粗いが、広い探索領域が設定され、設
定された探索点の中から第1段階の動きベクトルMV1
が求められる。この第1段階では、動きベクトルが大体
どこに存在するかが探索される。次に、第2段階の探索
では、第1段階で求められた動きベクトルMV1に対応
する探索点の近傍に、第1段階の探索領域より狭く、か
つ領域内の全ての画素を抽出する探索密度の細かい探索
領域が設定され、この探索領域から第2段階の動きベク
トルMV2が求められる。次に、第1段階で求められた
動きベクトルMV1と第2段階で求められたMV2とが
加算され、最終動きベクトルMVが求められる。
As shown in FIG. 9, first, in the first stage search, search points are extracted by skipping pixels in the horizontal scanning direction and the vertical scanning direction on the reference image, respectively, so that the search density is low. , A wide search area is set, and the first-stage motion vector MV1 is selected from the set search points.
Is required. In this first stage, a search is made where the motion vector is located. Next, in the second-stage search, a search density that is smaller than the first-stage search area and that extracts all pixels in the area is located near the search point corresponding to the motion vector MV1 obtained in the first step. Is set, and the motion vector MV2 of the second stage is obtained from the search area. Next, the motion vector MV1 obtained in the first step and the MV2 obtained in the second step are added to obtain a final motion vector MV.

【0020】このように、粗い探索から細かい探索へと
多段階に分けて動きベクトルを探索することで探索点を
削減することができるので、動きベクトルMVを探索す
るための演算量およびメモリアクセス量を削減しつつ、
予測精度の高い動きベクトルを効率良く求めている。ま
た、動きベクトルを探索する処理能力を向上する方法と
して、例えば、電子情報通信学会論文誌1989年Vo
l.J72−D−2No.3の第395頁〜第402頁
「階層画素情報を用いた動画像における動き量検出方
式」に示される階層探索方法が提案されている。この方
法は、入力画像の画素平均値を算出し縮小画像を生成す
ることで空間解像度の劣化した上位階層を生成し、被写
体の大局的な動きを検出する上位階層(粗い探索)の検
出結果に基づいて解像度が細かくなる下位階層(細かい
探索)の動き量を逐次検出することで、実質的に探索点
を削減し、効率良く、かつ、高精度に動きベクトルを求
めている。
As described above, the search points can be reduced by searching the motion vector in multiple stages from coarse search to fine search, so that the amount of calculation and the amount of memory access for searching for the motion vector MV can be reduced. While reducing
A motion vector with high prediction accuracy is efficiently obtained. As a method of improving the processing capability of searching for a motion vector, for example, the IEICE Transactions Vol.
l. J72-D-2No. No. 3, pages 395 to 402, "Motion Amount Detection Method for Moving Image Using Hierarchical Pixel Information" has been proposed. According to this method, an average pixel value of an input image is calculated and a reduced image is generated to generate an upper layer having a deteriorated spatial resolution, and a detection result of an upper layer (coarse search) for detecting a global motion of a subject is obtained. By sequentially detecting the amount of motion in the lower layer (fine search) having a finer resolution based on this, the number of search points is substantially reduced, and a motion vector is obtained efficiently and with high accuracy.

【0021】[0021]

【発明が解決しようとする課題】しかしながら、前述の
フレーム動きベクトルMVA、第1フィールド動きベク
トルMVA1および第2フィールド動きベクトルMVA
2、並びに、フィールド動きベクトルMVB、第1セグ
メント動きベクトルMVB1および第2セグメントMV
B等、複数の動きベクトルをそれぞれ粗い探索から細か
い探索に分けて探索し、探索された複数の動きベクトル
の中から最適な動きベクトルを判定する従来の動画像圧
縮方法および装置にあっては、それぞれ最も細かい探索
を経て最終的に求められた動きベクトルの中から最適な
動きベクトルが判定されていたため、ピクチャタイプに
応じて前記複数の動きベクトルを探索する処理量の差が
大きくなってしまい、符号化処理速度にばらつきが生じ
てしまうといった問題があった。
However, the above-mentioned frame motion vector MVA, first field motion vector MVA1, and second field motion vector MVA are used.
2, the field motion vector MVB, the first segment motion vector MVB1, and the second segment MV
B, etc., in a conventional moving image compression method and apparatus in which a plurality of motion vectors are searched separately from a coarse search to a fine search, and an optimum motion vector is determined from the plurality of searched motion vectors. Since the optimal motion vector has been determined from among the motion vectors finally obtained through the finest search, the difference in the processing amount for searching for the plurality of motion vectors according to the picture type increases, There is a problem that the encoding processing speed varies.

【0022】すなわち、Pピクチャは時間的に前方向の
画像を参照画像とするのに対し、Bピクチャは時間的に
前方向および後方向の画像をそれぞれ参照画像とするの
で、Bピクチャの場合にはPピクチャの場合より多くの
の演算量およびメモリアクセス量(バンド幅)が必要と
され、Bピクチャの動きベクトル探索処理が全体の符号
化速度向上の妨げになってしまうといった問題があっ
た。
In other words, while a P picture uses a temporally forward image as a reference image, a B picture uses temporally forward and backward images as reference images, respectively. Requires a larger amount of calculation and more memory access (bandwidth) than the P picture, and there is a problem that the motion vector search processing of the B picture hinders the improvement of the overall coding speed.

【0023】そこで、本発明は、粗い探索から細かい探
索に分けて前記複数の動きベクトルをそれぞれ探索して
複数の動きベクトルから最適な動きベクトルを判定する
動画像圧縮方法および装置において、最適な動きベクト
ルを判定する動きベクトル判定をピクチャタイプに応じ
て途中の探索結果に基づいて行うことにより、例えば、
Pピクチャの場合には最終の細かい探索を経て得られた
動きベクトルから動きベクトル判定を行うとともに、B
ピクチャの場合には途中の探索で得られた動きベクトル
から動きベクトル判定を行うことにより、Pピクチャお
よびBピクチャの動きベクトル探索処理量を平均化して
動きベクトル探索処理を効率良く行い、動画像全体の画
質を低下させることなく符号化処理を高速化することが
できる動画像圧縮方法および装置を提供することを目的
とする。
Therefore, the present invention provides a moving picture compression method and apparatus which separates a coarse search from a fine search and searches for each of the plurality of motion vectors to determine an optimum motion vector from the plurality of motion vectors. By performing a motion vector determination for determining a vector based on a search result in the middle according to a picture type, for example,
In the case of a P picture, a motion vector is determined from the motion vector obtained through the final fine search,
In the case of a picture, a motion vector determination is performed from the motion vectors obtained in the search in the middle, thereby averaging the motion vector search processing amount of the P picture and the B picture, efficiently performing the motion vector search processing, and It is an object of the present invention to provide a moving image compression method and apparatus capable of speeding up the encoding process without deteriorating the image quality of a moving image.

【0024】[0024]

【課題を解決するための手段】上記改題を解決するた
め、請求項1に記載の発明は、インタレース走査方式の
動画像を構成する各フレームに対し、該フレームを構成
する画素に含まれる複数種類の画像情報をそれぞれ、所
定の標本化周波数に基づいて水平走査方向および垂直走
査方向に抽出するフォーマット変換工程を含み、該フォ
ーマット変換工程により抽出された各フレームに対し、
フレーム内情報に基づいて符号化されるフレーム内予測
画像と、時間的に前方向のフレームを参照画像として符
号化される前方向予測画像と、時間的に前方向および後
方向のフレームをそれぞれ参照画像として符号化される
双方向予測画像と、をそれぞれ切り換えて生成する動画
像圧縮方法であって、前記フレーム内予測画像、前記前
方向予測画像および前記双方向予測画像のうち、符号化
される予測画像を判別する画像判別工程と、前記フレー
ムが第1フィールドおよび第2フィールドからなり、前
記フレームを部分的に構成する現画像フレームブロック
が、該第1フィールドからなる現画像第1フィールドブ
ロックおよび該第2フィールドからなる現画像第2フィ
ールドブロックを含み、現画像フレームブロック、現画
像第1フィールドブロックおよび現画像第2フィールド
ブロックに対し、前記参照画像を構成する画素を代表す
る画像情報を抽出することにより、粗い探索密度であ
り、かつ広い探索領域をそれぞれ設定する第1の探索領
域設定工程と、第1の探索領域設定工程により設定され
た探索領域に基づいて前記現画像フレームブロック、現
画像第1フィールドブロックおよび現画像第2フィール
ドブロックにそれぞれ最も類似した類似ブロックを特定
し、現画像フレームブロックに対応するフレーム動きベ
クトル、現画像第1フィールドブロックに対応する第1
フィールド動きベクトルおよび現画像第2フィールドブ
ロックに対応する第2フィールド動きベクトルを探索す
る第1の動きベクトル探索工程と、該第1の動きベクト
ル探索工程により特定された現画像フレームブロック、
現画像第1フィールドブロックおよび現画像第2フィー
ルドブロックのそれぞれの前記類似ブロックの近傍に、
前記第1の探索領域設定工程により設定された探索領域
より細かい探索密度であり、かつ狭い探索領域をそれぞ
れ設定する第2の探索領域設定工程と、第2の探索領域
設定工程により設定されたそれぞれの探索領域に基づい
て前記現画像フレームブロック、現画像第1フィールド
ブロックおよび現画像第2フィールドブロックに最も類
似した類似ブロックをそれぞれ特定し、現画像フレーム
ブロックに対応するフレーム動きベクトル、現画像第1
フィールドブロックに対応する第1フィールド動きベク
トルおよび現画像第2フィールドブロックに対応する第
2フィールド動きベクトルを探索する第2の動きベクト
ル探索工程と、前記第1の動きベクトル探索工程により
探索された前記フレーム動きベクトル、第1フィールド
動きベクトル、第2フィールド動きベクトルの中から最
適な動きベクトルを判定する第1の動きベクトル判定工
程と、前記第2の動きベクトル探索工程により探索され
た前記フレーム動きベクトル、第1フィールド動きベク
トル、第2フィールド動きベクトルの中から最適な動き
ベクトルを判定する第2の動きベクトル判定工程と、前
記画像判別工程により判別された予測画像に応じて第1
の動きベクトル判定工程と第2の動きベクトル判定工程
とのうち何れか一方の判定工程を選択する選択工程と、
を含むことを特徴とする。
According to a first aspect of the present invention, there is provided an image processing apparatus comprising: a plurality of frames included in pixels constituting an interlaced scanning moving image; Each type of image information includes a format conversion step of extracting in the horizontal scanning direction and the vertical scanning direction based on a predetermined sampling frequency, for each frame extracted by the format conversion step,
Refer to the intra-frame predicted image encoded based on the intra-frame information, the forward predicted image encoded using the temporally forward frame as a reference image, and the temporally forward and backward frames. And a bidirectional prediction image to be coded as an image. The method further comprises switching and generating a bidirectional prediction image, wherein the intra-frame prediction image, the forward prediction image, and the bidirectional prediction image are encoded. An image discriminating step of discriminating a predicted image, wherein the frame includes a first field and a second field, and a current image frame block partially constituting the frame includes a current image first field block including the first field; A current image frame block, a current image first field, including a current image second field block comprising the second field. A first search area setting step of setting a wide search area with a coarse search density by extracting image information representing pixels constituting the reference image from the lock and the current image second field block And identifying a similar block that is most similar to the current image frame block, the current image first field block and the current image second field block based on the search area set in the first search area setting step. A frame motion vector corresponding to the frame block, a first motion vector corresponding to the current image first field block;
A first motion vector search step of searching for a field motion vector and a second field motion vector corresponding to the current image second field block; and a current image frame block specified by the first motion vector search step.
In the vicinity of each of the similar blocks of the current image first field block and the current image second field block,
A second search area setting step of setting a narrower search area with a search density finer than the search area set in the first search area setting step, and a search area setting step of setting a narrower search area, respectively. And a similar block that is most similar to the current image frame block, the current image first field block, and the current image second field block, respectively, based on the search area, and a frame motion vector corresponding to the current image frame block, 1
A second motion vector search step of searching for a first field motion vector corresponding to a field block and a second field motion vector corresponding to a current image second field block; and A first motion vector determining step of determining an optimal motion vector from a frame motion vector, a first field motion vector, and a second field motion vector; and the frame motion vector searched by the second motion vector searching step. A second motion vector determining step of determining an optimal motion vector from among the first field motion vector and the second field motion vector, and a first motion vector determining step based on the predicted image determined in the image determining step.
A selecting step of selecting one of the motion vector determining step and the second motion vector determining step,
It is characterized by including.

【0025】請求項2に記載の発明は、請求項1に記載
の発明において、前記画像判別工程により判別された予
測画像が前方向予測画像の場合、前記選択工程が第2の
動きベクトル判定工程を選択するとともに、前記画像判
別工程により判別された予測画像が双方向予測画像の場
合、前記選択工程が第1の動きベクトル判定工程を選択
することを特徴とする。
According to a second aspect of the present invention, in the first aspect of the present invention, when the predicted image determined in the image determining step is a forward predicted image, the selecting step includes a second motion vector determining step. And if the predicted image determined in the image determining step is a bidirectional predicted image, the selecting step selects a first motion vector determining step.

【0026】請求項3に記載の発明は、インタレース走
査方式の動画像を構成する各フィールドに対し、該フィ
ールドを構成する画素に含まれる複数種類の画像情報を
それぞれ、所定の標本化周波数に基づいて水平走査方向
および垂直走査方向に抽出するフォーマット変換工程を
含み、該フォーマット変換工程により抽出された各フィ
ールドに対し、フィールド内情報に基づいて符号化され
るフィールド内予測画像と、時間的に前方向のフィール
ドを参照画像として符号化される前方向予測画像と、時
間的に前方向および後方向のフィールドをそれぞれ参照
画像として符号化される双方向予測画像と、をそれぞれ
切り換えて生成する動画像圧縮方法であって、前記フィ
ールド内予測画像、前記前方向予測画像および前記双方
向予測画像のうち、符号化される予測画像を判別する画
像判別工程と、前記フィールドを部分的に構成する現画
像フィールドブロックが、該現画像フィールドブロック
の上半分のブロックからなる現画像第1セグメントブロ
ックおよび該現画像フィールドブロックの下半分のブロ
ックからなる現画像第2セグメントブロックを含み、現
画像フィールドブロック、現画像第1セグメントブロッ
クおよび現画像第2セグメントブロックに対し、前記参
照画像を構成する画素を代表する画像情報を抽出するこ
とにより、粗い探索密度であり、かつ広い探索領域をそ
れぞれ設定する第1の探索領域設定工程と、第1の探索
領域設定工程により設定された探索領域に基づいて前記
現画像フィールドブロック、現画像第1セグメントブロ
ックおよび現画像第2セグメントブロックにそれぞれ最
も類似した類似ブロックを特定し、現画像フィールドブ
ロックに対応するフィールド動きベクトル、現画像第1
セグメントブロックに対応する第1セグメント動きベク
トルおよび現画像第2セグメントブロックに対応する第
2セグメント動きベクトルを探索する第1の動きベクト
ル探索工程と、該第1の動きベクトル探索工程により特
定された現画像フィールドブロック、現画像第1セグメ
ントブロックおよび現画像第2セグメントブロックのそ
れぞれの前記類似ブロックの近傍に、前記第1の探索領
域設定工程により設定された探索領域より細かい探索密
度であり、かつ狭い探索領域をそれぞれ設定する第2の
探索領域設定工程と、第2の探索領域設定工程により設
定されたそれぞれの探索領域に基づいて前記現画像フィ
ールドブロック、現画像第1セグメントブロックおよび
現画像第2セグメントブロックに最も類似した類似ブロ
ックをそれぞれ特定し、現画像フィールドブロックに対
応するフィールド動きベクトル、現画像第1セグメント
ブロックに対応する第1セグメント動きベクトルおよび
現画像第2セグメントブロックに対応する第2セグメン
ト動きベクトルを探索する第2の動きベクトル探索工程
と、前記第1の動きベクトル探索工程により探索された
前記フィールド動きベクトル、第1セグメント動きベク
トル、第2セグメント動きベクトルの中から最適な動き
ベクトルを判定する第1の動きベクトル判定工程と、前
記第2の動きベクトル探索工程により探索された前記フ
ィールド動きベクトル、第1セグメント動きベクトル、
第2セグメント動きベクトルの中から最適な動きベクト
ルを判定する第2の動きベクトル判定工程と、前記画像
判別工程により判別された予測画像に応じて第1の動き
ベクトル判定工程と第2の動きベクトル判定工程のうち
何れか一方の判定工程を選択する選択工程と、を含むこ
とを特徴とする。
According to a third aspect of the present invention, a plurality of types of image information included in the pixels constituting the interlaced scanning moving image are respectively converted into a predetermined sampling frequency for each field constituting the interlaced scanning moving image. Including a format conversion step of extracting in the horizontal scanning direction and the vertical scanning direction based on the field conversion image for each field extracted by the format conversion step. A moving image generated by switching between a forward predicted image encoded using a forward field as a reference image and a bidirectional predicted image encoded temporally using forward and backward fields as a reference image. An image compression method, wherein the intra-field prediction image, the forward prediction image, and the bidirectional prediction image An image discriminating step of discriminating a predicted image to be encoded; and a current image first segment block and a current image field block in which a current image field block partially constituting the field comprises an upper half block of the current image field block. An image representative of pixels constituting the reference image with respect to the current image field block, the current image first segment block and the current image second segment block, including a current image second segment block consisting of a lower half block of a field block By extracting information, a first search area setting step of setting each of a coarse search density and a wide search area, and the current image field based on the search area set in the first search area setting step. Block, current image first segment block and current image second segment block Tsu identify similar blocks most similar respective click, field motion vector corresponding to the current image field block, the current picture first
A first motion vector search step of searching for a first segment motion vector corresponding to the segment block and a second segment motion vector corresponding to the current image second segment block; and a current motion vector specified by the first motion vector search step. In the vicinity of each of the similar blocks of the image field block, the current image first segment block, and the current image second segment block, the search density is smaller and narrower than the search area set in the first search area setting step. A second search area setting step for setting search areas, and the current image field block, the current image first segment block, and the current image second block based on the respective search areas set in the second search area setting step. The similar blocks that are most similar to the segment blocks And a second motion vector for searching for a field motion vector corresponding to the current image field block, a first segment motion vector corresponding to the current image first segment block, and a second segment motion vector corresponding to the current image second segment block. A search step; and a first motion vector determination step of determining an optimal motion vector from among the field motion vector, the first segment motion vector, and the second segment motion vector searched in the first motion vector search step. , The field motion vector searched in the second motion vector search step, a first segment motion vector,
A second motion vector determining step of determining an optimal motion vector from the second segment motion vectors, a first motion vector determining step according to the predicted image determined by the image determining step, and a second motion vector A selecting step of selecting any one of the determining steps.

【0027】請求項4に記載の発明は、請求項3に記載
の発明において、前記画像判別工程により判別された予
測画像が前方向予測画像の場合、前記選択工程が第2の
動きベクトル判定工程を選択するとともに、前記画像判
別工程により判別された予測画像が双方向予測画像の場
合、前記選択工程が第1の動きベクトル判定工程を選択
することを特徴とする。請求項5に記載の発明は、イン
タレース走査方式の動画像を構成する各フレームに対
し、該フレームを構成する画素に含まれる複数種類の画
像情報をそれぞれ、所定の標本化周波数に基づいて水平
走査方向および垂直走査方向に抽出するフォーマット変
換手段を有し、該フォーマット変換手段により抽出され
た各フレームに対し、フレーム内情報に基づいて符号化
されるフレーム内予測画像と、時間的に前方向のフレー
ムを参照画像として符号化される前方向予測画像と、時
間的に前方向および後方向のフレームをそれぞれ参照画
像として符号化される双方向予測画像と、をそれぞれ切
り換えて生成する動画像圧縮装置において、前記フレー
ム内予測画像、前記前方向予測画像および前記双方向予
測画像のうち、符号化される予測画像を判別する画像判
別手段と、前記フレームが第1フィールドおよび第2フ
ィールドからなり、前記フレームを部分的に構成する現
画像フレームブロックが、該第1フィールドからなる現
画像第1フィールドブロックおよび該第2フィールドか
らなる現画像第2フィールドブロックを含み、現画像フ
レームブロック、現画像第1フィールドブロックおよび
現画像第2フィールドブロックに対し、前記参照画像を
構成する画素を代表する画像情報を抽出することによ
り、粗い探索密度であり、かつ広い探索領域をそれぞれ
設定する第1の探索領域設定手段と、第1の探索領域設
定手段により設定された探索領域に基づいて前記現画像
フレームブロック、現画像第1フィールドブロックおよ
び現画像第2フィールドブロックにそれぞれ最も類似し
た類似ブロックを特定し、現画像フレームブロックに対
応するフレーム動きベクトル、現画像第1フィールドブ
ロックに対応する第1フィールド動きベクトルおよび現
画像第2フィールドブロックに対応する第2フィールド
動きベクトルを探索する第1の動きベクトル探索手段
と、該第1の動きベクトル探索手段により特定された現
画像フレームブロック、現画像第1フィールドブロック
および現画像第2フィールドブロックのそれぞれの前記
類似ブロックの近傍に、前記第1の探索領域設定手段よ
り設定された探索領域より細かい探索密度であり、かつ
狭い探索領域をそれぞれ設定する第2の探索領域設定手
段と、第2の探索領域設定手段により設定されたそれぞ
れの探索領域に基づいて前記現画像フレームブロック、
現画像第1フィールドブロックおよび現画像第2フィー
ルドブロックに最も類似した類似ブロックをそれぞれ特
定し、現画像フレームブロックに対応するフレーム動き
ベクトル、現画像第1フィールドブロックに対応する第
1フィールド動きベクトルおよび現画像第2フィールド
ブロックに対応する第2フィールド動きベクトルを探索
する第2の動きベクトル探索手段と、前記第1の動きベ
クトル探索手段により探索された前記フレーム動きベク
トル、第1フィールド動きベクトル、第2フィールド動
きベクトルの中から最適な動きベクトルを判定する第1
の動きベクトル判定手段と、前記第2の動きベクトル探
索手段により探索された前記フレーム動きベクトル、第
1フィールド動きベクトル、第2フィールド動きベクト
ルの中から最適な動きベクトルを判定する第2の動きベ
クトル判定手段と、前記画像判別手段により判別された
予測画像に応じて第1の動きベクトル判定手段と第2の
動きベクトル判定手段とのうち何れか一方の判定手段を
選択する選択手段と、を備えたことを特徴とする。
According to a fourth aspect of the present invention, in the third aspect, when the predicted image determined in the image determining step is a forward predicted image, the selecting step includes a second motion vector determining step. And if the predicted image determined in the image determining step is a bidirectional predicted image, the selecting step selects a first motion vector determining step. According to a fifth aspect of the present invention, for each frame constituting a moving image of the interlaced scanning system, a plurality of types of image information included in the pixels constituting the frame are horizontally arranged based on a predetermined sampling frequency. A format conversion unit that extracts in a scanning direction and a vertical scanning direction, and for each frame extracted by the format conversion unit, an intra-frame predicted image encoded based on intra-frame information; Moving image compression that generates by switching between a forward predicted image that is encoded as a reference image and a bidirectional predicted image that is temporally encoded as a forward and backward frame as a reference image. The apparatus determines a predicted image to be encoded among the intra-frame predicted image, the forward predicted image, and the bidirectional predicted image. An image discriminating means, wherein the frame comprises a first field and a second field, and a current image frame block which partially constitutes the frame is a current image first field block comprising the first field and the second field. By extracting image information representing pixels constituting the reference image for the current image frame block, the current image first field block, and the current image second field block, First search area setting means for setting a coarse search density and a wide search area; and the current image frame block and the current image first field based on the search area set by the first search area setting means. Block and the similar block most similar to the current image second field block, respectively. And a second field motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block. 1 motion vector search means, and the second image block, the current image frame block, the current image first field block, and the current image second field block specified by the first motion vector search means. A second search area setting means for setting a narrower search area with a search density finer than the search area set by the first search area setting means, and a respective search set by the second search area setting means Said current image frame block based on the region,
A similar block which is most similar to the current image first field block and the current image second field block is specified, and a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and Second motion vector searching means for searching for a second field motion vector corresponding to the current image second field block, and the frame motion vector, the first field motion vector, and the second motion vector searched for by the first motion vector searching means. First to determine optimal motion vector from two-field motion vector
And a second motion vector for determining an optimal motion vector from among the frame motion vector, the first field motion vector, and the second field motion vector searched by the second motion vector searching means. Determining means, and selecting means for selecting one of the first motion vector determining means and the second motion vector determining means in accordance with the predicted image determined by the image determining means. It is characterized by having.

【0028】請求項6に記載の発明は、請求項5に記載
の発明において、前記画像判別手段により判別された予
測画像が前方向予測画像の場合、前記選択手段が第2の
動きベクトル判定手段を選択するとともに、前記画像判
別手段により判別された予測画像が双方向予測画像の場
合、前記選択手段が第1の動きベクトル判定手段を選択
することを特徴とする。
According to a sixth aspect of the present invention, in the invention according to the fifth aspect, when the predicted image determined by the image determining means is a forward predicted image, the selecting means determines that the second motion vector determining means is a second motion vector determining means. And if the predicted image determined by the image determining means is a bidirectional predicted image, the selecting means selects the first motion vector determining means.

【0029】請求項7に記載の発明は、インタレース走
査方式の動画像を構成する各フィールドに対し、該フィ
ールドを構成する画素に含まれる複数種類の画像情報を
それぞれ、所定の標本化周波数に基づいて水平走査方向
および垂直走査方向に抽出するフォーマット変換手段を
有し、該フォーマット変換手段により抽出された各フィ
ールドに対し、フィールド内情報に基づいて符号化され
るフィールド内予測画像と、時間的に前方向のフィール
ドを参照画像として符号化される前方向予測画像と、時
間的に前方向および後方向のフィールドをそれぞれ参照
画像として符号化される双方向予測画像と、をそれぞれ
切り換えて生成する動画像圧縮装置において、前記フレ
ーム内予測画像、前記前方向予測画像および前記双方向
予測画像のうち、符号化される予測画像を判別する画像
判別手段と、前記フィールドを部分的に構成する現画像
フィールドブロックが、該現画像フィールドブロックの
上半分のブロックからなる現画像第1セグメントブロッ
クおよび該現画像フィールドブロックの下半分のブロッ
クからなる現画像第2セグメントブロックを含み、現画
像フィールドブロック、現画像第1セグメントブロック
および現画像第2セグメントブロックに対し、前記参照
画像を構成する画素を代表する画像情報を抽出すること
により、粗い探索密度であり、かつ広い探索領域をそれ
ぞれ設定する第1の探索領域設定手段と、第1の探索領
域設定手段により設定された探索領域に基づいて前記現
画像フィールドブロック、現画像第1セグメントブロッ
クおよび現画像第2セグメントブロックにそれぞれ最も
類似した類似ブロックを特定し、現画像フィールドブロ
ックに対応するフィールド動きベクトル、現画像第1セ
グメントブロックに対応する第1セグメント動きベクト
ルおよび現画像第2セグメントブロックに対応する第2
セグメント動きベクトルを探索する第1の動きベクトル
探索手段と、該第1の動きベクトル探索手段により特定
された現画像フィールドブロック、現画像第1セグメン
トブロックおよび現画像第2セグメントブロックのそれ
ぞれの前記類似ブロックの近傍に、前記第1の探索領域
設定手段より設定された探索領域より細かい探索密度で
あり、かつ狭い探索領域をそれぞれ設定する第2の探索
領域設定手段と、第2の探索領域設定手段により設定さ
れたそれぞれの探索領域に基づいて前記現画像フィール
ドブロック、現画像第1セグメントブロックおよび現画
像第2セグメントブロックに最も類似した類似ブロック
をそれぞれ特定し、現画像フィールドブロックに対応す
るフィールド動きベクトル、現画像第1セグメントブロ
ックに対応する第1セグメント動きベクトルおよび現画
像第2セグメントブロックに対応する第2セグメント動
きベクトルを探索する第2の動きベクトル探索手段と、
前記第1の動きベクトル探索手段により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第1の動きベクトル判定手段と、前記
第2の動きベクトル探索手段により探索された前記フィ
ールド動きベクトル、第1セグメント動きベクトル、第
2セグメント動きベクトルの中から最適な動きベクトル
を判定する第2の動きベクトル判定手段と、前記画像判
別手段により判別された予測画像に応じて第1の動きベ
クトル判定手段と第2の動きベクトル判定手段のうち何
れか一方の判定手段を選択する選択手段と、を備えたこ
とを特徴とする。
According to a seventh aspect of the present invention, a plurality of types of image information contained in the pixels constituting the interlaced scanning moving image are respectively converted into a predetermined sampling frequency for each field constituting the interlaced scanning moving image. A format conversion unit for extracting in a horizontal scanning direction and a vertical scanning direction based on the intra-field prediction image encoded based on the intra-field information for each field extracted by the format conversion unit. And a bidirectional predicted image in which a forward field is encoded as a reference image and a bidirectional predicted image in which temporally forward and backward fields are respectively encoded as a reference image. In the moving image compression device, among the intra-frame predicted image, the forward predicted image and the bidirectional predicted image, Image discriminating means for discriminating a predicted image to be encoded, and a current image first segment block comprising a current image field block partially constituting the field and an upper half block of the current image field block; An image representative of pixels constituting the reference image with respect to the current image field block, the current image first segment block and the current image second segment block, including a current image second segment block consisting of a lower half block of a field block By extracting information, a first search area setting means for setting a coarse search density and a wide search area, respectively, and the current image field based on the search area set by the first search area setting means Block, current image first segment block and current image second segment block Identifying each the most similar similar blocks click, field motion vector corresponding to the current image field block, a second corresponding to the first segment motion vectors and the current picture second segment blocks corresponding to the first segment block current picture
First motion vector searching means for searching for a segment motion vector, and the similarities of the current image field block, the current image first segment block, and the current image second segment block specified by the first motion vector searching means. A second search area setting unit that sets a search density smaller and smaller than the search area set by the first search area setting unit in the vicinity of the block; and a second search area setting unit. Identify the similar blocks most similar to the current image field block, the current image first segment block and the current image second segment block based on the respective search areas set by A vector corresponding to the current image first segment block A second motion vector search means for searching the segments motion vectors and the second segment motion vector corresponding to the current image second segment blocks,
A first motion vector determining unit that determines an optimal motion vector from among the field motion vector, the first segment motion vector, and the second segment motion vector searched by the first motion vector searching unit; A second motion vector determining unit that determines an optimal motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the motion vector searching unit; And a selecting means for selecting one of the first motion vector determining means and the second motion vector determining means in accordance with the predicted image.

【0030】請求項8に記載の発明は、請求項7に記載
の発明において、前記画像判別手段により判別された予
測画像が前方向予測画像の場合、前記選択手段が第2の
動きベクトル判定手段を選択するとともに、前記画像判
別手段により判別された予測画像が双方向予測画像の場
合、前記選択手段が第1の動きベクトル判定手段を選択
することを特徴とする。
According to an eighth aspect of the present invention, in the invention according to the seventh aspect, when the predicted image determined by the image determining means is a forward predicted image, the selecting means determines whether the second motion vector determining means is a second motion vector determining means. And if the predicted image determined by the image determining means is a bidirectional predicted image, the selecting means selects the first motion vector determining means.

【0031】[0031]

【発明の実施の形態】以下、本発明の好ましい実施の形
態について図面を参照して説明する。図1および図2は
本発明の実施形態の動画像圧縮装置を示す図である。こ
の動画像圧縮装置は、図1に示すように、前処理ユニッ
ト11、符号化モード制御ユニット12、予測誤差信号
生成ユニット13、DCT(Discrete Cosine Transfor
m ;離散コサイン変換)ユニット14、量子化ユニット
15、可変長符号化ユニット16、バッファユニット1
7、符号量制御ユニット18、逆量子化ユニット21、
逆DCTユニット22、再生画像生成ユニット23、再
生画像記憶ユニット24、動き補償予測ユニット25お
よび動きベクトル探索ユニット26を備えており、各ユ
ニットは、図示しないバスによって互いに接続されてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. FIG. 1 and FIG. 2 are views showing a moving image compression apparatus according to an embodiment of the present invention. As shown in FIG. 1, the moving image compression apparatus includes a preprocessing unit 11, an encoding mode control unit 12, a prediction error signal generation unit 13, a DCT (Discrete Cosine Transformer).
m; discrete cosine transform) unit 14, quantization unit 15, variable length coding unit 16, buffer unit 1
7, code amount control unit 18, inverse quantization unit 21,
It includes an inverse DCT unit 22, a reproduced image generating unit 23, a reproduced image storage unit 24, a motion compensation prediction unit 25, and a motion vector search unit 26, and these units are connected to each other by a bus (not shown).

【0032】1は、図外の画像メモリからデジタル動画
像信号を入力する画像信号入力端子であり、この画像信
号入力端子1を通して動画像を構成する各画面を符号化
順に前処理ユニット11に入力する。画像信号は各画面
をする構成する画素に対応する輝度情報および色差情報
を含むデータである。前処理ユニット11は、フォーマ
ット変換手段の機能を有し、画像信号入力端子1を通し
て入力された画像信号に対し、画面を構成する画素に含
まれる輝度情報および色差情報を所定の標本化周波数に
基づいて水平走査方向および垂直走査方向に抽出し、い
わゆる4:2:0、4:2:2または4:4:4の画像
フォーマットに変換する。また、前処理ユニット11
は、フォーマット変換された各画面の画像信号をさらに
16画素×16画素の矩形ブロック(以下、マクロブロ
ックという)に分割し、これらのマクロブロック毎に予
測誤差信号生成ユニット13および動きベクトル探索ユ
ニット26に出力する。
Reference numeral 1 denotes an image signal input terminal for inputting a digital moving image signal from an image memory (not shown). Through the image signal input terminal 1, each screen constituting a moving image is input to the preprocessing unit 11 in the order of encoding. I do. The image signal is data including luminance information and color difference information corresponding to pixels constituting each screen. The preprocessing unit 11 has a function of a format conversion unit, and converts luminance information and chrominance information included in pixels constituting a screen on the image signal input through the image signal input terminal 1 based on a predetermined sampling frequency. To extract in the horizontal scanning direction and the vertical scanning direction, and convert them into a so-called 4: 2: 0, 4: 2: 2 or 4: 4: 4 image format. Also, the pre-processing unit 11
Divides a format-converted image signal of each screen into rectangular blocks of 16 × 16 pixels (hereinafter referred to as macroblocks), and for each of these macroblocks, a prediction error signal generation unit 13 and a motion vector search unit 26. Output to

【0033】符号化モード制御ユニット12は、画像判
別手段の機能を有し、前処理ユニット11に入力された
各画面に含まれるヘッダ情報に基づいて、各画面の画面
構造(フレーム構造またはフィールド構造)およびピク
チャタイプ(Iピクチャ、PピクチャまたはBピクチ
ャ)を判別し、判別された画面構造およびピクチャタイ
プを、それぞれ予測誤差信号生成ユニット13、再生画
像記憶ユニット24、動き補償予測ユニット25、動き
ベクトル探索ユニット26および可変長符号化ユニット
16に出力する。
The coding mode control unit 12 has a function of an image discriminating means, and, based on the header information included in each screen input to the preprocessing unit 11, a screen structure (frame structure or field structure) of each screen. ) And a picture type (I picture, P picture or B picture), and the determined screen structure and picture type are respectively referred to as a prediction error signal generation unit 13, a reproduced image storage unit 24, a motion compensation prediction unit 25, and a motion vector. Output to the search unit 26 and the variable length coding unit 16.

【0034】また、符号化モード制御ユニット12は、
判別されたピクチャタイプに応じてピクチャ内の各マク
ロブロックのそれぞれのマクロブロック属性を決定し、
同様に出力する。マクロブロック属性としては、単に入
力画像を符号化するイントラ(Intra;フレーム内符号
化)ブロック、動き補償を行わずに差分画像を符号化す
る単純フレーム間ブロック、動き補償を行って差分画像
を符号化する動き補償フレーム間ブロック等がある。
The encoding mode control unit 12
Determine each macroblock attribute of each macroblock in the picture according to the determined picture type,
Output in the same way. The macroblock attributes include an intra (Intra) block that simply encodes an input image, a simple inter-frame block that encodes a difference image without performing motion compensation, and a difference image that performs motion compensation. There are motion-compensated inter-frame blocks and the like.

【0035】ここで、判別されたピクチャタイプがIピ
クチャの場合には、ピクチャ内の全てのマクロブロック
をイントラブロックとする。一方、判別されたピクチャ
タイプがPピクチャおよびBピクチャの場合には、前記
ヘッダ情報に予めイントラスライスの指定があるときに
は、そのスライス内の全てのマクロブロックをイントラ
ブロックとし、それ以外のときには、動き補償ユニット
25から出力されたイントラブロック、単純フレーム間
ブロック、動き補償フレーム間ブロック等の各マクロブ
ロック属性におけるマクロブロックの画像情報の発生符
号量の推定値、並びに、動きベクトル探索ユニット26
から出力された動きベクトル情報に基づいて、そのマク
ロブロックの発生符号量が最も小さくなるマクロブロッ
ク属性を決定する。
Here, if the determined picture type is an I picture, all macro blocks in the picture are assumed to be intra blocks. On the other hand, when the determined picture type is a P picture or a B picture, if an intra slice is specified in the header information in advance, all macroblocks in the slice are set as intra blocks. Estimated value of generated code amount of image information of macroblock in each macroblock attribute such as intra block, simple interframe block, motion compensated interframe block output from compensation unit 25, and motion vector search unit 26
The macroblock attribute that minimizes the amount of generated codes of the macroblock is determined on the basis of the motion vector information output from.

【0036】予測誤差信号生成ユニット13は、符号化
モード制御ユニット12から出力されたマクロブロック
属性に基づいて、入力画像(イントラブロック)、入力
画像と動き補償が行われない予測画像との差分画像(単
純フレーム間ブロック)、入力画像と動き補償が行われ
た予測画像との差分画像(動き補償フレーム間ブロッ
ク)等のうち、何れかを予測誤差信号としてDCTユニ
ット14に出力する。
The prediction error signal generation unit 13 performs, based on the macroblock attribute output from the coding mode control unit 12, an input image (intra block), a difference image between the input image and a prediction image for which motion compensation is not performed. Any of a (simple inter-frame block), a difference image between the input image and the motion-compensated predicted image (motion-compensated inter-frame block), etc., is output to the DCT unit 14 as a prediction error signal.

【0037】DCTユニット14は、予測誤差信号生成
ユニット13から出力されたマクロブロックの画像信号
を8画素×8画素のブロックに分割し、このブロック毎
に公知の2次元DCT演算を行い、画像データを直流成
分(DC成分)および交流成分(AC成分)を含む低周
波項から高周波項までの複数のDCT係数に変換する。
The DCT unit 14 divides the image signal of the macro block output from the prediction error signal generation unit 13 into blocks of 8 × 8 pixels, performs a well-known two-dimensional DCT operation for each of these blocks, Is converted into a plurality of DCT coefficients from a low frequency term to a high frequency term including a DC component (DC component) and an AC component (AC component).

【0038】このDCT演算によって、各ブロックの画
像データは、第1低周波項であるDC成分から高周波項
のAC成分まで、徐々に精細さを表現する段階的な複数
の周波数成分に分解される。また、DCT演算前には、
低い空間的相関を示していた画像信号の画素値(輝度情
報および色差情報)が、DCT演算により低周波項に集
中することから、高周波項を除去することで有効な情報
圧縮が可能となる。
By this DCT operation, the image data of each block is decomposed into a plurality of stepwise frequency components that gradually represent fineness, from a DC component as a first low-frequency term to an AC component as a high-frequency term. . Before the DCT operation,
Since the pixel values (luminance information and color difference information) of the image signal exhibiting a low spatial correlation are concentrated on the low-frequency terms by the DCT operation, effective information compression can be performed by removing the high-frequency terms.

【0039】なお、DCTは、好ましい直交変換方式と
して採用されているが、これに限るものではない。例え
ば、現在のテレビ信号はコンポーネント信号とコンポジ
ット信号が混在しているが、コンポーネント信号に対し
てはDCTが優れた特性を示すが、コンポジット信号に
対してはアダマール変換が優れた特性を示すことが知ら
れている。このように、符号化される画像の特性に応じ
て適した方式の直交変換方式を採用すれば良い。
Although the DCT is adopted as a preferable orthogonal transform method, the present invention is not limited to this. For example, current television signals have a mixture of component signals and composite signals, and DCT shows excellent characteristics for component signals, but Hadamard transform shows excellent characteristics for composite signals. Are known. As described above, an orthogonal transform method suitable for the characteristics of the image to be encoded may be adopted.

【0040】量子化ユニット15は、DCTユニット1
4から出力されたDCT係数を量子化ステップにより割
算し、高周波を除去するよう余りを丸めることにより量
子化を行い、可変長符号化ユニット16および逆量子化
ユニット21に出力する。DCT演算により得られたD
CT係数のDC成分とAC成分とはそれぞれ独立の量子
化ステップにより量子化され、イントラブロックのDC
係数については、ピクチャ単位に量子化ステップが制御
され、その他の係数については、ピクチャタイプに応じ
た量子化マトリックスにマクロブロック毎に定まる量子
化スケールを乗ずることにより量子化ステップが制御さ
れる。量子化マトリックスは量子化特性を視覚特性に合
せるためのパラメータである。量子化スケールは発生符
号量を制御するためのパラメータであり、後述する符号
量制御ユニット18によって制御される。
The quantization unit 15 is a DCT unit 1
The DCT coefficients output from 4 are quantized by a quantization step, and the remainder is rounded so as to remove a high frequency, and quantization is performed. D obtained by DCT operation
The DC component and the AC component of the CT coefficient are quantized by independent quantization steps, and the DC component of the intra block is
For the coefficients, the quantization step is controlled for each picture, and for the other coefficients, the quantization step is controlled by multiplying a quantization matrix corresponding to the picture type by a quantization scale determined for each macroblock. The quantization matrix is a parameter for adjusting the quantization characteristics to the visual characteristics. The quantization scale is a parameter for controlling the generated code amount, and is controlled by a code amount control unit 18 described later.

【0041】可変長符号化ユニット16は、量子化ユニ
ット15によって量子化されたDCT係数を低周波成分
から順次スキャンすることで、2次元の係数を1次元の
係数列に変換し、これらの係数を1次元係数列の連続す
る零係数の数を表すランおよび非零係数の値を表すレベ
ルに基づいて可変長符号化を行い、符号化データをバッ
ファユニット17に出力する。スキャン順序としては、
いわゆるジグザグスキャン(Zig-zag Scanning)とオル
タネートスキャン(Alternate Scanning)とがあり、画
像の種類に応じて切り換えて使用される。オルタネート
スキャンは、インタレース画像の場合に有効である。ま
た、可変長符号化ユニット16は、動きベクトル探索ユ
ニット26から出力された動きベクトル情報を可変長符
号化し、バッファユニット17に出力する。
The variable length coding unit 16 converts the two-dimensional coefficients into a one-dimensional coefficient sequence by sequentially scanning the DCT coefficients quantized by the quantization unit 15 from a low frequency component, and converts these coefficients into a one-dimensional coefficient sequence. Is subjected to variable-length encoding based on a run indicating the number of consecutive zero coefficients in the one-dimensional coefficient sequence and a level indicating the value of the non-zero coefficient, and outputs encoded data to the buffer unit 17. The scanning order is
There are so-called zig-zag scanning and alternate scanning, which are used by switching according to the type of image. The alternate scan is effective for an interlaced image. Further, the variable length coding unit 16 performs variable length coding on the motion vector information output from the motion vector search unit 26 and outputs the result to the buffer unit 17.

【0042】バッファユニット17は、可変長符号化ユ
ニット16から符号化データを入力し、ビットレートを
平均化しながら出力する。すなわち、バッファユニット
17はその画像の複雑さや動きの激しさによって発生符
号量が変動するため、この変動を吸収して符号化データ
を略一定の伝送速度でビットストリームとして伝送する
ものである。バッファユニット17から出力された符号
化データは、出力端子2を通して出力され、図外の伝送
路を経て外部デコーダに伝送される。
The buffer unit 17 receives the coded data from the variable length coding unit 16 and outputs the data while averaging the bit rate. That is, since the generated code amount fluctuates due to the complexity of the image and the intensity of the movement, the buffer unit 17 absorbs this fluctuation and transmits the encoded data as a bit stream at a substantially constant transmission speed. The encoded data output from the buffer unit 17 is output through the output terminal 2 and transmitted to an external decoder via a transmission path (not shown).

【0043】符号量制御ユニット18は、バッファユニ
ット17の符号化データの占有率を監視することによっ
て発生符号量を把握し、目標ビットレートに合せるよう
量子化ユニット15の量子化スケールを制御する。逆量
子化ユニット21は、量子化ユニット15により量子化
された各DCT係数に量子化時と同じ量子化ステップを
乗ずることにより逆量子化を行い、逆DCTユニット2
2に出力する。逆DCTユニット22は、逆量子化され
た2次元係数を逆DCT演算した後、8画素×8画素の
各ブロックから16画素×16画素のマクロブロックを
合成することで、予測誤差信号の復元画像を生成し、再
生画像生成ユニット23に出力する。
The code amount control unit 18 grasps the generated code amount by monitoring the occupation rate of the coded data in the buffer unit 17, and controls the quantization scale of the quantization unit 15 so as to match the target bit rate. The inverse quantization unit 21 performs inverse quantization by multiplying each DCT coefficient quantized by the quantization unit 15 by the same quantization step as that at the time of quantization.
Output to 2. The inverse DCT unit 22 performs an inverse DCT operation on the inversely quantized two-dimensional coefficient, and then synthesizes a macroblock of 16 pixels × 16 pixels from each block of 8 pixels × 8 pixels to obtain a restored image of the prediction error signal. Is generated and output to the reproduced image generation unit 23.

【0044】再生画像生成ユニット23は、逆DCTユ
ニット22から出力された予測誤差信号の復元画像およ
び動き補償予測ユニット25から出力された予測画像に
基づいて原画像に対応する再生画像を生成し、再生画像
記憶ユニット24に記憶する。すなわち、逆量子化ユニ
ット21、逆DCTユニット22および再生画像生成ユ
ニット23により局部復号化が行われることになり、再
生画像記憶ユニット24に記憶された再生画像は、後に
符号化されるPピクチャまたはBピクチャの参照画像と
なる。
The reproduced image generation unit 23 generates a reproduced image corresponding to the original image based on the restored image of the prediction error signal output from the inverse DCT unit 22 and the predicted image output from the motion compensation prediction unit 25, It is stored in the reproduced image storage unit 24. That is, local decoding is performed by the inverse quantization unit 21, the inverse DCT unit 22, and the reproduced image generation unit 23, and the reproduced image stored in the reproduced image storage unit 24 is a P picture or This becomes the reference image of the B picture.

【0045】動き補償予測ユニット25は、再生画像生
成ユニット24に記憶された再生画像および動きベクト
ル探索ユニット26によって探索された動きベクトルに
基づいて、イントラブロック、単純フレーム間ブロッ
ク、動き補償フレーム間ブロック等の各マクロブロック
属性における予測画像を生成し、それぞれ予測誤差信号
生成ユニット13から出力される予測誤差信号とした場
合の発生符号量を推定し、符号化モード制御ユニット1
2に出力する。
The motion compensation prediction unit 25 performs an intra block, a simple inter-frame block, and a motion compensation inter-frame block on the basis of the reproduced image stored in the reproduced image And the like, generate a prediction image in each macroblock attribute, estimate the amount of generated code when the prediction error signal is output from the prediction error signal generation unit 13, and calculate the coding mode control unit 1
Output to 2.

【0046】符号化モード制御ユニット12では、動き
補償予測ユニット25により出力された各マクロブロッ
ク属性における予測誤差信号とした場合の発生符号量の
推定値、並びに、動きベクトル探索ユニット26から出
力された動きベクトル情報に基づいて、そのマクロブロ
ックの発生符号量が最も小さくなるマクロブロック属性
が決定される。動き補償予測ユニット25は、符号化モ
ード制御ユニット12により決定されたマクロブロック
属性に基づいて予測画像を再生画像生成ユニット23に
出力する。
In the coding mode control unit 12, the estimated value of the generated code amount as a prediction error signal in each macroblock attribute output from the motion compensation prediction unit 25 and the output from the motion vector search unit 26 Based on the motion vector information, the macroblock attribute that minimizes the generated code amount of the macroblock is determined. The motion compensation prediction unit 25 outputs a predicted image to the reproduced image generation unit 23 based on the macroblock attribute determined by the coding mode control unit 12.

【0047】動きベクトル探索ユニット26は、符号化
モード制御ユニット12から出力された画面構造および
ピクチャタイプに応じて、前処理ユニット11から出力
されたマクロブロック毎に、入力画像(現画像)の画像
情報と再生画像記憶ユニット24に記憶された参照画像
(既に符号化されたIピクチャまたはPピクチャ)の画
像情報に基づいて動きベクトルを求め、動きベクトル情
報を符号化モード制御ユニット12、動き補償予測ユニ
ット26、再生画像記憶ユニット24および可変長符号
化ユニット16に出力する。
The motion vector search unit 26 determines the image of the input image (current image) for each macroblock output from the preprocessing unit 11 according to the picture structure and picture type output from the encoding mode control unit 12. A motion vector is obtained based on the information and the image information of the reference image (an already encoded I picture or P picture) stored in the reproduced image storage unit 24, and the motion vector information is obtained by the coding mode control unit 12, the motion compensation prediction. The data is output to the unit 26, the reproduced image storage unit 24, and the variable length encoding unit 16.

【0048】ここで、画面構造がフレーム構造の場合に
は、16画素×16画素のマクロブロックは、従来の技
術において説明した現画像フレームブロックに相当し、
動きベクトル探索ユニット26は、現画像フレームブロ
ックに対応するフレーム動きベクトルMVA、現画像第
1フィールドブロックに対応する第1フィールド動きベ
クトルMVA1および現画像第2フィールドブロックに
対応する第2フィールド動きベクトルMVA2をそれぞ
れ求め、これらの動きベクトルの中から最適な1本のフ
レーム動きベクトルMVAまたは2本のフィールド動き
ベクトルMVA1,MVA2を選択して出力する。
Here, when the screen structure is a frame structure, a macroblock of 16 pixels × 16 pixels corresponds to the current image frame block described in the related art.
The motion vector search unit 26 includes a frame motion vector MVA corresponding to the current image frame block, a first field motion vector MVA1 corresponding to the current image first field block, and a second field motion vector MVA2 corresponding to the current image second field block. , And an optimal one frame motion vector MVA or two field motion vectors MVA1 and MVA2 are selected and output from these motion vectors.

【0049】一方、画面構造がフィールド構造の場合に
は、16画素×16画素のマクロブロックは、従来の技
術で説明した現画像フィールドブロックに相当し、動き
ベクトル探索ユニット26は、現画像フィールドブロッ
クに対応するフィールド動きベクトルMVB、現画像第
1セグメントブロックに対応する第1セグメント動きベ
クトルMVB1および現画像第2セグメントブロックに
対応する第2セグメント動きベクトルMVB2をそれぞ
れ求め、これらの動きベクトルの中から最適な1本のフ
ィールド動きベクトルMVBまたは2本のセグメント動
きベクトルMVB1,MVB2を選択して出力する。
On the other hand, when the screen structure is a field structure, a macroblock of 16 pixels × 16 pixels corresponds to the current image field block described in the prior art, and the motion vector search unit 26 , A first segment motion vector MVB1 corresponding to the first segment block of the current image, and a second segment motion vector MVB2 corresponding to the second segment block of the current image. An optimal one field motion vector MVB or two segment motion vectors MVB1 and MVB2 are selected and output.

【0050】また、動きベクトル探索ユニット26は、
上記各動きベクトルをそれぞれ、図9に示された粗い探
索(第1段階の探索)と細かい探索(第2段階の探索)
の2段階探索により探索するものであり、図2に示すよ
うに、判定段階切換ユニット30、第1探索領域設定ユ
ニット31、第1動きベクトル探索ユニット32、第2
探索領域設定ユニット33、第2動きベクトル探索ユニ
ット34、動きベクトル加算ユニット35および動きベ
クトル判定ユニット36を備えている。各ユニットは、
前記バスに接続されたローカルバス37によって互いに
接続されている。
Also, the motion vector search unit 26
Each of the motion vectors is roughly searched (first-stage search) and finely searched (second-stage search) shown in FIG.
As shown in FIG. 2, a determination stage switching unit 30, a first search area setting unit 31, a first motion vector search unit 32, and a second
A search area setting unit 33, a second motion vector search unit 34, a motion vector addition unit 35, and a motion vector determination unit 36 are provided. Each unit is
They are connected to each other by a local bus 37 connected to the bus.

【0051】判定段階切換ユニット30は、選択手段の
機能を有し、符号化モード制御ユニット12から出力さ
れたピクチャタイプに基づいて、動きベクトルを判定す
る段階を切り換え、判定段階を表す情報を第1動きベク
トル探索ユニット32、第2探索領域設定ユニット3
3、第2動きベクトル探索ユニット34および動きベク
トル判定ユニット36に出力する。
The decision stage switching unit 30 has a function of a selection unit, and switches the stage for judging a motion vector based on the picture type output from the coding mode control unit 12, and outputs information representing the decision stage to the fourth stage. 1 motion vector search unit 32, 2nd search area setting unit 3
3. Output to the second motion vector search unit 34 and the motion vector determination unit 36.

【0052】ここで、判定段階は、ピクチャタイプがP
ピクチャの場合には第2段階を表し、ピクチャタイプが
Bピクチャの場合には第1段階を表す。すなわち、Pピ
クチャの場合には、マクロブロックに含まれる3種類の
現画像ブロックに対し、それぞれ第1段階の探索および
第2段階の探索により求められた3本の動きベクトルか
ら最適な動きベクトルが判定される一方、Bピクチャの
場合には、第1段階の探索により求められた3本の動き
ベクトルから最適な動きベクトルが判定される。
Here, in the determination step, when the picture type is P
In the case of a picture, it represents the second stage, and when the picture type is a B picture, it represents the first stage. That is, in the case of a P picture, an optimal motion vector is obtained from three motion vectors obtained by the first-stage search and the second-stage search for the three types of current image blocks included in the macroblock. On the other hand, in the case of a B picture, an optimal motion vector is determined from three motion vectors obtained by the first-stage search.

【0053】第1探索領域設定ユニット31は、符号化
モード制御ユニット12から出力された画面構造に基づ
いて、マクロブロックに含まれる3種類の現画像ブロッ
クに対応する探索領域をそれぞれ設定する。各探索領域
はそれぞれ、再生画像記憶ユニット24に記憶された参
照画像から、水平走査方向および垂直走査方向の画素を
それぞれスキップして探索点を抽出することにより、探
索密度は粗いが、広い探索領域が設定される。
The first search area setting unit 31 sets search areas corresponding to three types of current image blocks included in a macroblock, based on the screen structure output from the encoding mode control unit 12. Each search area has a coarse search density but a large search area by skipping pixels in the horizontal scanning direction and the vertical scanning direction, respectively, from the reference image stored in the reproduced image storage unit 24 and extracting search points. Is set.

【0054】第1動きベクトル探索ユニット32は、前
処理ユニット11から出力されたマクロブロック毎に、
符号化モード制御ユニット12から出力された画面構造
に基づいて、マクロブロックに含まれる3種類の現画像
ブロックに対し、第1探索領域設定ユニット31により
設定された探索領域の中からそれぞれ動きベクトルを求
め、予測精度の粗い第1段階の動きベクトル探索を行
う。
The first motion vector search unit 32 performs, for each macroblock output from the preprocessing unit 11,
Based on the screen structure output from the encoding mode control unit 12, for each of the three types of current image blocks included in the macroblock, a motion vector is selected from among the search areas set by the first search area setting unit 31. Then, a first-stage motion vector search with rough prediction accuracy is performed.

【0055】具体的には、まず、各候補ブロックの画素
データと現画像ブロックの画素データとの差分を表すデ
ィストーションがそれぞれ演算される。次いで、演算さ
れたディストーションの中から最小の値をもつディスト
ーション(最小ディストーション)を特定することによ
り、現画像ブロックに最も類似した候補ブロック(類似
ブロック)が特定される。次いで、この類似ブロックと
現画像ブロックとの変位が演算されて動きベクトルが求
められる。
Specifically, first, a distortion representing a difference between the pixel data of each candidate block and the pixel data of the current image block is calculated. Next, a candidate block (similar block) most similar to the current image block is specified by specifying the distortion having the minimum value (minimum distortion) from the calculated distortions. Next, a displacement between the similar block and the current image block is calculated to obtain a motion vector.

【0056】求められた動きベクトルおよび最小ディス
トーションは、判定段階切換ユニット30から出力され
た判定段階を表す情報に基づいて出力される。ここで、
判定段階が第1段階(Bピクチャ)の場合には、求めら
れた全ての動きベクトルおよび最小ディストーションが
動きベクトル判定ユニット36に出力される。一方、判
定段階が第2段階(Pピクチャ)の場合には、求められ
た全ての動きベクトルが第2探索領域設定ユニット3
3、第2動きベクトル探索ユニット34および動きベク
トル加算ユニット35に出力される。
The determined motion vector and the minimum distortion are output based on the information indicating the determination stage output from the determination stage switching unit 30. here,
If the determination stage is the first stage (B picture), all the obtained motion vectors and the minimum distortion are output to the motion vector determination unit 36. On the other hand, when the determination step is the second step (P picture), all the obtained motion vectors are stored in the second search area setting unit 3.
3. It is output to the second motion vector search unit 34 and the motion vector addition unit 35.

【0057】第2探索領域設定ユニット33は、第1動
きベクトル探索ユニット32または動きベクトル判定ユ
ニット36から第1段階の動きベクトルを入力し、入力
された第1段階の動きベクトルの現画像ブロックに対す
る探索領域を、第1動きベクトル探索ユニット32によ
り探索された候補ブロック(類似ブロック)の近傍に設
定する。これらの探索領域は第1探索領域設定ユニット
31により設定された探索領域より狭く、かつ探索領域
内の全ての画素の画像情報が再生画像記憶ユニット24
から抽出されるように、探索密度の細かい探索領域が設
定される。
The second search area setting unit 33 receives the first-stage motion vector from the first motion vector search unit 32 or the motion vector determination unit 36, and inputs the first-stage motion vector to the current image block. A search area is set near a candidate block (similar block) searched by the first motion vector search unit 32. These search areas are narrower than the search area set by the first search area setting unit 31, and the image information of all the pixels in the search area is stored in the reproduced image storage unit 24.
, A search area with a fine search density is set.

【0058】第2動きベクトル探索ユニット34は、第
1動きベクトル探索ユニット32または動きベクトル判
定ユニット36から第1段階の動きベクトルを入力し、
入力された第1段階の動きベクトルに対応する現画像ブ
ロックに対し、第2探索領域設定ユニット33により設
定された探索領域の中から、動きベクトルおよび最小デ
ィストーションを求め、予測精度の細かい第2段階の動
きベクトル探索を行う。
The second motion vector search unit 34 receives the first-stage motion vector from the first motion vector search unit 32 or the motion vector determination unit 36,
With respect to the current image block corresponding to the input first-stage motion vector, a motion vector and a minimum distortion are obtained from the search area set by the second search area setting unit 33, and the second-step fine prediction accuracy is obtained. Is performed.

【0059】ここで、動きベクトルおよび最小ディスト
ーションは、第1動きベクトル探索ユニット32と同様
に求められるが、動きベクトルは、第1動きベクトル探
索ユニット32により特定された類似ブロックと第2動
きベクトル探索ユニット34により特定された類似ブロ
ックとの変位を表す。求められた動きベクトルおよび最
小ディストーションは、動きベクトル加算ユニット35
に出力される。
Here, the motion vector and the minimum distortion are obtained in the same manner as in the first motion vector search unit 32. This represents the displacement from the similar block specified by the unit 34. The obtained motion vector and the minimum distortion are calculated by the motion vector adding unit 35.
Is output to

【0060】動きベクトル加算ユニット35は、同一の
現画像ブロックに対応する第1段階の動きベクトルと第
2段階の動きベクトルとを加算して、各現画像ブロック
の最終動きベクトルを求める。最終動きベクトルは、判
定段階切換ユニット30から出力された判定段階を表す
情報に基づいて出力される。ここで、判定段階が第1段
階(Bピクチャ)の場合には、最終動きベクトルはその
まま符号化モード制御ユニット12や動き補償予測ユニ
ット25等に出力される。一方、判定段階が第2段階
(Pピクチャ)の場合には、最終動きベクトルは動きベ
クトル判定ユニット36に出力される。
The motion vector adding unit 35 adds the first-stage motion vector and the second-stage motion vector corresponding to the same current image block to obtain the final motion vector of each current image block. The final motion vector is output based on the information indicating the determination stage output from the determination stage switching unit 30. Here, when the determination stage is the first stage (B picture), the final motion vector is output as it is to the coding mode control unit 12, the motion compensation prediction unit 25, and the like. On the other hand, when the determination stage is the second stage (P picture), the final motion vector is output to the motion vector determination unit 36.

【0061】動きベクトル判定ユニット36は、第1動
きベクトル探索ユニット32から出力された第1段階の
動きベクトルまたは動きベクトル加算ユニット35から
出力された最終動きベクトルを入力し、入力された動き
ベクトルの中から最適な動きベクトルを選択して出力す
る。ここで、画面構造がフレーム構造の場合には、ま
ず、第1フィールド動きベクトルの最小ディストーショ
ンと第2フィールド動きベクトルの最小ディストーショ
ンとが加算され、次いで、この加算された最小ディスト
ーションとフレーム動きベクトルの最小ディストーショ
ンとが比較され、値が小さいほうが最適な動きベクトル
として判定される。
The motion vector determining unit 36 receives the first-stage motion vector output from the first motion vector searching unit 32 or the final motion vector output from the motion vector adding unit 35, and Select and output the optimal motion vector from among them. Here, when the screen structure is a frame structure, first, the minimum distortion of the first field motion vector and the minimum distortion of the second field motion vector are added, and then the added minimum distortion and the frame motion vector are added. The minimum distortion is compared with the minimum distortion, and the smaller value is determined as the optimal motion vector.

【0062】一方、画面構造がフィールド構造の場合に
は、まず、第1セグメント動きベクトルの最小ディスト
ーションと第2セグメント動きベクトルの最小ディスト
ーションとが加算され、次いで、この加算された最小デ
ィストーションとフィールド動きベクトルの最小ディス
トーションとが比較され、値が小さいほうが最適な動き
ベクトルとして判定される。
On the other hand, when the screen structure is a field structure, first, the minimum distortion of the first segment motion vector and the minimum distortion of the second segment motion vector are added, and then the added minimum distortion and the field motion are added. The vector is compared with the minimum distortion, and the smaller value is determined as the optimal motion vector.

【0063】これらの動きベクトルは、判定段階切換ユ
ニット30から出力された判定段階を表す情報に基づい
て出力される。ここで、判定段階が第1段階(Bピクチ
ャ)の場合には、選択された動きベクトルは第2探索領
域設定ユニット33および第2動きベクトル探索ユニッ
ト34に出力される。一方、判定段階が第2段階(Pピ
クチャ)の場合には、選択された動きベクトルは符号化
モード制御ユニット12や動き補償予測ユニット25等
に出力される。
These motion vectors are output based on the information indicating the determination stage output from the determination stage switching unit 30. Here, when the determination step is the first step (B picture), the selected motion vector is output to the second search area setting unit 33 and the second motion vector search unit 34. On the other hand, when the determination stage is the second stage (P picture), the selected motion vector is output to the coding mode control unit 12, the motion compensation prediction unit 25, and the like.

【0064】すなわち、本動画像圧縮装置は、予め動き
ベクトル探索ユニット26により、フレーム構造の場合
には、1本のフレーム動きベクトルおよび2本のフィー
ルド動きベクトルの中から最適な動きベクトルを判定す
るとともに、フィールド構造の場合には、1本のフィー
ルド動きベクトルおよび2本のセグメント動きベクトル
の中から最適な動きベクトルを判定するものである。そ
して、ピクチャタイプに応じて動きベクトルを判定する
時期を判定段階切換ユニット30によって切り換え、ピ
クチャタイプがPピクチャの場合には、第1および第2
段階の動きベクトルを加算して得られた最終動きベクト
ルの中から最適な動きベクトルを判定する一方、ピクチ
ャタイプがBピクチャの場合には、第1動きベクトル探
索ユニット32により得られた第1段階の動きベクトル
から最適な動きベクトルを判定する。
That is, in the main moving picture compression apparatus, in the case of a frame structure, the optimum motion vector is determined from one frame motion vector and two field motion vectors by the motion vector search unit 26 in advance. In addition, in the case of a field structure, an optimum motion vector is determined from one field motion vector and two segment motion vectors. Then, the timing for determining the motion vector is switched by the determination step switching unit 30 according to the picture type. If the picture type is a P picture, the first and second
While the optimal motion vector is determined from the final motion vectors obtained by adding the motion vectors of the stages, if the picture type is a B picture, the first motion vector obtained by the first motion vector searching unit 32 An optimal motion vector is determined from the motion vectors.

【0065】第1段階の動きベクトルは、探索密度が粗
いが、広い探索領域から求められるので、動きベクトル
の大きさは第2段階の動きベクトルと比較して同等また
はその数倍の大きさとなる。これに対し、第2段階の動
きベクトルは探索密度は細かいが狭い探索領域から求め
られるので、動きベクトルの大きさは小さいものとな
る。このため、Bピクチャの場合には、第1段階の動き
ベクトルに基づいて動きベクトル判定を行うことで、多
少の画質劣化を許容している。Bピクチャの場合には、
多少画質を落しても動画像全体としての画質劣化にあま
り影響しないからである。しかし、Pピクチャの場合に
画質劣化があると動画像全体の画質劣化に影響してしま
う。よって、Pピクチャの場合には、動きベクトル加算
ユニット35により加算された最終動きベクトルから最
適な動きベクトルを判定している。
The first-stage motion vector has a low search density, but is obtained from a wide search area. Therefore, the magnitude of the motion vector is equal to or several times as large as that of the second-stage motion vector. . On the other hand, the second-stage motion vector has a small search density but is obtained from a narrow search area, so that the size of the motion vector is small. For this reason, in the case of a B picture, a slight deterioration in image quality is allowed by performing a motion vector determination based on the first-stage motion vector. In the case of a B picture,
This is because, even if the image quality is slightly reduced, the image quality of the whole moving image is not significantly deteriorated. However, if the picture quality is deteriorated in the case of a P picture, the picture quality of the entire moving image is affected. Therefore, in the case of a P picture, an optimal motion vector is determined from the final motion vector added by the motion vector adding unit 35.

【0066】次に、本発明の実施の態様を説明する。以
下、各画面毎に動きベクトル探索ユニット26により動
きベクトルを探索する動作を図3に示されたフローチャ
ートに基づいて説明する。ここで、符号化制御モード制
御ユニット12により判別された各画面の画面構造およ
びピクチャタイプが動きベクトル探索ユニット26にそ
れぞれ入力されるとともに、PピクチャまたはBピクチ
ャの場合には、イントラスライスの指定により予めイン
トラブロックとして決定されたマクロブロック属性が符
号化モード制御ユニット12から動きベクトル探索ユニ
ット26に入力されるものとする。
Next, embodiments of the present invention will be described. Hereinafter, the operation of searching for a motion vector by the motion vector search unit 26 for each screen will be described based on the flowchart shown in FIG. Here, the screen structure and the picture type of each screen determined by the encoding control mode control unit 12 are respectively input to the motion vector search unit 26, and in the case of a P picture or a B picture, the It is assumed that a macroblock attribute determined in advance as an intra block is input from the coding mode control unit 12 to the motion vector search unit 26.

【0067】まず、符号化モード制御ユニット12から
出力されたピクチャタイプを判断する(ステップS
1)。ここで、ピクチャタイプがIピクチャであると判
断された場合には、すべてのマクロブロックがイントラ
ブロックであるので、動きベクトル探索は行わずにその
画面に対する処理を終了する。また、ステップS1でピ
クチャタイプがPピクチャであると判断された場合に
は、判定段階切換ユニット30により判定段階を第2段
階に切り換える(ステップS2)。
First, the type of picture output from the encoding mode control unit 12 is determined (step S).
1). Here, if the picture type is determined to be an I picture, all macroblocks are intra blocks, and thus the processing for the screen is terminated without performing a motion vector search. If it is determined in step S1 that the picture type is a P-picture, the determination stage switching unit 30 switches the determination stage to the second stage (step S2).

【0068】次に、処理すべきマクロブロックがあるか
否か判断する(ステップS3)。ここで、処理すべきマ
クロブロックがない場合には、その画面に対する処理を
終了する。一方、処理すべきマクロブロックがある場合
には、予めそのマクロブロックがイントラブロックとし
て決定されているか否かを判断する(ステップS4)。
Next, it is determined whether or not there is a macro block to be processed (step S3). Here, when there is no macro block to be processed, the processing for the screen is ended. On the other hand, if there is a macro block to be processed, it is determined whether or not the macro block has been determined as an intra block in advance (step S4).

【0069】ここで、マクロブロック属性がイントラブ
ロックとして決定されている場合には、動きベクトル探
索は行わずにステップS3に戻る。一方、マクロブロッ
ク属性がイントラブロックとして決定されていない場合
には、第1探索領域設定ユニット31によりマクロブロ
ックに含まれる現画像ブロックに対応する探索領域が設
定され、設定された探索領域の画素データとマクロブロ
ックの画素データに基づいて第1動きベクトル探索ユニ
ット42により第1段階の動きベクトルが探索され、第
2探索領域設定ユニット33および第2動きベクトル探
索ユニット34に出力される(ステップS5)。
If the macroblock attribute is determined to be an intra block, the process returns to step S3 without performing a motion vector search. On the other hand, if the macroblock attribute is not determined as an intra block, the first search area setting unit 31 sets a search area corresponding to the current image block included in the macroblock, and sets the pixel data of the set search area. A first-stage motion vector is searched by the first motion vector search unit 42 based on the pixel data of the macroblock and the macroblock, and is output to the second search area setting unit 33 and the second motion vector search unit 34 (step S5). .

【0070】次に、第1動きベクトル探索ユニット32
により探索された第1段階の動きベクトルに対して、第
2探索領域設定ユニット42により探索領域が設定さ
れ、設定された探索領域の画素データとマクロブロック
の画素データとに基づいて第2動きベクトル探索ユニッ
ト34により第2段階の動きベクトルが探索され、動き
ベクトル加算ユニット35に出力される(ステップS
6)。
Next, the first motion vector search unit 32
A search area is set by the second search area setting unit 42 with respect to the first-stage motion vector searched by the second step. The second motion vector is set based on the pixel data of the set search area and the pixel data of the macroblock. A second stage motion vector is searched by the search unit 34 and output to the motion vector addition unit 35 (step S
6).

【0071】次に、動きベクトル加算ユニット35によ
り、同一の現画像ブロックに対応する第1段階の動きベ
クトルと第2段階の動きベクトルとが加算され、加算さ
れた最終動きベクトルが動きベクトル判定ユニット36
に出力される(ステップS7)。次に、動きベクトル判
定ユニット36により、最終動きベクトルの中から最適
な動きベクトルが選択され、動き補償予測ユニット25
に出力され、再びステップS3に戻る(ステップS
8)。
Next, the first-stage motion vector and the second-stage motion vector corresponding to the same current image block are added by the motion vector adding unit 35, and the added final motion vector is added to the motion vector determination unit. 36
(Step S7). Next, the optimal motion vector is selected from the final motion vectors by the motion vector determination unit 36, and the motion compensated prediction unit 25 is selected.
And returns to step S3 again (step S3).
8).

【0072】さらに、ステップS1でピクチャタイプが
Bピクチャであると判断された場合には、判定段階切換
ユニット30により判定段階を第1段階に切り換える
(ステップS9)。次に、処理すべきマクロブロックが
あるか否か判断する(ステップS10)。ここで、処理
すべきマクロブロックがない場合には、その画面に対す
る処理を終了する。一方、処理すべきマクロブロックが
ある場合には、予めそのマクロブロックがイントラブロ
ックとして決定されているか否かを判断する(ステップ
S11)。
Further, when it is determined in step S1 that the picture type is a B picture, the determination stage is switched to the first stage by the determination stage switching unit 30 (step S9). Next, it is determined whether there is a macro block to be processed (step S10). Here, when there is no macro block to be processed, the processing for the screen is ended. On the other hand, when there is a macro block to be processed, it is determined whether or not the macro block has been determined as an intra block in advance (step S11).

【0073】ここで、マクロブロック属性がイントラブ
ロックとして決定されている場合には、動きベクトル探
索は行わずにステップS10に戻る。一方、マクロブロ
ック属性がイントラブロックとして決定されていない場
合には、第1探索領域設定ユニット31によりマクロブ
ロックに含まれる現画像ブロックに対応する探索領域が
設定され、設定された探索領域の画素データとマクロブ
ロックの画素データに基づいて第1動きベクトル探索ユ
ニット42により第1段階の動きベクトルが探索され、
動きベクトル判定ユニット36に出力される(ステップ
S12)。
If the macroblock attribute is determined as an intra block, the process returns to step S10 without performing a motion vector search. On the other hand, if the macroblock attribute is not determined as an intra block, the first search area setting unit 31 sets a search area corresponding to the current image block included in the macroblock, and sets the pixel data of the set search area. A first-stage motion vector is searched by the first motion vector search unit 42 based on the pixel data of the macro block and
It is output to the motion vector determination unit 36 (step S12).

【0074】次に、第1動きベクトル探索ユニット32
により探索された第1段階の動きベクトルの中から動き
ベクトル判定ユニット36により最適な動きベクトルが
選択され、第2探索領域設定ユニット33および第2動
きベクトル探索ユニット34にそれぞれ出力される(ス
テップS13)。次に、動きベクトル判定ユニット36
により選択された第1段階の動きベクトルに対し、第2
探索領域設定ユニット33により探索領域が設定され、
設定された探索領域の画素データとマクロブロックの画
素データに基づいて第2動きベクトル探索ユニット34
により第2段階の動きベクトルが探索され、動きベクト
ル加算ユニット35に出力される(ステップS14)。
Next, the first motion vector search unit 32
The optimal motion vector is selected by the motion vector determination unit 36 from the first-stage motion vectors searched for by (1), and is output to the second search area setting unit 33 and the second motion vector search unit 34 (step S13). ). Next, the motion vector determination unit 36
The motion vector of the first stage selected by
A search area is set by the search area setting unit 33,
A second motion vector search unit 34 based on the set search area pixel data and macroblock pixel data.
, A second-stage motion vector is searched for and output to the motion vector addition unit 35 (step S14).

【0075】次に、動きベクトル加算ユニット35によ
り、同一の現画像ブロックに対応する第1段階の動きベ
クトルと第2段階の動きベクトルとが加算され、動き補
償予測ユニット25に出力され、再びステップS10に
戻る(ステップS15)。このように、符号化モード制
御ユニット12から出力されたピクチャタイプに応じて
判定段階を切り換えて動きベクトルを探索しているの
で、Pピクチャの場合には、第1および第2段階の動き
ベクトルが加算された最終動きベクトルに基づいて最適
な動きベクトルが判定されるとともに、Bピクチャの場
合には、第1段階の動きベクトルにより最適な動きベク
トルが判定される。
Next, the first-stage motion vector and the second-stage motion vector corresponding to the same current picture block are added by the motion vector adding unit 35 and output to the motion compensation prediction unit 25. It returns to S10 (step S15). As described above, since the motion vector is searched by switching the determination step according to the picture type output from the encoding mode control unit 12, in the case of a P picture, the motion vectors of the first and second steps are The optimal motion vector is determined based on the added final motion vector, and in the case of a B picture, the optimal motion vector is determined based on the first-stage motion vector.

【0076】このため、Bピクチャの動きベクトル探索
処理量を大幅に削減することができるので、Pピクチャ
およびBピクチャの動きベクトル探索処理量を平均化し
て動きベクトル探索処理を効率良く行うことができる。
従って、動画像全体の画質を低下させることなく、符号
化処理を高速化することができる。なお、本実施の形態
の動画像圧縮装置の動きベクトル探索26では、多段階
探索方法を採用し、ピクチャタイプに応じて動きベクト
ルを判定する時期を切り換えたが、従来の技術で説明し
た階層探索方法により上位階層から下位階層の動きベク
トルを探索する場合にも、同様にピクチャタイプに応じ
て判定時期を切り換えることで動きベクトル探索処理を
効率良く行うことができることはいうまでもない。
As a result, the amount of motion vector search processing for B pictures can be significantly reduced, and the amount of motion vector search processing for P pictures and B pictures can be averaged to efficiently perform motion vector search processing. .
Therefore, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image. In the motion vector search 26 of the moving picture compression apparatus according to the present embodiment, a multi-step search method is employed, and the timing for determining the motion vector is switched according to the picture type. Also when searching for a motion vector from a higher layer to a lower layer by the method, it is needless to say that the motion vector search process can be efficiently performed by switching the determination time according to the picture type in the same manner.

【0077】[0077]

【発明の効果】請求項1に記載の発明によれば、画像判
別工程により判別された予測画像の種類に応じて、第1
および第2の判定工程のうち何れか一方の判定工程を選
択することができるので、動きベクトル探索処理量が大
きく、かつ動きベクトルの予測精度の低下が許容可能な
予測画像の場合には、第1の判定工程により最適な動き
ベクトルを判定することにより、動きベクトル探索処理
量を削減して、各予測画像の動きベクトル探索処理量を
平均化することができる。従って、動画像全体としての
画質を低下させることなく、符号化処理を高速化するこ
とができる。
According to the first aspect of the present invention, the first type of the predicted image is determined according to the type of the predicted image determined in the image determining step.
And any one of the second determination steps can be selected. Therefore, in the case of a predicted image in which the amount of motion vector search processing is large and a reduction in the prediction accuracy of the motion vector is acceptable, By determining the optimal motion vector in the first determination step, the amount of motion vector search processing can be reduced, and the amount of motion vector search processing of each predicted image can be averaged. Accordingly, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image.

【0078】請求項2に記載の発明によれば、請求項1
に記載の発明において、予測画像が前方向予測画像の場
合、第2の動きベクトル判定工程で最適な動きベクトル
を判定するとともに、予測画像が双方向予測画像の場
合、第1の動きベクトル判定工程で最適な動きベクトル
を判定するので、双方向予測画像の動きベクトル探索処
理量を削減して、前方向予測画像および双方向予測画像
の動きベクトル探索処理量を平均化することができる。
従って、動画像全体としての画質を低下させることな
く、符号化処理を高速化することができる。
According to the invention of claim 2, according to claim 1,
In the invention described in the above, when the predicted image is a forward predicted image, an optimal motion vector is determined in a second motion vector determining step, and when the predicted image is a bidirectional predicted image, a first motion vector determining step is performed. Since the optimal motion vector is determined by the above, the amount of motion vector search processing of the bidirectional predicted image can be reduced, and the amount of motion vector search processing of the forward predicted image and the bidirectional predicted image can be averaged.
Accordingly, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image.

【0079】請求項3に記載の発明によれば、画像判別
工程により判別された予測画像の種類に応じて、第1お
よび第2の判定工程のうち何れか一方の判定工程を選択
することができるので、動きベクトル探索処理量が大き
く、かつ動きベクトルの予測精度の低下が許容可能な予
測画像の場合には、第1の判定工程により最適な動きベ
クトルを判定することにより、動きベクトル探索処理量
を削減して、各予測画像の動きベクトル探索処理量を平
均化することができる。従って、動画像全体としての画
質を低下させることなく、符号化処理を高速化すること
ができる。
According to the third aspect of the present invention, it is possible to select one of the first and second determination steps according to the type of the predicted image determined in the image determination step. Therefore, in the case of a predicted image in which the amount of motion vector search processing is large and the prediction accuracy of the motion vector can be tolerated, the first determination step determines the optimal motion vector. The amount can be reduced, and the motion vector search processing amount of each predicted image can be averaged. Accordingly, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image.

【0080】請求項4に記載の発明によれば、請求項3
に記載発明において、予測画像が前方向予測画像の場
合、第2の動きベクトル判定工程で最適な動きベクトル
を判定するとともに、予測画像が双方向予測画像の場
合、第1の動きベクトル判定工程で最適な動きベクトル
を判定するので、双方向予測画像の動きベクトル探索処
理を削減して、前方向予測画像および双方向予測画像の
動きベクトル探索処理量を平均化することができる。従
って、動画像全体としての画質を低下させることなく、
符号化処理を高速化することができる。
According to the invention set forth in claim 4, according to claim 3,
In the invention described in the above, when the predicted image is a forward predicted image, an optimal motion vector is determined in a second motion vector determination step, and when the predicted image is a bidirectional predicted image, a first motion vector determination step is performed Since the optimal motion vector is determined, it is possible to reduce the motion vector search processing of the bidirectional predicted image and average the motion vector search processing amounts of the forward predicted image and the bidirectional predicted image. Therefore, without deteriorating the image quality of the entire moving image,
It is possible to speed up the encoding process.

【0081】請求項5に記載の発明によれば、画像判別
手段により判別された予測画像の種類に応じて、第1お
よび第2の判定手段のうち何れか一方の判定手段を選択
することができるので、動きベクトル探索処理量が大き
く、かつ動きベクトルの予測精度の低下が許容可能な予
測画像の場合には、第1の判定手段により最適な動きベ
クトルを判定することにより、動きベクトル探索処理量
を削減して、各予測画像の動きベクトルを探索する処理
量を平均化することができる。従って、動画像全体とし
ての画質を低下させることなく、符号化処理を高速化す
ることができる。
According to the fifth aspect of the present invention, it is possible to select one of the first and second determination means according to the type of the predicted image determined by the image determination means. Therefore, in the case of a predicted image in which the amount of motion vector search processing is large and the prediction accuracy of the motion vector can be reduced, the first determination unit determines the optimal motion vector, and the motion vector search processing is performed. The amount can be reduced and the processing amount for searching for the motion vector of each predicted image can be averaged. Accordingly, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image.

【0082】請求項6に記載の発明によれば、請求項5
に記載発明において、予測画像が前方向予測画像の場
合、第2の動きベクトル判定手段で最適な動きベクトル
を判定するとともに、予測画像が双方向予測画像の場
合、第1の動きベクトル判定手段で最適な動きベクトル
を判定するので、双方向予測画像の動きベクトル探索処
理量を削減して、前方向予測画像および双方向予測画像
の動きベクトル探索処理量を平均化することができる。
従って、動画像全体としての画質を低下させることな
く、符号化処理を高速化することができる。
According to the invention described in claim 6, according to claim 5,
In the invention described in the above, when the predicted image is a forward predicted image, an optimal motion vector is determined by a second motion vector determining unit, and when the predicted image is a bidirectional predicted image, the first motion vector determining unit determines Since the optimum motion vector is determined, the amount of motion vector search processing of the bidirectional predicted image can be reduced, and the amount of motion vector search processing of the forward predicted image and the bidirectional predicted image can be averaged.
Accordingly, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image.

【0083】請求項7に記載の発明によれば、画像判別
手段により判別された予測画像の種類に応じて、第1お
よび第2の判定手段のうち何れか一方の判定手段を選択
することができるので、動きベクトル探索処理量が大き
く、かつ動きベクトルの予測精度の低下が許容可能な予
測画像の場合には、第1の判定手段により最適な動きベ
クトルを判定することにより、動きベクトル探索処理量
を削減して、各予測画像の動きベクトルを探索する処理
量を平均化することができる。従って、動画像全体とし
ての画質を低下させることなく、符号化処理を高速化す
ることができる。請求項8に記載の発明によれば、請求
項7に記載の発明において、予測画像が前方向予測画像
の場合、第2の動きベクトル判定手段で最適な動きベク
トルを判定するとともに、予測画像が双方向予測画像の
場合、第1の動きベクトル判定手段で最適な動きベクト
ルを判定するので、双方向予測画像の動きベクトル探索
処理量を削減して、前方向予測画像および双方向予測画
像の動きベクトル探索処理量を平均化することができ
る。従って、動画像全体としての画質を低下させること
なく、符号化処理を高速化することができる。
According to the seventh aspect of the present invention, it is possible to select one of the first and second determining means according to the type of the predicted image determined by the image determining means. Therefore, in the case of a predicted image in which the amount of motion vector search processing is large and the prediction accuracy of the motion vector can be tolerated, the first determination unit determines the optimal motion vector, and the motion vector search processing is performed. The amount can be reduced and the processing amount for searching for the motion vector of each predicted image can be averaged. Accordingly, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image. According to the invention described in claim 8, in the invention described in claim 7, when the prediction image is a forward prediction image, the second motion vector determination means determines an optimal motion vector, and the prediction image is In the case of a bidirectional predicted image, the first motion vector determining unit determines an optimal motion vector. Therefore, the amount of motion vector search processing of the bidirectional predicted image is reduced, and the motions of the forward predicted image and the bidirectional predicted image are reduced. The vector search processing amount can be averaged. Accordingly, it is possible to speed up the encoding process without deteriorating the image quality of the entire moving image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る実施形態の動画像圧縮装置の構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a moving image compression device according to an embodiment of the present invention.

【図2】動きベクトル探索ユニット26の構成を示すブ
ロック図である。
FIG. 2 is a block diagram showing a configuration of a motion vector search unit 26.

【図3】動きベクトル探索ユニット26により動きベク
トルを探索する動作を示すフローチャートである。
FIG. 3 is a flowchart showing an operation of searching for a motion vector by a motion vector search unit 26;

【図4】MPEGにおけるピクチャ構成を示す図であ
る。
FIG. 4 is a diagram showing a picture configuration in MPEG.

【図5】フレーム構造の動画像を示す図である。FIG. 5 is a diagram showing a moving image having a frame structure.

【図6】フレーム構造におけるフレーム予測方式および
フィールド予測方式の動きベクトルを示す図である。
FIG. 6 is a diagram showing motion vectors of a frame prediction method and a field prediction method in a frame structure.

【図7】フィールド構造の動画像を示す図である。FIG. 7 is a diagram showing a moving image having a field structure.

【図8】フィールド構造における16×16フィールド
予測方式および16×8フィールド予測方式の動きベク
トルを示す図である。
FIG. 8 is a diagram showing motion vectors of a 16 × 16 field prediction scheme and a 16 × 8 field prediction scheme in a field structure.

【図9】粗い探索および細かい探索の2段階探索方法に
よる動きベクトル探索方法を示す図である。
FIG. 9 is a diagram showing a motion vector search method by a two-step search method of a coarse search and a fine search.

【符号の説明】 1 画像信号入力端子 2 ビットストリーム出力端子 11 前処理ユニット(フォーマット変換手段) 12 符号化モード制御ユニット(画像判別手段) 13 予測誤差信号生成ユニット 14 DCTユニット 15 量子化ユニット 16 可変長符号化ユニット 17 バッファユニット 18 符号量制御ユニット 21 逆量子化ユニット 22 逆DCTユニット 23 再生画像生成ユニット 24 再生画像記憶ユニット 25 動き補償予測ユニット 26 動きベクトル探索ユニット 30 判定段階切換ユニット(選択手段) 31 第1探索領域設定ユニット(第1の探索領域設定
手段) 32 第1動きベクトル探索ユニット(第1の動きベク
トル探索手段) 33 第2探索領域設定ユニット(第2の探索領域設定
手段) 34 第2動きベクトル探索ユニット(第2の動きベク
トル探索手段) 35 動きベクトル加算ユニット 36 動きベクトル判定ユニット(第1および第2の動
きベクトル判定手段) 37 ローカルバス 110 現画像フレーム 111 現画像第1フィールド 112 現画像第2フィールド 120 参照画像フレーム 121 参照画像第1フィールド 122 参照画像第2フィールド 210 現画像フレームブロック 211 現画像第1フィールドブロック 212 現画像第2フィールドブロック 220 参照画像フレーム候補ブロック 221 参照画像第1フィールド候補ブロック 222 参照画像第2フィールド候補ブロック 310 現画像フィールド 320 参照画像フィールド 410 現画像フィールドブロック 211 現画像第1セグメントブロック 212 現画像第2セグメントブロック 420 参照画像フィールド候補ブロック 421 参照画像第1セグメント候補ブロック 422 参照画像第2セグメント候補ブロック
[Description of Code] 1 Image signal input terminal 2 Bit stream output terminal 11 Preprocessing unit (format conversion unit) 12 Encoding mode control unit (image discrimination unit) 13 Prediction error signal generation unit 14 DCT unit 15 Quantization unit 16 Variable Long coding unit 17 Buffer unit 18 Code amount control unit 21 Inverse quantization unit 22 Inverse DCT unit 23 Playback image generation unit 24 Playback image storage unit 25 Motion compensation prediction unit 26 Motion vector search unit 30 Judgment stage switching unit (selection means) 31 first search area setting unit (first search area setting means) 32 first motion vector search unit (first motion vector search means) 33 second search area setting unit (second search area setting means) 34 2 motion vector Search unit (second motion vector search means) 35 motion vector addition unit 36 motion vector determination unit (first and second motion vector determination means) 37 local bus 110 current image frame 111 current image first field 112 current image 2 field 120 reference image frame 121 reference image first field 122 reference image second field 210 current image frame block 211 current image first field block 212 current image second field block 220 reference image frame candidate block 221 reference image first field candidate Block 222 Reference image second field candidate block 310 Current image field 320 Reference image field 410 Current image field block 211 Current image first segment block 212 Current image number Segment block 420 the reference picture field candidate block 421 the reference image first segment candidate block 422 the reference image second segment candidate block

フロントページの続き (72)発明者 永井 律彦 東京都渋谷区代々木4丁目36番19号 株 式会社グラフィックス・コミュニケーシ ョン・ラボラトリーズ内 (56)参考文献 特開 平6−78292(JP,A) 安田浩「MPEG/マルチメディア符 号化の国際標準」丸善、平成6年9月30 日、p.44 (58)調査した分野(Int.Cl.6,DB名) H04N 7/24 - 7/68 Continued on the front page (72) Inventor Norihiko Nagai 4-36-19 Yoyogi, Shibuya-ku, Tokyo Inside Graphics Communication Laboratories (56) References JP-A-6-78292 (JP, A) Hiroshi Yasuda, “International Standard for MPEG / Multimedia Coding,” Maruzen, September 30, 1994, p. 44 (58) Field surveyed (Int.Cl. 6 , DB name) H04N 7/ 24-7/68

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】インタレース走査方式の動画像を構成する
各フレームに対し、該フレームを構成する画素に含まれ
る複数種類の画像情報をそれぞれ、所定の標本化周波数
に基づいて水平走査方向および垂直走査方向に抽出する
フォーマット変換工程を含み、該フォーマット変換工程
により抽出された各フレームに対し、フレーム内情報に
基づいて符号化されるフレーム内予測画像と、時間的に
前方向のフレームを参照画像として符号化される前方向
予測画像と、時間的に前方向および後方向のフレームを
それぞれ参照画像として符号化される双方向予測画像
と、をそれぞれ切り換えて生成する動画像圧縮方法であ
って、 前記フレーム内予測画像、前記前方向予測画像および前
記双方向予測画像のうち、符号化される予測画像を判別
する画像判別工程と、 前記フレームが第1フィールドおよび第2フィールドか
らなり、前記フレームを部分的に構成する現画像フレー
ムブロックが、該第1フィールドからなる現画像第1フ
ィールドブロックおよび該第2フィールドからなる現画
像第2フィールドブロックを含み、現画像フレームブロ
ック、現画像第1フィールドブロックおよび現画像第2
フィールドブロックに対し、前記参照画像を構成する画
素を代表する画像情報を抽出することにより、粗い探索
密度であり、かつ広い探索領域をそれぞれ設定する第1
の探索領域設定工程と、 第1の探索領域設定工程により設定された探索領域に基
づいて前記現画像フレームブロック、現画像第1フィー
ルドブロックおよび現画像第2フィールドブロックにそ
れぞれ最も類似した類似ブロックを特定し、現画像フレ
ームブロックに対応するフレーム動きベクトル、現画像
第1フィールドブロックに対応する第1フィールド動き
ベクトルおよび現画像第2フィールドブロックに対応す
る第2フィールド動きベクトルを探索する第1の動きベ
クトル探索工程と、 該第1の動きベクトル探索工程により特定された現画像
フレームブロック、現画像第1フィールドブロックおよ
び現画像第2フィールドブロックのそれぞれの前記類似
ブロックの近傍に、前記第1の探索領域設定工程により
設定された探索領域より細かい探索密度であり、かつ狭
い探索領域をそれぞれ設定する第2の探索領域設定工程
と、 第2の探索領域設定工程により設定されたそれぞれの探
索領域に基づいて前記現画像フレームブロック、現画像
第1フィールドブロックおよび現画像第2フィールドブ
ロックに最も類似した類似ブロックをそれぞれ特定し、
現画像フレームブロックに対応するフレーム動きベクト
ル、現画像第1フィールドブロックに対応する第1フィ
ールド動きベクトルおよび現画像第2フィールドブロッ
クに対応する第2フィールド動きベクトルを探索する第
2の動きベクトル探索工程と、 前記第1の動きベクトル探索工程により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第1の動きベクトル判定工程と、 前記第2の動きベクトル探索工程により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第2の動きベクトル判定工程と、 前記画像判別工程により判別された予測画像に応じて第
1の動きベクトル判定工程と第2の動きベクトル判定工
程とのうち何れか一方の判定工程を選択する選択工程
と、を含むことを特徴とする動画像圧縮方法。
An image processing method includes the steps of: providing a plurality of types of image information included in pixels constituting a frame of an interlaced scanning moving image in a horizontal scanning direction and a vertical scanning direction based on a predetermined sampling frequency; Including a format conversion step of extracting in the scanning direction, for each frame extracted by the format conversion step, an intra-frame predicted image encoded based on intra-frame information, and a temporally forward frame as a reference image A moving image compression method that generates a forward predictive image encoded as a bidirectional predictive image that is temporally encoded as a reference image by using forward and backward frames, respectively, Image discrimination for discriminating a predicted image to be encoded among the intra-frame predicted image, the forward predicted image, and the bidirectional predicted image Wherein the frame comprises a first field and a second field, and a current image frame block partially constituting the frame comprises a current image first field block comprising the first field and a current image block comprising the second field. A current image frame block, a current image first field block and a current image second
By extracting image information representing the pixels constituting the reference image from the field block, a first search that sets a coarse search density and a wide search area, respectively, is performed.
And a similar block most similar to the current image frame block, the current image first field block, and the current image second field block based on the search area set in the first search area setting step. A first motion for identifying and searching for a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block A vector search step, and the first search is performed in the vicinity of each of the similar blocks of the current image frame block, the current image first field block, and the current image second field block specified by the first motion vector search step. Finer than the search area set in the area setting process A second search area setting step of setting a narrow search area with a low search density, and the current image frame block and the current image second block based on the respective search areas set in the second search area setting step. Identifying a similar block most similar to the one field block and the current image second field block, respectively;
A second motion vector search step of searching for a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block And the frame motion vector and the first field motion vector searched in the first motion vector search step.
A first motion vector determining step of determining an optimal motion vector from second field motion vectors; and the frame motion vector and the first field motion vector searched for in the second motion vector searching step.
A second motion vector determining step of determining an optimum motion vector from the second field motion vector; a first motion vector determining step according to the predicted image determined by the image determining step; and a second motion vector A selecting step of selecting one of the determining steps.
【請求項2】前記画像判別工程により判別された予測画
像が前方向予測画像の場合、前記選択工程が第2の動き
ベクトル判定工程を選択するとともに、前記画像判別工
程により判別された予測画像が双方向予測画像の場合、
前記選択工程が第1の動きベクトル判定工程を選択する
ことを特徴とする請求項1に記載の動画像圧縮方法。
2. When the predicted image determined in the image determining step is a forward predicted image, the selecting step selects a second motion vector determining step, and the predicted image determined in the image determining step is For bidirectional prediction images,
The moving image compression method according to claim 1, wherein the selecting step selects a first motion vector determining step.
【請求項3】インタレース走査方式の動画像を構成する
各フィールドに対し、該フィールドを構成する画素に含
まれる複数種類の画像情報をそれぞれ、所定の標本化周
波数に基づいて水平走査方向および垂直走査方向に抽出
するフォーマット変換工程を含み、該フォーマット変換
工程により抽出された各フィールドに対し、フィールド
内情報に基づいて符号化されるフィールド内予測画像
と、時間的に前方向のフィールドを参照画像として符号
化される前方向予測画像と、時間的に前方向および後方
向のフィールドをそれぞれ参照画像として符号化される
双方向予測画像と、をそれぞれ切り換えて生成する動画
像圧縮方法であって、 前記フィールド内予測画像、前記前方向予測画像および
前記双方向予測画像のうち、符号化される予測画像を判
別する画像判別工程と、 前記フィールドを部分的に構成する現画像フィールドブ
ロックが、該現画像フィールドブロックの上半分のブロ
ックからなる現画像第1セグメントブロックおよび該現
画像フィールドブロックの下半分のブロックからなる現
画像第2セグメントブロックを含み、現画像フィールド
ブロック、現画像第1セグメントブロックおよび現画像
第2セグメントブロックに対し、前記参照画像を構成す
る画素を代表する画像情報を抽出することにより、粗い
探索密度であり、かつ広い探索領域をそれぞれ設定する
第1の探索領域設定工程と、 第1の探索領域設定工程により設定された探索領域に基
づいて前記現画像フィールドブロック、現画像第1セグ
メントブロックおよび現画像第2セグメントブロックに
それぞれ最も類似した類似ブロックを特定し、現画像フ
ィールドブロックに対応するフィールド動きベクトル、
現画像第1セグメントブロックに対応する第1セグメン
ト動きベクトルおよび現画像第2セグメントブロックに
対応する第2セグメント動きベクトルを探索する第1の
動きベクトル探索工程と、 該第1の動きベクトル探索工程により特定された現画像
フィールドブロック、現画像第1セグメントブロックお
よび現画像第2セグメントブロックのそれぞれの前記類
似ブロックの近傍に、前記第1の探索領域設定工程によ
り設定された探索領域より細かい探索密度であり、かつ
狭い探索領域をそれぞれ設定する第2の探索領域設定工
程と、 第2の探索領域設定工程により設定されたそれぞれの探
索領域に基づいて前記現画像フィールドブロック、現画
像第1セグメントブロックおよび現画像第2セグメント
ブロックに最も類似した類似ブロックをそれぞれ特定
し、現画像フィールドブロックに対応するフィールド動
きベクトル、現画像第1セグメントブロックに対応する
第1セグメント動きベクトルおよび現画像第2セグメン
トブロックに対応する第2セグメント動きベクトルを探
索する第2の動きベクトル探索工程と、 前記第1の動きベクトル探索工程により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第1の動きベクトル判定工程と、 前記第2の動きベクトル探索工程により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第2の動きベクトル判定工程と、 前記画像判別工程により判別された予測画像に応じて第
1の動きベクトル判定工程と第2の動きベクトル判定工
程のうち何れか一方の判定工程を選択する選択工程と、
を含むことを特徴とする動画像圧縮方法。
3. For each field constituting an interlaced scanning moving image, a plurality of types of image information contained in pixels constituting the field are respectively divided into a horizontal scanning direction and a vertical scanning direction based on a predetermined sampling frequency. Including a format conversion step of extracting in the scanning direction, for each field extracted by the format conversion step, an intra-field prediction image encoded based on intra-field information, and a temporally forward field as a reference image A moving image compression method that generates a forward predictive image encoded as a bidirectional predictive image that is temporally forward and backward encoded as a reference image, respectively, by switching. Among the intra-field prediction image, the forward prediction image and the bidirectional prediction image, a prediction image to be encoded is An image discriminating step of discriminating; a current image field block partially constituting the field is a current image first segment block composed of an upper half block of the current image field block and a lower half block of the current image field block A current image field block, a current image first segment block, and a current image second segment block, by extracting image information representing pixels constituting the reference image, A first search area setting step of setting a broad search area having a coarse search density, and the current image field block and the current image first segment based on the search areas set in the first search area setting step. Block and the second segment block of the current image Field motion vector similar block to identify the, corresponding to the current image field blocks,
A first motion vector search step of searching for a first segment motion vector corresponding to the current image first segment block and a second segment motion vector corresponding to the current image second segment block; In the vicinity of each of the identified current image field blocks, the current image first segment block, and the current image second segment block, with a search density finer than the search area set in the first search area setting step. A second search area setting step of setting each of the existing and narrow search areas; and a step of setting the current image field block, the current image first segment block, and the second image based on the respective search areas set in the second search area setting step. Similar block most similar to the current image second segment block A second field motion vector corresponding to the current image field block, a first segment motion vector corresponding to the current image first segment block, and a second segment motion vector corresponding to the current image second segment block. A motion vector search step; and a first motion vector determination for determining an optimum motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched in the first motion vector search step. A second motion vector determining step of determining an optimal motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched in the second motion vector searching step; Discriminated by the image discriminating step. A selecting step of selecting one of the first motion vector determining step and the second motion vector determining step according to the predicted image obtained,
A moving image compression method comprising:
【請求項4】前記画像判別工程により判別された予測画
像が前方向予測画像の場合、前記選択工程が第2の動き
ベクトル判定工程を選択するとともに、前記画像判別工
程により判別された予測画像が双方向予測画像の場合、
前記選択工程が第1の動きベクトル判定工程を選択する
ことを特徴とする請求項3に記載の動画像圧縮方法。
4. When the predicted image determined in the image determining step is a forward predicted image, the selecting step selects a second motion vector determining step, and the predicted image determined in the image determining step is For bi-directional prediction images,
The moving image compression method according to claim 3, wherein the selecting step selects a first motion vector determining step.
【請求項5】インタレース走査方式の動画像を構成する
各フレームに対し、該フレームを構成する画素に含まれ
る複数種類の画像情報をそれぞれ、所定の標本化周波数
に基づいて水平走査方向および垂直走査方向に抽出する
フォーマット変換手段を有し、該フォーマット変換手段
により抽出された各フレームに対し、フレーム内情報に
基づいて符号化されるフレーム内予測画像と、時間的に
前方向のフレームを参照画像として符号化される前方向
予測画像と、時間的に前方向および後方向のフレームを
それぞれ参照画像として符号化される双方向予測画像
と、をそれぞれ切り換えて生成する動画像圧縮装置にお
いて、 前記フレーム内予測画像、前記前方向予測画像および前
記双方向予測画像のうち、符号化される予測画像を判別
する画像判別手段と、 前記フレームが第1フィールドおよび第2フィールドか
らなり、前記フレームを部分的に構成する現画像フレー
ムブロックが、該第1フィールドからなる現画像第1フ
ィールドブロックおよび該第2フィールドからなる現画
像第2フィールドブロックを含み、現画像フレームブロ
ック、現画像第1フィールドブロックおよび現画像第2
フィールドブロックに対し、前記参照画像を構成する画
素を代表する画像情報を抽出することにより、粗い探索
密度であり、かつ広い探索領域をそれぞれ設定する第1
の探索領域設定手段と、 第1の探索領域設定手段により設定された探索領域に基
づいて前記現画像フレームブロック、現画像第1フィー
ルドブロックおよび現画像第2フィールドブロックにそ
れぞれ最も類似した類似ブロックを特定し、現画像フレ
ームブロックに対応するフレーム動きベクトル、現画像
第1フィールドブロックに対応する第1フィールド動き
ベクトルおよび現画像第2フィールドブロックに対応す
る第2フィールド動きベクトルを探索する第1の動きベ
クトル探索手段と、 該第1の動きベクトル探索手段により特定された現画像
フレームブロック、現画像第1フィールドブロックおよ
び現画像第2フィールドブロックのそれぞれの前記類似
ブロックの近傍に、前記第1の探索領域設定手段より設
定された探索領域より細かい探索密度であり、かつ狭い
探索領域をそれぞれ設定する第2の探索領域設定手段
と、 第2の探索領域設定手段により設定されたそれぞれの探
索領域に基づいて前記現画像フレームブロック、現画像
第1フィールドブロックおよび現画像第2フィールドブ
ロックに最も類似した類似ブロックをそれぞれ特定し、
現画像フレームブロックに対応するフレーム動きベクト
ル、現画像第1フィールドブロックに対応する第1フィ
ールド動きベクトルおよび現画像第2フィールドブロッ
クに対応する第2フィールド動きベクトルを探索する第
2の動きベクトル探索手段と、 前記第1の動きベクトル探索手段により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第1の動きベクトル判定手段と、 前記第2の動きベクトル探索手段により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第2の動きベクトル判定手段と、 前記画像判別手段により判別された予測画像に応じて第
1の動きベクトル判定手段と第2の動きベクトル判定手
段とのうち何れか一方の判定手段を選択する選択手段
と、を備えたことを特徴とする動画像圧縮装置。
5. For each frame constituting a moving image of an interlaced scanning system, a plurality of types of image information included in pixels constituting the frame are respectively divided into a horizontal scanning direction and a vertical direction based on a predetermined sampling frequency. It has a format conversion unit that extracts in the scanning direction, and for each frame extracted by the format conversion unit, refers to an intra-frame predicted image encoded based on intra-frame information and a temporally forward frame. In a moving image compression apparatus that generates a forward predicted image encoded as an image and a bidirectional predicted image encoded temporally forward and backward frames as reference images, respectively, Image discrimination for discriminating a predicted image to be encoded among the intra-frame predicted image, the forward predicted image, and the bidirectional predicted image Means, wherein the frame comprises a first field and a second field, and a current image frame block partially constituting the frame comprises a current image first field block comprising the first field and a current image frame block comprising the second field. A current image frame block, a current image first field block and a current image second
By extracting image information representing the pixels constituting the reference image from the field block, a first search that sets a coarse search density and a wide search area, respectively, is performed.
And a similar block most similar to the current image frame block, the current image first field block and the current image second field block based on the search area set by the first search area setting means. A first motion for identifying and searching for a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block Vector search means, and the first search in the vicinity of each of the similar blocks of the current image frame block, the current image first field block, and the current image second field block specified by the first motion vector search means. Finer than the search area set by the area setting means A second search area setting means for setting a narrow search area with a search density, and the current image frame block and the current image first based on the respective search areas set by the second search area setting means. Identifying a similar block most similar to the field block and the current image second field block, respectively;
Second motion vector searching means for searching for a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block The frame motion vector searched by the first motion vector search means, a first field motion vector,
First motion vector determining means for determining an optimal motion vector from second field motion vectors; and the frame motion vector searched by the second motion vector searching means, the first field motion vector,
A second motion vector determining unit for determining an optimal motion vector from the second field motion vector; a first motion vector determining unit according to a predicted image determined by the image determining unit; and a second motion vector A moving image compression apparatus, comprising: a selection unit that selects any one of the determination units.
【請求項6】前記画像判別手段により判別された予測画
像が前方向予測画像の場合、前記選択手段が第2の動き
ベクトル判定手段を選択するとともに、前記画像判別手
段により判別された予測画像が双方向予測画像の場合、
前記選択手段が第1の動きベクトル判定手段を選択する
ことを特徴とする請求項5に記載の動画像圧縮装置。
6. When the predicted image determined by the image determining means is a forward predicted image, the selecting means selects the second motion vector determining means, and the predicted image determined by the image determining means is selected. For bidirectional prediction images,
6. The moving picture compression apparatus according to claim 5, wherein said selection means selects a first motion vector determination means.
【請求項7】インタレース走査方式の動画像を構成する
各フィールドに対し、該フィールドを構成する画素に含
まれる複数種類の画像情報をそれぞれ、所定の標本化周
波数に基づいて水平走査方向および垂直走査方向に抽出
するフォーマット変換手段を有し、該フォーマット変換
手段により抽出された各フィールドに対し、フィールド
内情報に基づいて符号化されるフィールド内予測画像
と、時間的に前方向のフィールドを参照画像として符号
化される前方向予測画像と、時間的に前方向および後方
向のフィールドをそれぞれ参照画像として符号化される
双方向予測画像と、をそれぞれ切り換えて生成する動画
像圧縮装置において、 前記フレーム内予測画像、前記前方向予測画像および前
記双方向予測画像のうち、符号化される予測画像を判別
する画像判別手段と、 前記フィールドを部分的に構成する現画像フィールドブ
ロックが、該現画像フィールドブロックの上半分のブロ
ックからなる現画像第1セグメントブロックおよび該現
画像フィールドブロックの下半分のブロックからなる現
画像第2セグメントブロックを含み、現画像フィールド
ブロック、現画像第1セグメントブロックおよび現画像
第2セグメントブロックに対し、前記参照画像を構成す
る画素を代表する画像情報を抽出することにより、粗い
探索密度であり、かつ広い探索領域をそれぞれ設定する
第1の探索領域設定手段と、 第1の探索領域設定手段により設定された探索領域に基
づいて前記現画像フィールドブロック、現画像第1セグ
メントブロックおよび現画像第2セグメントブロックに
それぞれ最も類似した類似ブロックを特定し、現画像フ
ィールドブロックに対応するフィールド動きベクトル、
現画像第1セグメントブロックに対応する第1セグメン
ト動きベクトルおよび現画像第2セグメントブロックに
対応する第2セグメント動きベクトルを探索する第1の
動きベクトル探索手段と、 該第1の動きベクトル探索手段により特定された現画像
フィールドブロック、現画像第1セグメントブロックお
よび現画像第2セグメントブロックのそれぞれの前記類
似ブロックの近傍に、前記第1の探索領域設定手段より
設定された探索領域より細かい探索密度であり、かつ狭
い探索領域をそれぞれ設定する第2の探索領域設定手段
と、 第2の探索領域設定手段により設定されたそれぞれの探
索領域に基づいて前記現画像フィールドブロック、現画
像第1セグメントブロックおよび現画像第2セグメント
ブロックに最も類似した類似ブロックをそれぞれ特定
し、現画像フィールドブロックに対応するフィールド動
きベクトル、現画像第1セグメントブロックに対応する
第1セグメント動きベクトルおよび現画像第2セグメン
トブロックに対応する第2セグメント動きベクトルを探
索する第2の動きベクトル探索手段と、 前記第1の動きベクトル探索手段により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第1の動きベクトル判定手段と、 前記第2の動きベクトル探索手段により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第2の動きベクトル判定手段と、 前記画像判別手段により判別された予測画像に応じて第
1の動きベクトル判定手段と第2の動きベクトル判定手
段のうち何れか一方の判定手段を選択する選択手段と、
を備えたことを特徴とする動画像圧縮装置。
7. For each field constituting a moving image of an interlaced scanning system, a plurality of types of image information contained in pixels constituting the field are respectively written in a horizontal scanning direction and a vertical direction based on a predetermined sampling frequency. It has a format conversion means for extracting in the scanning direction, and for each field extracted by the format conversion means, refers to an intra-field predicted image encoded based on intra-field information and a temporally forward field. A moving image compression apparatus that generates a forward prediction image encoded as an image and a bidirectional prediction image encoded temporally as a reference image with forward and backward fields, respectively, Among the intra-frame predicted image, the forward predicted image and the bidirectional predicted image, the predicted image to be encoded is determined. A first image segment block consisting of an upper half block of the current image field block, and a lower half block of the current image field block. A current image field block, a current image first segment block, and a current image second segment block, by extracting image information representing pixels constituting the reference image, First search area setting means for setting a coarse search density and a wide search area, respectively; based on the search area set by the first search area setting means, the current image field block and the current image first segment; Most similar to block and current image second segment block respectively Field motion vector similar block to identify, corresponding to the current image field blocks,
First motion vector searching means for searching for a first segment motion vector corresponding to the current image first segment block and a second segment motion vector corresponding to the current image second segment block; In the vicinity of each of the specified similar blocks of the current image field block, the current image first segment block, and the current image second segment block, with a search density finer than the search area set by the first search area setting means. Second search area setting means for setting each of the existing and narrow search areas, and the current image field block, the current image first segment block, and the current image field block based on the respective search areas set by the second search area setting means. The similar block most similar to the current image second segment block is Each of them is identified and searched for a field motion vector corresponding to the current image field block, a first segment motion vector corresponding to the current image first segment block, and a second segment motion vector corresponding to the current image second segment block. 2 motion vector searching means, and a first motion for determining an optimum motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the first motion vector searching means. Vector determining means, and second motion vector determining means for determining an optimal motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the second motion vector searching means. Is determined by the image determination unit. Selecting means for selecting any one of the first motion vector determining means and the second motion vector determining means according to the predicted image,
A moving picture compression apparatus comprising:
【請求項8】前記画像判別手段により判別された予測画
像が前方向予測画像の場合、前記選択手段が第2の動き
ベクトル判定手段を選択するとともに、前記画像判別手
段により判別された予測画像が双方向予測画像の場合、
前記選択手段が第1の動きベクトル判定手段を選択する
ことを特徴とする請求項7に記載の動画像圧縮装置。
8. When the predicted image determined by the image determining means is a forward predicted image, the selecting means selects the second motion vector determining means, and the predicted image determined by the image determining means is selected. For bidirectional prediction images,
8. The moving picture compression apparatus according to claim 7, wherein said selection means selects the first motion vector determination means.
JP28548295A 1995-11-02 1995-11-02 Moving image compression method and apparatus Expired - Fee Related JP2868445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28548295A JP2868445B2 (en) 1995-11-02 1995-11-02 Moving image compression method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28548295A JP2868445B2 (en) 1995-11-02 1995-11-02 Moving image compression method and apparatus

Publications (2)

Publication Number Publication Date
JPH09130808A JPH09130808A (en) 1997-05-16
JP2868445B2 true JP2868445B2 (en) 1999-03-10

Family

ID=17692097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28548295A Expired - Fee Related JP2868445B2 (en) 1995-11-02 1995-11-02 Moving image compression method and apparatus

Country Status (1)

Country Link
JP (1) JP2868445B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100557911B1 (en) * 2001-09-18 2006-03-10 마쯔시다덴기산교 가부시키가이샤 Image encoding method and image decoding method
JP4235209B2 (en) * 2006-02-10 2009-03-11 Nttエレクトロニクス株式会社 Motion vector detection apparatus and motion vector detection method
JP4804423B2 (en) * 2006-08-08 2011-11-02 キヤノン株式会社 Motion vector detection apparatus and motion vector detection method
JP2013165488A (en) * 2012-01-11 2013-08-22 Panasonic Corp Image processing apparatus, image capturing apparatus, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安田浩「MPEG/マルチメディア符号化の国際標準」丸善、平成6年9月30日、p.44

Also Published As

Publication number Publication date
JPH09130808A (en) 1997-05-16

Similar Documents

Publication Publication Date Title
US9277226B2 (en) Image decoding device and method thereof using inter-coded predictive encoding code
US6603815B2 (en) Video data processing apparatus, video data encoding apparatus, and methods thereof
US5731850A (en) Hybrid hierarchial/full-search MPEG encoder motion estimation
JP4014263B2 (en) Video signal conversion apparatus and video signal conversion method
JP3104942B2 (en) Digital video signal encoding device
US7426308B2 (en) Intraframe and interframe interlace coding and decoding
KR100283343B1 (en) Image signal encoding method and decoding method, image signal encoding apparatus and decoding apparatus
US5453799A (en) Unified motion estimation architecture
US9247250B2 (en) Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing
JP4198206B2 (en) Video information compression method and apparatus using motion dependent prediction
US20100296580A1 (en) Method and system for efficient video transcoding
JPH0595540A (en) Dynamic picture encoder
US20050276331A1 (en) Method and apparatus for estimating motion
JP3331351B2 (en) Image data encoding method and apparatus
US7151799B2 (en) Transcoder for coded video
US7072399B2 (en) Motion estimation method and system for MPEG video streams
JP2755851B2 (en) Moving picture coding apparatus and moving picture coding method
JP2868445B2 (en) Moving image compression method and apparatus
JP2883592B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP2872109B2 (en) Moving picture coding method and apparatus
JP2883585B2 (en) Moving picture coding apparatus and moving picture coding method
JP2002016923A (en) Image encoding device and method
JP2006311078A (en) High efficiency coding recorder
JP2758378B2 (en) Moving picture decoding apparatus and moving picture decoding method
KR100549926B1 (en) Motion vector estimator for each area of image and motion compensation prediction encoding / decoding method for each area of image

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees