JPH09130808A - Method and device for compressing dynamic image - Google Patents

Method and device for compressing dynamic image

Info

Publication number
JPH09130808A
JPH09130808A JP28548295A JP28548295A JPH09130808A JP H09130808 A JPH09130808 A JP H09130808A JP 28548295 A JP28548295 A JP 28548295A JP 28548295 A JP28548295 A JP 28548295A JP H09130808 A JPH09130808 A JP H09130808A
Authority
JP
Japan
Prior art keywords
motion vector
image
block
field
current image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28548295A
Other languages
Japanese (ja)
Other versions
JP2868445B2 (en
Inventor
Takayuki Kobayashi
孝之 小林
Toshiharu Nakatomi
俊治 中富
Norihiko Nagai
律彦 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GRAPHICS COMMUN LAB KK
Original Assignee
GRAPHICS COMMUN LAB KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GRAPHICS COMMUN LAB KK filed Critical GRAPHICS COMMUN LAB KK
Priority to JP28548295A priority Critical patent/JP2868445B2/en
Publication of JPH09130808A publication Critical patent/JPH09130808A/en
Application granted granted Critical
Publication of JP2868445B2 publication Critical patent/JP2868445B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method and device for compressing dynamic image efficiency search-processing a motion vector by judging an optimum motion vector in the middle step of search and simplifying search-processing so as to average a search processing amount corresponding to the difference of picture types in the method and device for compressing dynamic image searching plural kinds of motion vectors by multi-step search by dividing hierarchy from rough search to fine search. SOLUTION: A judging step switching unit 30 switches a judging step so as to judge a motion vector based on the motion vector at a final step searched by first and second motion vector searching units 32 and 34 in the case of an image P and to judge the motion vector based on the motion vector at a first step searched by the first motion vector searching unit 32 in the case of an image B.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル動画像を
圧縮する動画像圧縮方法および装置に係り、特に、デジ
タル動画像を構成する各画像を複数種類の予測画像に基
づいて符号化する動画像圧縮方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture compression method and apparatus for compressing a digital moving picture, and more particularly to a moving picture in which each image forming the digital moving picture is coded based on a plurality of types of prediction images. A compression method and apparatus.

【0002】[0002]

【従来の技術】文字、図形、音声、映像などの異なる情
報をデジタルデータで表現し、これらのメディアを統合
して一元的に取り扱うマルチメディアが近年注目を浴び
ている。このマルチメディアに対応するオーディオ・ビ
デオ符号化方式として、ISO/IECのMPEG(Mo
ving Picture Experts Group)1およびMPEG2がそ
れぞれ国際標準として認められるようになった。
2. Description of the Related Art In recent years, multimedia which expresses different information such as characters, figures, voices, and images by digital data, and integrates these media and handles them in a unified manner has attracted attention in recent years. As an audio / video encoding system compatible with this multimedia, ISO / IEC MPEG (Mo
(ving Picture Experts Group) 1 and MPEG2 have each been recognized as international standards.

【0003】これらの符号化方式では、まず、動画像を
構成する各画面(以下、ピクチャともいう)に対し、画
面を構成する画素に含まれる輝度情報および色差情報が
所定の標本化周波数に基づいて水平走査方向および垂直
走査方向に抽出され、いわゆる4:2:0、4:2:2
または4:4:4の画像フォーマットに変換される。次
いで、変換された各画面が、例えば、16画素×16画
素の矩形ブロック(以下、マクロブロックという)に分
割される。次いで、これらのマクロブロック単位に、参
照画像のサーチウィンドウから現画像のマクロブロック
に類似した同サイズの類似ブロックが探索され、探索さ
れた類似ブロックとの空間的な距離および方位を表す動
きベクトル並びに探索された類似ブロックとの差分情報
が算出されて動き補償が行なわれる。次いで、これらの
差分情報がDCT変換(DiscreteCosine Transform ;
離散コサイン変換)、量子化および可変長符号化により
圧縮される。このように差分情報を圧縮すると、原画像
そのものを圧縮するよりも、効率良く圧縮することがで
きる。
In these encoding methods, first, for each screen (hereinafter, also referred to as a picture) forming a moving image, luminance information and color difference information contained in pixels forming the screen are based on a predetermined sampling frequency. Are extracted in the horizontal scanning direction and the vertical scanning direction, so-called 4: 2: 0, 4: 2: 2.
Alternatively, the image format is converted to 4: 4: 4. Next, each converted screen is divided into, for example, rectangular blocks of 16 pixels × 16 pixels (hereinafter referred to as macroblocks). Then, for each of these macroblocks, a similar block similar in size to the macroblock of the current image is searched from the search window of the reference image, and a motion vector indicating the spatial distance and orientation to the searched similar block and Difference information from the searched similar block is calculated and motion compensation is performed. Next, these pieces of difference information are converted to DCT (Discrete Cosine Transform);
Discrete Cosine Transform), quantization and variable length coding. When the difference information is compressed in this way, it can be compressed more efficiently than when the original image itself is compressed.

【0004】図4に示すように、MPEGでは、Iピク
チャ、PピクチャおよびBピクチャの3種類のピクチャ
タイプが規定されている。Iピクチャ(Intra-Picture
;フレーム内予測符号化画像)は、ピクチャ内の全て
のマクロブロックが他の画像を参照しないイントラ(In
tra ;フレーム内符号化)ブロックで構成されている。
Iピクチャは、他のピクチャタイプの画像を圧縮および
再生するため周期的に設けられており、画面のランダム
アクセスにも利用される。Pピクチャ(Predictive-Pic
ture;前方向予測符号化画像)は、時間的に前方向のI
ピクチャまたはPピクチャを参照して符号化されるが、
イントラブロックを含む場合がある。Bピクチャ(Bidi
rectionally predictive-Picture;双方向予測符号化画
像)は、時間的に前方向および後方向のIピクチャまた
はPピクチャをそれぞれ参照画像として符号化され、イ
ントラブロックを含む場合がある。ただし、Bピクチャ
は他の参照画像としては利用されない。また、Iピクチ
ャおよびPピクチャは時間的に原画像と同じ順序で符号
化されるが、BピクチャはIピクチャおよびPピクチャ
が符号化された後に間に挿入される。
As shown in FIG. 4, in MPEG, three picture types, I picture, P picture and B picture, are defined. I picture (Intra-Picture
Intra-frame predictive coded image is an intra (In) image in which all macroblocks in the picture do not refer to
tra; intra-frame coding) block.
I-pictures are periodically provided to compress and reproduce images of other picture types, and are also used for random screen access. P picture (Predictive-Pic
ture; forward predictive coded image) is a forward I in time.
Is coded with reference to a picture or P picture,
May include intra blocks. B picture (Bidi
(rectionally predictive-Picture; bidirectional predictive coded image) is coded with reference to an I picture or P picture in the forward direction and backward direction in time, and may include an intra block. However, the B picture is not used as another reference image. Further, the I picture and the P picture are temporally encoded in the same order as the original image, but the B picture is inserted between the I picture and the P picture after being encoded.

【0005】例えば、図4(a)では、周期M=2であ
り、まず、Iピクチャーが生成され、次いで、2枚目置
きにPピクチャーが生成されるとともに、生成されたP
ピクチャー若しくはIピクチャーおよびPピクチャーか
ら1枚のBピクチャーが生成されている。また、図4
(b)では、周期M=3であり、まず、Iピクチャが生
成され、3枚目置きにPピクチャが生成されるととも
に、生成されたPピクチャー若しくはIピクチャーおよ
びPピクチャーから2枚のBピクチャーが生成されてい
る。
For example, in FIG. 4A, the period M = 2, the I picture is generated first, and then the P picture is generated every second picture and the generated P picture is generated.
One B picture is generated from the picture or I picture and P picture. FIG.
In (b), the period M = 3, an I picture is first generated, a P picture is generated every third picture, and two B pictures are generated from the generated P picture or I picture and P picture. Is being generated.

【0006】さらに、MPEG1では順次走査方式の画
像のみを取扱っていたのに対し、MPEG2ではインタ
レース走査方式の画像の符号化も取扱われている。イン
タレース走査方式は、単純に順次1ライン毎に垂直走査
を行う順次走査方式に対して、所定の走査ライン毎に飛
び越して垂直走査を行い、飛び越した走査ラインの本数
に対応した走査回数によってフレームを構成するもので
ある。例えば、テレビ映像等に適用される2:1インタ
レース走査方式は、1枚のフレームを奇数走査ラインか
らなるフィールドと偶数走査ラインからなるフィールド
との2枚のフィールドで構成し、まず一方のフィールド
の走査を行ってから他方のフィールドの走査を行うもの
である。このインタレース走査方式は、信号帯域幅を節
減し、実質的に走査線数を減らすことなく、画面全体の
走査回数を多くして画像のちらつきを少なくするもので
ある。
Further, while MPEG1 handles only progressive scan type images, MPEG2 handles encoding of interlaced scan type images. The interlaced scanning method is different from the sequential scanning method in which vertical scanning is simply performed line by line, and vertical scanning is performed by skipping every predetermined number of scanning lines, and a frame is generated according to the number of scanning corresponding to the number of skipped scanning lines. It is what constitutes. For example, in the 2: 1 interlaced scanning method applied to television images and the like, one frame is composed of two fields, a field composed of odd scanning lines and a field composed of even scanning lines. Is performed, and then the other field is scanned. This interlaced scanning system reduces the signal bandwidth, increases the number of scans of the entire screen, and reduces image flickering without substantially reducing the number of scanning lines.

【0007】インタレース走査方式の画像には、フレー
ムを符号化の単位とするフレーム構造とフィールドを符
号化の単位とするフィールド構造との両方が提供され、
さらに、予測方式には、フレーム予測方式とフィールド
予測方式とがある。ただし、フィールド構造の場合に
は、フレーム予測方式は使えない。まず、フレーム構造
における予測方式の一例を説明する。
An image of the interlaced scanning system is provided with both a frame structure in which a frame is a unit of coding and a field structure in which a field is a unit of coding.
Further, the prediction methods include a frame prediction method and a field prediction method. However, in the case of the field structure, the frame prediction method cannot be used. First, an example of the prediction method in the frame structure will be described.

【0008】図5に示すように、現画像フレーム110
が奇数走査ラインからなる現画像第1フィールド111
および偶数走査ラインからなる現画像第2フィールド1
12から構成され、参照画像フレーム120が奇数走査
ラインからなる第1フィールド121および偶数走査ラ
インからなる第2フィールド122から構成され、参照
画像フレーム120から現画像フレーム110を予測す
るとする。また、斜線で示された人物像Aが画面の左下
から右上の方向に移動しているとする。
As shown in FIG. 5, the current image frame 110
The first field 111 of the current image consisting of odd scan lines
And the second field 1 of the current image consisting of even scan lines
It is assumed that the reference image frame 120 is composed of 12 and the reference image frame 120 is composed of a first field 121 composed of odd scanning lines and a second field 122 composed of even scanning lines, and the current image frame 110 is predicted from the reference image frame 120. Also, it is assumed that the person image A shown by diagonal lines is moving from the lower left to the upper right of the screen.

【0009】フレーム構造におけるフレーム予測方式
は、現画像フレーム110を参照画像フレーム120か
ら動きベクトルMVAによって予測するものである。フ
レーム構造におけるフィールド予測方式では、現画像第
1フィールド111を参照画像第1フィールド121ま
たは参照画像第2フィールド122から動きベクトルM
VA1によって予測するとともに、現画像第2フィール
ド112を参照画像第1フィールド121または参照画
像第2フィールド122から動きベクトルMVA2によ
って予測し、予測された2つのフィールドを合成するこ
とによってフレーム110を予測する。
The frame prediction method in the frame structure is to predict the current image frame 110 from the reference image frame 120 by the motion vector MVA. In the field prediction method in the frame structure, the current image first field 111 is moved from the reference image first field 121 or the reference image second field 122 to the motion vector M.
In addition to the prediction by VA1, the current image second field 112 is predicted by the motion vector MVA2 from the reference image first field 121 or the reference image second field 122, and the frame 110 is predicted by combining the two predicted fields. .

【0010】ここで、図6に示すように、現画像を時間
n、参照画像を時間(n−1)とし、現画像および参照
画像の奇数走査ラインの各画素を白丸で表し、現画像お
よび参照画像の偶数走査ラインの各画素を黒丸で表し、
垂直8画素の現画像フレームブロック210が垂直4画
素の現画像第1フィールドブロック211と垂直4画素
の現画像第2フィールドブロック212からなるとする
と、動きベクトルMVAは、現画像フレームブロック2
10の画素データおよび複数のフレーム候補ブロック2
20の画素データに基づいて求められる。
Here, as shown in FIG. 6, the current image is time n, the reference image is time (n-1), each pixel of the odd scan lines of the current image and the reference image is represented by a white circle, and the current image and Each pixel of the even scan line of the reference image is represented by a black circle,
Assuming that the current image frame block 210 of 8 pixels vertically is composed of the first field block 211 of current image of 4 pixels vertically and the second field block 212 of current image of 4 pixels vertically, the motion vector MVA is
10 pixel data and a plurality of frame candidate blocks 2
It is calculated based on 20 pixel data.

【0011】また、動きベクトルMVA1は現画像第1
フィールドブロック211の画素データおよび複数の第
1フィールド候補ブロック221の画素データに基づい
て求められ、動きベクトルMVA2は現画像第2フィー
ルドブロック212の画素データと複数の第2フィール
ド候補ブロック222の画素データに基づいて求められ
る。
Further, the motion vector MVA1 is the current image first
The motion vector MVA2 is obtained based on the pixel data of the field block 211 and the pixel data of the plurality of first field candidate blocks 221. The motion vector MVA2 is the pixel data of the current image second field block 212 and the pixel data of the second field candidate blocks 222. Is calculated based on.

【0012】実際には、フレームブロック210および
フレーム候補ブロック220はそれぞれ16画素×16
画素のマクロブロックであり、第1フィールドブロック
211、第2フィールドブロック212、第1フィール
ド候補フィールド221および第2フィールド候補ブロ
ック222はそれぞれ16画素×8画素のブロックによ
って構成される。
In reality, each of the frame block 210 and the frame candidate block 220 is 16 pixels × 16.
Each of the first field block 211, the second field block 212, the first field candidate field 221, and the second field candidate block 222 is a macro block of pixels, and each is composed of a block of 16 pixels × 8 pixels.

【0013】このように、フレーム構造ではフレーム予
測方式による1本の動きベクトルMVAとフィールド予
測方式による2本の動きベクトルMVA1,MVA2と
が求められ、これらの動きベクトルの中から最適な動き
ベクトルが選択される。次に、フィールド構造における
フィールド予測方式の一例を説明する。フィールド構造
におけるフィールド予測方式は、さらに、16×16フ
ィールド予測方式および16×8フィールド予測方式が
ある。
As described above, in the frame structure, one motion vector MVA by the frame prediction method and two motion vectors MVA1, MVA2 by the field prediction method are obtained, and the optimum motion vector is selected from these motion vectors. To be selected. Next, an example of the field prediction method in the field structure will be described. The field prediction method in the field structure further includes a 16 × 16 field prediction method and a 16 × 8 field prediction method.

【0014】図7に示すように、例えば、参照画像フィ
ールド320から現画像フィールド310を予測するも
のとする。また、斜線で示された人物像Bが画面の左下
から右上の方向に移動しているとする。ここで、図8に
示すように、現画像フィールド310を時間n、参照画
像フィールド320を時間(n−1)とし、現画像フィ
ールド310を構成する各画素を白丸で表し、参照画像
フィールド320を構成する各画素を黒丸で表すとす
る。また、現画像フィールド310内の垂直4画素の現
画像フィールドブロック410が現画像フィールドブロ
ック410の上半分を構成する現画像第1セグメントブ
ロック411と現画像フィールドブロック410の下半
分を構成する第2セグメントブロック412とから構成
されているとする。
As shown in FIG. 7, for example, the current image field 310 is predicted from the reference image field 320. Further, it is assumed that the person image B shown by diagonal lines is moving from the lower left to the upper right of the screen. Here, as shown in FIG. 8, the current image field 310 is time n, the reference image field 320 is time (n−1), each pixel forming the current image field 310 is represented by a white circle, and the reference image field 320 is represented by Each of the constituent pixels is represented by a black circle. In addition, a current image field block 410 of four vertical pixels in the current image field 310 constitutes a first half of the current image field block 410 and a second half of the current image field block 410. It is assumed to be composed of a segment block 412.

【0015】16×16フィールド予測方式は、現画像
フィールドブロック410の画素データおよび複数のフ
ィールド候補ブロック420の画素データに基づいて求
められたフィールド動きベクトルMVBによって参照画
像フィールド320から現画像フィールド310を予測
するものである。一方、16×8フィールド予測方式
は、現画像第1セグメントブロック411の画素データ
および複数の第1セグメント候補ブロック421の画素
データに基づいて求められた第1セグメント動きベクト
ルMVB1および現画像第2セグメントブロック412
の画素データと複数の第2セグメント候補ブロック42
2の画素データに基づいて求められた第2セグメント動
きベクトルMVB2によって参照画像フィールド320
から現画像フィールド310を予測するものである。
In the 16 × 16 field prediction method, the current image field 310 is changed from the reference image field 320 by the field motion vector MVB obtained based on the pixel data of the current image field block 410 and the pixel data of the plurality of field candidate blocks 420. To predict. On the other hand, in the 16 × 8 field prediction method, the first segment motion vector MVB1 and the current image second segment obtained based on the pixel data of the current image first segment block 411 and the pixel data of the plurality of first segment candidate blocks 421 are used. Block 412
Pixel data and a plurality of second segment candidate blocks 42
The reference image field 320 according to the second segment motion vector MVB2 obtained based on the pixel data of 2
From the current image field 310.

【0016】実際には、フィールドブロック410およ
びフィールド候補ブロック420はそれぞれ16画素×
16画素のマクロブロックであり、第1セグメントブロ
ック411、第2セグメントブロック412、第1セグ
メント候補フィールド421および第2セグメント候補
ブロック422はそれぞれ16画素×8画素のブロック
によって構成される。
In practice, the field block 410 and the field candidate block 420 are each 16 pixels ×
It is a macroblock of 16 pixels, and each of the first segment block 411, the second segment block 412, the first segment candidate field 421 and the second segment candidate block 422 is composed of a block of 16 pixels × 8 pixels.

【0017】このように、フィールド構造では16×1
6フィールド予測方式による1本のフィールド動きベク
トルMVBと16×8フィールド予測方式による2本の
第1および第2セグメント動きベクトルMVB1,MV
B2とが求められ、これらの動きベクトルの中から最適
な動きベクトルが選択される。上記のように、フレーム
構造の場合には1本のフレーム動きベクトルと2本のフ
ィールド動きベクトルとから最適な動きベクトルが選択
され、フィールド構造の場合には1本のフィールド動き
ベクトルと2本のセグメント動きベクトルからそれぞれ
最適な動きベクトルが選択されることにより、さらに情
報量の圧縮率を向上させている。
As described above, in the field structure, 16 × 1
One field motion vector MVB by the 6-field prediction method and two first and second segment motion vectors MVB1, MV by the 16 × 8 field prediction method
B2 is obtained, and the optimum motion vector is selected from these motion vectors. As described above, in the case of the frame structure, the optimum motion vector is selected from one frame motion vector and two field motion vectors, and in the case of the field structure, one field motion vector and two field motion vectors are selected. By selecting the optimum motion vector from the segment motion vectors, the compression rate of the information amount is further improved.

【0018】ところで、一般に動きベクトルを探索する
には膨大な演算とメモリアクセスが必要であるため、動
きベクトルを探索する処理能力は符号化装置全体の処理
能力を決定する大きな要因となっている。この動きベク
トルを探索する処理能力を向上する方法として、例え
ば、NTC81(National Telecommunication Confere
nce 81)1981年第G5.3.1頁〜第G5.3.5頁の「Moti
on compensated interframe coding for video confere
ncing 」に示される多段階探索方法が提案されている。
以下、多段階探索の一例である2段階探索を説明する。
By the way, in general, a huge amount of calculation and memory access are required to search for a motion vector, so the processing capacity for searching for a motion vector is a major factor in determining the processing capacity of the entire coding apparatus. As a method of improving the processing capability of searching for this motion vector, for example, NTC81 (National Telecommunication Confere
nce 81) 1981, G5.3.1-G5.3.5, "Moti.
on compensated interframe coding for video confere
The multi-stage search method shown in "ncing" has been proposed.
The two-step search, which is an example of the multi-step search, will be described below.

【0019】図9に示すように、まず、第1段階の探索
では、参照画像上の水平走査方向および垂直走査方向の
画素をそれぞれスキップして探索点が抽出されることに
より、探索密度は粗いが、広い探索領域が設定され、設
定された探索点の中から第1段階の動きベクトルMV1
が求められる。この第1段階では、動きベクトルが大体
どこに存在するかが探索される。次に、第2段階の探索
では、第1段階で求められた動きベクトルMV1に対応
する探索点の近傍に、第1段階の探索領域より狭く、か
つ領域内の全ての画素を抽出する探索密度の細かい探索
領域が設定され、この探索領域から第2段階の動きベク
トルMV2が求められる。次に、第1段階で求められた
動きベクトルMV1と第2段階で求められたMV2とが
加算され、最終動きベクトルMVが求められる。
As shown in FIG. 9, in the first-stage search, the search density is rough because the search points are extracted by skipping the pixels in the horizontal scanning direction and the vertical scanning direction on the reference image. However, a wide search area is set, and the motion vector MV1 of the first stage is selected from the set search points.
Is required. In this first stage, the search is made approximately where the motion vector is. Next, in the search of the second stage, a search density that is narrower than the search region of the first stage and extracts all the pixels in the region near the search point corresponding to the motion vector MV1 obtained in the first stage. Is set, and the second-stage motion vector MV2 is obtained from this search area. Next, the motion vector MV1 obtained in the first stage and the MV2 obtained in the second stage are added to obtain the final motion vector MV.

【0020】このように、粗い探索から細かい探索へと
多段階に分けて動きベクトルを探索することで探索点を
削減することができるので、動きベクトルMVを探索す
るための演算量およびメモリアクセス量を削減しつつ、
予測精度の高い動きベクトルを効率良く求めている。ま
た、動きベクトルを探索する処理能力を向上する方法と
して、例えば、電子情報通信学会論文誌1989年Vo
l.J72−D−2No.3の第395頁〜第402頁
「階層画素情報を用いた動画像における動き量検出方
式」に示される階層探索方法が提案されている。この方
法は、入力画像の画素平均値を算出し縮小画像を生成す
ることで空間解像度の劣化した上位階層を生成し、被写
体の大局的な動きを検出する上位階層(粗い探索)の検
出結果に基づいて解像度が細かくなる下位階層(細かい
探索)の動き量を逐次検出することで、実質的に探索点
を削減し、効率良く、かつ、高精度に動きベクトルを求
めている。
As described above, since the search points can be reduced by searching the motion vector in multiple stages from the coarse search to the fine search, the calculation amount and the memory access amount for searching the motion vector MV. While reducing
A motion vector with high prediction accuracy is efficiently obtained. Further, as a method for improving the processing capability for searching a motion vector, for example, the Institute of Electronics, Information and Communication Engineers, 1989 Vo.
l. J72-D-2 No. No. 3, page 395 to page 402, "hierarchical search method shown in" Motion amount detection method in moving image using hierarchical pixel information ". In this method, the average pixel value of the input image is calculated and a reduced image is generated to generate an upper layer with degraded spatial resolution, and the detection result of the upper layer (coarse search) that detects the global movement of the subject By successively detecting the amount of motion of the lower layer (fine search) where the resolution becomes finer, the number of search points is substantially reduced, and the motion vector is efficiently and highly accurately obtained.

【0021】[0021]

【発明が解決しようとする課題】しかしながら、前述の
フレーム動きベクトルMVA、第1フィールド動きベク
トルMVA1および第2フィールド動きベクトルMVA
2、並びに、フィールド動きベクトルMVB、第1セグ
メント動きベクトルMVB1および第2セグメントMV
B等、複数の動きベクトルをそれぞれ粗い探索から細か
い探索に分けて探索し、探索された複数の動きベクトル
の中から最適な動きベクトルを判定する従来の動画像圧
縮方法および装置にあっては、それぞれ最も細かい探索
を経て最終的に求められた動きベクトルの中から最適な
動きベクトルが判定されていたため、ピクチャタイプに
応じて前記複数の動きベクトルを探索する処理量の差が
大きくなってしまい、符号化処理速度にばらつきが生じ
てしまうといった問題があった。
However, the frame motion vector MVA, the first field motion vector MVA1 and the second field motion vector MVA described above are used.
2, and the field motion vector MVB, the first segment motion vector MVB1 and the second segment MV
In the conventional moving image compression method and apparatus, such as B, each of a plurality of motion vectors is divided into a coarse search and a fine search, and an optimum motion vector is determined from the searched plurality of motion vectors. Since the optimum motion vector was determined from among the motion vectors finally obtained through the finest search, the difference in the amount of processing for searching the plurality of motion vectors becomes large according to the picture type, There is a problem that the encoding processing speed varies.

【0022】すなわち、Pピクチャは時間的に前方向の
画像を参照画像とするのに対し、Bピクチャは時間的に
前方向および後方向の画像をそれぞれ参照画像とするの
で、Bピクチャの場合にはPピクチャの場合より多くの
の演算量およびメモリアクセス量(バンド幅)が必要と
され、Bピクチャの動きベクトル探索処理が全体の符号
化速度向上の妨げになってしまうといった問題があっ
た。
That is, the P picture uses the temporally forward image as the reference image, while the B picture uses the temporally forward and backward images as reference images. Therefore, in the case of the B picture, However, there is a problem in that a larger amount of calculation and a larger memory access amount (bandwidth) are required than in the case of the P picture, and the motion vector search processing of the B picture hinders the improvement of the overall coding speed.

【0023】そこで、本発明は、粗い探索から細かい探
索に分けて前記複数の動きベクトルをそれぞれ探索して
複数の動きベクトルから最適な動きベクトルを判定する
動画像圧縮方法および装置において、最適な動きベクト
ルを判定する動きベクトル判定をピクチャタイプに応じ
て途中の探索結果に基づいて行うことにより、例えば、
Pピクチャの場合には最終の細かい探索を経て得られた
動きベクトルから動きベクトル判定を行うとともに、B
ピクチャの場合には途中の探索で得られた動きベクトル
から動きベクトル判定を行うことにより、Pピクチャお
よびBピクチャの動きベクトル探索処理量を平均化して
動きベクトル探索処理を効率良く行い、動画像全体の画
質を低下させることなく符号化処理を高速化することが
できる動画像圧縮方法および装置を提供することを目的
とする。
Therefore, according to the present invention, in the moving image compression method and apparatus for dividing the coarse search into the fine search, searching each of the plurality of motion vectors to determine the optimum motion vector, the optimum motion is determined. By performing the motion vector determination based on the search result in the middle according to the picture type, for example,
In the case of a P picture, motion vector determination is performed from the motion vector obtained through the final fine search, and B
In the case of a picture, the motion vector determination is performed from the motion vector obtained in the middle search, so that the motion vector search processing amounts of the P picture and the B picture are averaged to efficiently perform the motion vector search processing. It is an object of the present invention to provide a moving image compression method and device capable of speeding up the encoding process without degrading the image quality of.

【0024】[0024]

【課題を解決するための手段】上記改題を解決するた
め、請求項1に記載の発明は、インタレース走査方式の
動画像を構成する各フレームに対し、該フレームを構成
する画素に含まれる複数種類の画像情報をそれぞれ、所
定の標本化周波数に基づいて水平走査方向および垂直走
査方向に抽出するフォーマット変換工程を含み、該フォ
ーマット変換工程により抽出された各フレームに対し、
フレーム内情報に基づいて符号化されるフレーム内予測
画像と、時間的に前方向のフレームを参照画像として符
号化される前方向予測画像と、時間的に前方向および後
方向のフレームをそれぞれ参照画像として符号化される
双方向予測画像と、をそれぞれ切り換えて生成する動画
像圧縮方法であって、前記フレーム内予測画像、前記前
方向予測画像および前記双方向予測画像のうち、符号化
される予測画像を判別する画像判別工程と、前記フレー
ムが第1フィールドおよび第2フィールドからなり、前
記フレームを部分的に構成する現画像フレームブロック
が、該第1フィールドからなる現画像第1フィールドブ
ロックおよび該第2フィールドからなる現画像第2フィ
ールドブロックを含み、現画像フレームブロック、現画
像第1フィールドブロックおよび現画像第2フィールド
ブロックに対し、前記参照画像を構成する画素を代表す
る画像情報を抽出することにより、粗い探索密度であ
り、かつ広い探索領域をそれぞれ設定する第1の探索領
域設定工程と、第1の探索領域設定工程により設定され
た探索領域に基づいて前記現画像フレームブロック、現
画像第1フィールドブロックおよび現画像第2フィール
ドブロックにそれぞれ最も類似した類似ブロックを特定
し、現画像フレームブロックに対応するフレーム動きベ
クトル、現画像第1フィールドブロックに対応する第1
フィールド動きベクトルおよび現画像第2フィールドブ
ロックに対応する第2フィールド動きベクトルを探索す
る第1の動きベクトル探索工程と、該第1の動きベクト
ル探索工程により特定された現画像フレームブロック、
現画像第1フィールドブロックおよび現画像第2フィー
ルドブロックのそれぞれの前記類似ブロックの近傍に、
前記第1の探索領域設定工程により設定された探索領域
より細かい探索密度であり、かつ狭い探索領域をそれぞ
れ設定する第2の探索領域設定工程と、第2の探索領域
設定工程により設定されたそれぞれの探索領域に基づい
て前記現画像フレームブロック、現画像第1フィールド
ブロックおよび現画像第2フィールドブロックに最も類
似した類似ブロックをそれぞれ特定し、現画像フレーム
ブロックに対応するフレーム動きベクトル、現画像第1
フィールドブロックに対応する第1フィールド動きベク
トルおよび現画像第2フィールドブロックに対応する第
2フィールド動きベクトルを探索する第2の動きベクト
ル探索工程と、前記第1の動きベクトル探索工程により
探索された前記フレーム動きベクトル、第1フィールド
動きベクトル、第2フィールド動きベクトルの中から最
適な動きベクトルを判定する第1の動きベクトル判定工
程と、前記第2の動きベクトル探索工程により探索され
た前記フレーム動きベクトル、第1フィールド動きベク
トル、第2フィールド動きベクトルの中から最適な動き
ベクトルを判定する第2の動きベクトル判定工程と、前
記画像判別工程により判別された予測画像に応じて第1
の動きベクトル判定工程と第2の動きベクトル判定工程
とのうち何れか一方の判定工程を選択する選択工程と、
を含むことを特徴とする。
In order to solve the above-mentioned problem, the invention as set forth in claim 1 relates to each frame forming a moving image of an interlaced scanning system, and a plurality of pixels included in pixels forming the frame. Each type of image information, including a format conversion step of extracting in the horizontal scanning direction and the vertical scanning direction based on a predetermined sampling frequency, for each frame extracted by the format conversion step,
An intra-frame prediction image coded based on intra-frame information, a forward prediction image coded using a temporally forward frame as a reference image, and temporally forward and backward frames are referred to. A bidirectional predictive image encoded as an image, and a moving image compression method for switching the generated images, wherein the intraframe predictive image, the forward predictive image, and the bidirectional predictive image are encoded. An image discrimination step of discriminating a predicted image, the frame including a first field and a second field, and a current image frame block partially forming the frame includes a current image first field block including the first field. A current image frame block including the current image second field block including the second field, a current image first field A first search area setting step of setting a wide search area with a coarse search density by extracting image information representative of the pixels forming the reference image for the lock and the second field block of the current image And a similar block that is most similar to the current image frame block, the current image first field block and the current image second field block is specified based on the search region set by the first search region setting step, and the current image is determined. The frame motion vector corresponding to the frame block, the first corresponding to the current image first field block
A first motion vector searching step of searching for a second field motion vector corresponding to the field motion vector and the current image second field block; and a current image frame block specified by the first motion vector searching step,
In the vicinity of the similar blocks of the current image first field block and the current image second field block,
A second search area setting step of setting a search area having a finer search density and a narrower search area than the search area set by the first search area setting step, and a second search area setting step set by the second search area setting step, respectively. Based on the search area of the current image frame block, the current image first field block and the current image second field block, the similar blocks are respectively identified, and the frame motion vector corresponding to the current image frame block and the current image first block are identified. 1
A second motion vector searching step of searching for a first field motion vector corresponding to a field block and a second field motion vector corresponding to a current image second field block; and the above-mentioned search by the first motion vector searching step. A first motion vector determining step of determining an optimum motion vector from among a frame motion vector, a first field motion vector and a second field motion vector; and the frame motion vector searched by the second motion vector searching step , A second motion vector determination step of determining an optimum motion vector from the first field motion vector and the second field motion vector, and a first motion vector according to the predicted image determined by the image determination step.
A selection step of selecting one of the motion vector determination step and the second motion vector determination step;
It is characterized by including.

【0025】請求項2に記載の発明は、請求項1に記載
の発明において、前記画像判別工程により判別された予
測画像が前方向予測画像の場合、前記選択工程が第2の
動きベクトル判定工程を選択するとともに、前記画像判
別工程により判別された予測画像が双方向予測画像の場
合、前記選択工程が第1の動きベクトル判定工程を選択
することを特徴とする。
According to a second aspect of the present invention, in the first aspect of the invention, when the predicted image discriminated by the image discriminating step is a forward predictive image, the selecting step is the second motion vector determining step. And when the predicted image determined by the image determination step is a bidirectional predicted image, the selection step selects the first motion vector determination step.

【0026】請求項3に記載の発明は、インタレース走
査方式の動画像を構成する各フィールドに対し、該フィ
ールドを構成する画素に含まれる複数種類の画像情報を
それぞれ、所定の標本化周波数に基づいて水平走査方向
および垂直走査方向に抽出するフォーマット変換工程を
含み、該フォーマット変換工程により抽出された各フィ
ールドに対し、フィールド内情報に基づいて符号化され
るフィールド内予測画像と、時間的に前方向のフィール
ドを参照画像として符号化される前方向予測画像と、時
間的に前方向および後方向のフィールドをそれぞれ参照
画像として符号化される双方向予測画像と、をそれぞれ
切り換えて生成する動画像圧縮方法であって、前記フィ
ールド内予測画像、前記前方向予測画像および前記双方
向予測画像のうち、符号化される予測画像を判別する画
像判別工程と、前記フィールドを部分的に構成する現画
像フィールドブロックが、該現画像フィールドブロック
の上半分のブロックからなる現画像第1セグメントブロ
ックおよび該現画像フィールドブロックの下半分のブロ
ックからなる現画像第2セグメントブロックを含み、現
画像フィールドブロック、現画像第1セグメントブロッ
クおよび現画像第2セグメントブロックに対し、前記参
照画像を構成する画素を代表する画像情報を抽出するこ
とにより、粗い探索密度であり、かつ広い探索領域をそ
れぞれ設定する第1の探索領域設定工程と、第1の探索
領域設定工程により設定された探索領域に基づいて前記
現画像フィールドブロック、現画像第1セグメントブロ
ックおよび現画像第2セグメントブロックにそれぞれ最
も類似した類似ブロックを特定し、現画像フィールドブ
ロックに対応するフィールド動きベクトル、現画像第1
セグメントブロックに対応する第1セグメント動きベク
トルおよび現画像第2セグメントブロックに対応する第
2セグメント動きベクトルを探索する第1の動きベクト
ル探索工程と、該第1の動きベクトル探索工程により特
定された現画像フィールドブロック、現画像第1セグメ
ントブロックおよび現画像第2セグメントブロックのそ
れぞれの前記類似ブロックの近傍に、前記第1の探索領
域設定工程により設定された探索領域より細かい探索密
度であり、かつ狭い探索領域をそれぞれ設定する第2の
探索領域設定工程と、第2の探索領域設定工程により設
定されたそれぞれの探索領域に基づいて前記現画像フィ
ールドブロック、現画像第1セグメントブロックおよび
現画像第2セグメントブロックに最も類似した類似ブロ
ックをそれぞれ特定し、現画像フィールドブロックに対
応するフィールド動きベクトル、現画像第1セグメント
ブロックに対応する第1セグメント動きベクトルおよび
現画像第2セグメントブロックに対応する第2セグメン
ト動きベクトルを探索する第2の動きベクトル探索工程
と、前記第1の動きベクトル探索工程により探索された
前記フィールド動きベクトル、第1セグメント動きベク
トル、第2セグメント動きベクトルの中から最適な動き
ベクトルを判定する第1の動きベクトル判定工程と、前
記第2の動きベクトル探索工程により探索された前記フ
ィールド動きベクトル、第1セグメント動きベクトル、
第2セグメント動きベクトルの中から最適な動きベクト
ルを判定する第2の動きベクトル判定工程と、前記画像
判別工程により判別された予測画像に応じて第1の動き
ベクトル判定工程と第2の動きベクトル判定工程のうち
何れか一方の判定工程を選択する選択工程と、を含むこ
とを特徴とする。
According to a third aspect of the present invention, for each field forming a moving image of the interlaced scanning system, a plurality of types of image information contained in the pixels forming the field are respectively set to a predetermined sampling frequency. Based on the intra-field prediction image encoded based on the intra-field information, and temporally including a format conversion step of extracting in the horizontal scanning direction and the vertical scanning direction based on each field extracted by the format conversion step. A moving image generated by switching between a forward prediction image that is encoded using the forward field as a reference image and a bidirectional prediction image that is temporally encoded using the forward and backward fields as reference images. An image compression method, comprising: the intra-field predicted image, the forward predicted image, and the bidirectional predicted image. An image discrimination step of discriminating a predicted image to be coded, a current image field block partially forming the field, and a current image first segment block consisting of an upper half block of the current image field block and the current image An image including a second segment block of the current image composed of lower half blocks of the field block, and an image representing a pixel forming the reference image for the current image field block, the first segment block of the current image and the second segment block of the current image A first search area setting step of setting a wide search area having a coarse search density by extracting information, and the current image field based on the search area set by the first search area setting step. Block, current image first segment block and current image second segment block Tsu identify similar blocks most similar respective click, field motion vector corresponding to the current image field block, the current picture first
A first motion vector searching step of searching for a first segment motion vector corresponding to a segment block and a second image corresponding to a current image second segment block; and a current motion vector specified by the first motion vector searching step. Near the similar blocks of the image field block, the first segment block of the current image and the second segment block of the current image, the search density is finer than the search area set by the first search area setting step, and narrow. A second search area setting step of setting respective search areas, and a current image field block, a current image first segment block and a current image second based on the respective search areas set by the second search area setting step. Each similar block that is the most similar to the segment block And a second motion vector searching for a field motion vector corresponding to the current image field block, a first segment motion vector corresponding to the current image first segment block and a second segment motion vector corresponding to the current image second segment block A search step, and a first motion vector determination step of determining an optimum motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the first motion vector search step. , The field motion vector searched by the second motion vector searching step, the first segment motion vector,
A second motion vector determination step of determining an optimum motion vector from the second segment motion vectors, and a first motion vector determination step and a second motion vector according to the predicted image determined by the image determination step. And a selection step of selecting one of the determination steps.

【0027】請求項4に記載の発明は、請求項3に記載
の発明において、前記画像判別工程により判別された予
測画像が前方向予測画像の場合、前記選択工程が第2の
動きベクトル判定工程を選択するとともに、前記画像判
別工程により判別された予測画像が双方向予測画像の場
合、前記選択工程が第1の動きベクトル判定工程を選択
することを特徴とする。請求項5に記載の発明は、イン
タレース走査方式の動画像を構成する各フレームに対
し、該フレームを構成する画素に含まれる複数種類の画
像情報をそれぞれ、所定の標本化周波数に基づいて水平
走査方向および垂直走査方向に抽出するフォーマット変
換手段を有し、該フォーマット変換手段により抽出され
た各フレームに対し、フレーム内情報に基づいて符号化
されるフレーム内予測画像と、時間的に前方向のフレー
ムを参照画像として符号化される前方向予測画像と、時
間的に前方向および後方向のフレームをそれぞれ参照画
像として符号化される双方向予測画像と、をそれぞれ切
り換えて生成する動画像圧縮装置において、前記フレー
ム内予測画像、前記前方向予測画像および前記双方向予
測画像のうち、符号化される予測画像を判別する画像判
別手段と、前記フレームが第1フィールドおよび第2フ
ィールドからなり、前記フレームを部分的に構成する現
画像フレームブロックが、該第1フィールドからなる現
画像第1フィールドブロックおよび該第2フィールドか
らなる現画像第2フィールドブロックを含み、現画像フ
レームブロック、現画像第1フィールドブロックおよび
現画像第2フィールドブロックに対し、前記参照画像を
構成する画素を代表する画像情報を抽出することによ
り、粗い探索密度であり、かつ広い探索領域をそれぞれ
設定する第1の探索領域設定手段と、第1の探索領域設
定手段により設定された探索領域に基づいて前記現画像
フレームブロック、現画像第1フィールドブロックおよ
び現画像第2フィールドブロックにそれぞれ最も類似し
た類似ブロックを特定し、現画像フレームブロックに対
応するフレーム動きベクトル、現画像第1フィールドブ
ロックに対応する第1フィールド動きベクトルおよび現
画像第2フィールドブロックに対応する第2フィールド
動きベクトルを探索する第1の動きベクトル探索手段
と、該第1の動きベクトル探索手段により特定された現
画像フレームブロック、現画像第1フィールドブロック
および現画像第2フィールドブロックのそれぞれの前記
類似ブロックの近傍に、前記第1の探索領域設定手段よ
り設定された探索領域より細かい探索密度であり、かつ
狭い探索領域をそれぞれ設定する第2の探索領域設定手
段と、第2の探索領域設定手段により設定されたそれぞ
れの探索領域に基づいて前記現画像フレームブロック、
現画像第1フィールドブロックおよび現画像第2フィー
ルドブロックに最も類似した類似ブロックをそれぞれ特
定し、現画像フレームブロックに対応するフレーム動き
ベクトル、現画像第1フィールドブロックに対応する第
1フィールド動きベクトルおよび現画像第2フィールド
ブロックに対応する第2フィールド動きベクトルを探索
する第2の動きベクトル探索手段と、前記第1の動きベ
クトル探索手段により探索された前記フレーム動きベク
トル、第1フィールド動きベクトル、第2フィールド動
きベクトルの中から最適な動きベクトルを判定する第1
の動きベクトル判定手段と、前記第2の動きベクトル探
索手段により探索された前記フレーム動きベクトル、第
1フィールド動きベクトル、第2フィールド動きベクト
ルの中から最適な動きベクトルを判定する第2の動きベ
クトル判定手段と、前記画像判別手段により判別された
予測画像に応じて第1の動きベクトル判定手段と第2の
動きベクトル判定手段とのうち何れか一方の判定手段を
選択する選択手段と、を備えたことを特徴とする。
According to a fourth aspect of the present invention, in the invention according to the third aspect, when the predicted image determined by the image determining step is a forward predictive image, the selecting step is the second motion vector determining step. And when the predicted image determined by the image determining step is a bidirectional predicted image, the selecting step selects the first motion vector determining step. According to a fifth aspect of the present invention, for each frame forming a moving image of the interlaced scanning system, a plurality of types of image information included in pixels forming the frame are horizontally transmitted based on a predetermined sampling frequency. A format conversion unit for extracting in the scanning direction and the vertical scanning direction is provided, and for each frame extracted by the format conversion unit, an intra-frame predicted image coded based on intra-frame information and a temporal forward direction. Moving image compression generated by switching between a forward predictive image coded as a reference image of each frame and a bidirectional predictive image encoded as a temporally forward and backward frame as a reference image. In a device, a predicted image to be encoded is determined from the intra-frame predicted image, the forward predicted image, and the bidirectional predicted image. Image discriminating means, the frame comprises a first field and a second field, and a current image frame block which partially constitutes the frame is a current image first field block and the second field which are the first field. By extracting image information representative of pixels forming the reference image for the current image frame block, the current image first field block and the current image second field block, First search area setting means that sets a wide search area having a coarse search density, and the current image frame block and the current image first field based on the search areas set by the first search area setting means Block and the similar block that is most similar to the second field block of the current image. A frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block. One motion vector searching means, and the first image vector block, the current image first field block, and the current image second field block specified by the first motion vector searching means, in the vicinity of the similar blocks, respectively. A second search area setting unit that sets a narrower search area and has a finer search density than the search area set by the first search area setting unit, and each search set by the second search area setting unit. The current image frame block based on region,
The similar blocks most similar to the current image first field block and the current image second field block are respectively specified, and the frame motion vector corresponding to the current image frame block, the first field motion vector corresponding to the current image first field block, and Second motion vector searching means for searching a second field motion vector corresponding to the current image second field block; the frame motion vector searched by the first motion vector searching means; the first field motion vector; First to determine the optimum motion vector from the two-field motion vector
Second motion vector determining means, and a second motion vector determining an optimum motion vector from the frame motion vector, the first field motion vector, and the second field motion vector searched by the second motion vector searching means. And a selection unit for selecting one of the first motion vector determination unit and the second motion vector determination unit according to the predicted image determined by the image determination unit. It is characterized by that.

【0028】請求項6に記載の発明は、請求項5に記載
の発明において、前記画像判別手段により判別された予
測画像が前方向予測画像の場合、前記選択手段が第2の
動きベクトル判定手段を選択するとともに、前記画像判
別手段により判別された予測画像が双方向予測画像の場
合、前記選択手段が第1の動きベクトル判定手段を選択
することを特徴とする。
According to a sixth aspect of the present invention, in the invention according to the fifth aspect, when the predicted image discriminated by the image discriminating means is a forward predictive image, the selecting means is the second motion vector discriminating means. And when the prediction image determined by the image determination means is a bidirectional prediction image, the selection means selects the first motion vector determination means.

【0029】請求項7に記載の発明は、インタレース走
査方式の動画像を構成する各フィールドに対し、該フィ
ールドを構成する画素に含まれる複数種類の画像情報を
それぞれ、所定の標本化周波数に基づいて水平走査方向
および垂直走査方向に抽出するフォーマット変換手段を
有し、該フォーマット変換手段により抽出された各フィ
ールドに対し、フィールド内情報に基づいて符号化され
るフィールド内予測画像と、時間的に前方向のフィール
ドを参照画像として符号化される前方向予測画像と、時
間的に前方向および後方向のフィールドをそれぞれ参照
画像として符号化される双方向予測画像と、をそれぞれ
切り換えて生成する動画像圧縮装置において、前記フレ
ーム内予測画像、前記前方向予測画像および前記双方向
予測画像のうち、符号化される予測画像を判別する画像
判別手段と、前記フィールドを部分的に構成する現画像
フィールドブロックが、該現画像フィールドブロックの
上半分のブロックからなる現画像第1セグメントブロッ
クおよび該現画像フィールドブロックの下半分のブロッ
クからなる現画像第2セグメントブロックを含み、現画
像フィールドブロック、現画像第1セグメントブロック
および現画像第2セグメントブロックに対し、前記参照
画像を構成する画素を代表する画像情報を抽出すること
により、粗い探索密度であり、かつ広い探索領域をそれ
ぞれ設定する第1の探索領域設定手段と、第1の探索領
域設定手段により設定された探索領域に基づいて前記現
画像フィールドブロック、現画像第1セグメントブロッ
クおよび現画像第2セグメントブロックにそれぞれ最も
類似した類似ブロックを特定し、現画像フィールドブロ
ックに対応するフィールド動きベクトル、現画像第1セ
グメントブロックに対応する第1セグメント動きベクト
ルおよび現画像第2セグメントブロックに対応する第2
セグメント動きベクトルを探索する第1の動きベクトル
探索手段と、該第1の動きベクトル探索手段により特定
された現画像フィールドブロック、現画像第1セグメン
トブロックおよび現画像第2セグメントブロックのそれ
ぞれの前記類似ブロックの近傍に、前記第1の探索領域
設定手段より設定された探索領域より細かい探索密度で
あり、かつ狭い探索領域をそれぞれ設定する第2の探索
領域設定手段と、第2の探索領域設定手段により設定さ
れたそれぞれの探索領域に基づいて前記現画像フィール
ドブロック、現画像第1セグメントブロックおよび現画
像第2セグメントブロックに最も類似した類似ブロック
をそれぞれ特定し、現画像フィールドブロックに対応す
るフィールド動きベクトル、現画像第1セグメントブロ
ックに対応する第1セグメント動きベクトルおよび現画
像第2セグメントブロックに対応する第2セグメント動
きベクトルを探索する第2の動きベクトル探索手段と、
前記第1の動きベクトル探索手段により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第1の動きベクトル判定手段と、前記
第2の動きベクトル探索手段により探索された前記フィ
ールド動きベクトル、第1セグメント動きベクトル、第
2セグメント動きベクトルの中から最適な動きベクトル
を判定する第2の動きベクトル判定手段と、前記画像判
別手段により判別された予測画像に応じて第1の動きベ
クトル判定手段と第2の動きベクトル判定手段のうち何
れか一方の判定手段を選択する選択手段と、を備えたこ
とを特徴とする。
According to a seventh aspect of the present invention, for each field forming a moving image of the interlaced scanning system, a plurality of types of image information contained in pixels forming the field are respectively set to predetermined sampling frequencies. A format conversion means for extracting in the horizontal scanning direction and the vertical scanning direction on the basis of each of the fields extracted by the format conversion means; A forward prediction image that is encoded using the forward field as a reference image, and a bidirectional prediction image that is temporally encoded using the forward and backward fields as reference images. In the moving picture compression device, among the intra-frame predicted image, the forward predicted image, and the bidirectional predicted image, An image discriminating means for discriminating a predicted image to be encoded, a current image field block partially forming the field, and a current image first segment block consisting of an upper half block of the current image field block and the current image An image including a second segment block of the current image composed of lower half blocks of field blocks, and an image representing a pixel forming the reference image for the current image field block, the first segment block of the current image and the second segment block of the current image First search area setting means for respectively setting a wide search area having a coarse search density by extracting information, and the current image field based on the search area set by the first search area setting means. Block, current image first segment block and current image second segment block Identifying each the most similar similar blocks click, field motion vector corresponding to the current image field block, a second corresponding to the first segment motion vectors and the current picture second segment blocks corresponding to the first segment block current picture
First motion vector searching means for searching a segment motion vector, and the similarity of each of the current image field block, the current image first segment block and the current image second segment block specified by the first motion vector searching means. A second search area setting means and a second search area setting means which respectively set a search area having a finer search density and a narrower search area than the search area set by the first search area setting means in the vicinity of the block. Based on the respective search areas set by, the similar blocks most similar to the current image field block, the current image first segment block and the current image second segment block are respectively specified, and the field motion corresponding to the current image field block is specified. Vector, the first corresponding to the first segment block of the current image A second motion vector search means for searching the segments motion vectors and the second segment motion vector corresponding to the current image second segment blocks,
First motion vector determination means for determining an optimum motion vector from the field motion vector, first segment motion vector, and second segment motion vector searched by the first motion vector search means; Discriminating by the image discriminating means and the second motion vector discriminating means for discriminating the optimum motion vector from the field motion vector, the first segment motion vector and the second segment motion vector searched by the motion vector searching means It is characterized by further comprising: a selection unit that selects one of the first motion vector determination unit and the second motion vector determination unit according to the predicted image.

【0030】請求項8に記載の発明は、請求項7に記載
の発明において、前記画像判別手段により判別された予
測画像が前方向予測画像の場合、前記選択手段が第2の
動きベクトル判定手段を選択するとともに、前記画像判
別手段により判別された予測画像が双方向予測画像の場
合、前記選択手段が第1の動きベクトル判定手段を選択
することを特徴とする。
According to an eighth aspect of the invention, in the seventh aspect of the invention, when the predicted image discriminated by the image discriminating means is a forward predictive image, the selecting means is the second motion vector determining means. And when the predicted image determined by the image determination means is a bidirectional predicted image, the selection means selects the first motion vector determination means.

【0031】[0031]

【発明の実施の形態】以下、本発明の好ましい実施の形
態について図面を参照して説明する。図1および図2は
本発明の実施形態の動画像圧縮装置を示す図である。こ
の動画像圧縮装置は、図1に示すように、前処理ユニッ
ト11、符号化モード制御ユニット12、予測誤差信号
生成ユニット13、DCT(Discrete Cosine Transfor
m ;離散コサイン変換)ユニット14、量子化ユニット
15、可変長符号化ユニット16、バッファユニット1
7、符号量制御ユニット18、逆量子化ユニット21、
逆DCTユニット22、再生画像生成ユニット23、再
生画像記憶ユニット24、動き補償予測ユニット25お
よび動きベクトル探索ユニット26を備えており、各ユ
ニットは、図示しないバスによって互いに接続されてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. 1 and 2 are diagrams showing a moving image compression apparatus according to an embodiment of the present invention. As shown in FIG. 1, this moving picture compression apparatus includes a preprocessing unit 11, a coding mode control unit 12, a prediction error signal generation unit 13, and a DCT (Discrete Cosine Transfor).
m; Discrete Cosine Transform) unit 14, quantization unit 15, variable length coding unit 16, buffer unit 1
7, code amount control unit 18, dequantization unit 21,
The inverse DCT unit 22, the reproduced image generation unit 23, the reproduced image storage unit 24, the motion compensation prediction unit 25, and the motion vector search unit 26 are provided, and each unit is connected to each other by a bus (not shown).

【0032】1は、図外の画像メモリからデジタル動画
像信号を入力する画像信号入力端子であり、この画像信
号入力端子1を通して動画像を構成する各画面を符号化
順に前処理ユニット11に入力する。画像信号は各画面
をする構成する画素に対応する輝度情報および色差情報
を含むデータである。前処理ユニット11は、フォーマ
ット変換手段の機能を有し、画像信号入力端子1を通し
て入力された画像信号に対し、画面を構成する画素に含
まれる輝度情報および色差情報を所定の標本化周波数に
基づいて水平走査方向および垂直走査方向に抽出し、い
わゆる4:2:0、4:2:2または4:4:4の画像
フォーマットに変換する。また、前処理ユニット11
は、フォーマット変換された各画面の画像信号をさらに
16画素×16画素の矩形ブロック(以下、マクロブロ
ックという)に分割し、これらのマクロブロック毎に予
測誤差信号生成ユニット13および動きベクトル探索ユ
ニット26に出力する。
Reference numeral 1 denotes an image signal input terminal for inputting a digital moving image signal from an image memory (not shown). Through the image signal input terminal 1, each screen constituting a moving image is input to the preprocessing unit 11 in the order of encoding. To do. The image signal is data including luminance information and color difference information corresponding to the pixels forming each screen. The pre-processing unit 11 has a function of a format conversion means, and based on a predetermined sampling frequency, the luminance information and the color difference information contained in the pixels forming the screen are applied to the image signal input through the image signal input terminal 1. Then, it is extracted in the horizontal scanning direction and the vertical scanning direction, and is converted into a so-called 4: 2: 0, 4: 2: 2 or 4: 4: 4 image format. In addition, the pretreatment unit 11
Divide the format-converted image signal of each screen into rectangular blocks of 16 pixels × 16 pixels (hereinafter referred to as macroblocks), and the prediction error signal generation unit 13 and the motion vector search unit 26 for each of these macroblocks. Output to.

【0033】符号化モード制御ユニット12は、画像判
別手段の機能を有し、前処理ユニット11に入力された
各画面に含まれるヘッダ情報に基づいて、各画面の画面
構造(フレーム構造またはフィールド構造)およびピク
チャタイプ(Iピクチャ、PピクチャまたはBピクチ
ャ)を判別し、判別された画面構造およびピクチャタイ
プを、それぞれ予測誤差信号生成ユニット13、再生画
像記憶ユニット24、動き補償予測ユニット25、動き
ベクトル探索ユニット26および可変長符号化ユニット
16に出力する。
The coding mode control unit 12 has a function of image discrimination means, and based on the header information contained in each screen input to the preprocessing unit 11, the screen structure (frame structure or field structure) of each screen. ) And a picture type (I picture, P picture or B picture) are discriminated, and the discriminated screen structure and picture type are respectively referred to as a prediction error signal generation unit 13, a reproduced image storage unit 24, a motion compensation prediction unit 25 and a motion vector. It outputs to the search unit 26 and the variable length coding unit 16.

【0034】また、符号化モード制御ユニット12は、
判別されたピクチャタイプに応じてピクチャ内の各マク
ロブロックのそれぞれのマクロブロック属性を決定し、
同様に出力する。マクロブロック属性としては、単に入
力画像を符号化するイントラ(Intra;フレーム内符号
化)ブロック、動き補償を行わずに差分画像を符号化す
る単純フレーム間ブロック、動き補償を行って差分画像
を符号化する動き補償フレーム間ブロック等がある。
Further, the coding mode control unit 12 is
Determines each macroblock attribute of each macroblock in the picture according to the determined picture type,
Output in the same way. Macroblock attributes include an intra block that simply encodes an input image, a simple inter-frame block that encodes a difference image without motion compensation, and a difference image that performs motion compensation. There is a motion-compensated inter-frame block to be converted.

【0035】ここで、判別されたピクチャタイプがIピ
クチャの場合には、ピクチャ内の全てのマクロブロック
をイントラブロックとする。一方、判別されたピクチャ
タイプがPピクチャおよびBピクチャの場合には、前記
ヘッダ情報に予めイントラスライスの指定があるときに
は、そのスライス内の全てのマクロブロックをイントラ
ブロックとし、それ以外のときには、動き補償ユニット
25から出力されたイントラブロック、単純フレーム間
ブロック、動き補償フレーム間ブロック等の各マクロブ
ロック属性におけるマクロブロックの画像情報の発生符
号量の推定値、並びに、動きベクトル探索ユニット26
から出力された動きベクトル情報に基づいて、そのマク
ロブロックの発生符号量が最も小さくなるマクロブロッ
ク属性を決定する。
If the determined picture type is an I picture, all macro blocks in the picture are intra blocks. On the other hand, when the determined picture type is a P picture or a B picture, when an intra slice is designated in advance in the header information, all macroblocks in the slice are treated as intra blocks, and in other cases, motion is performed. The estimated value of the generated code amount of the image information of the macroblock in each macroblock attribute such as the intra block, the simple inter-frame block, the motion-compensated inter-frame block output from the compensation unit 25, and the motion vector search unit 26
Based on the motion vector information output from the macroblock, the macroblock attribute that minimizes the generated code amount of the macroblock is determined.

【0036】予測誤差信号生成ユニット13は、符号化
モード制御ユニット12から出力されたマクロブロック
属性に基づいて、入力画像(イントラブロック)、入力
画像と動き補償が行われない予測画像との差分画像(単
純フレーム間ブロック)、入力画像と動き補償が行われ
た予測画像との差分画像(動き補償フレーム間ブロッ
ク)等のうち、何れかを予測誤差信号としてDCTユニ
ット14に出力する。
The prediction error signal generation unit 13 is based on the macroblock attribute output from the coding mode control unit 12, and is an input image (intra block), and a difference image between the input image and a prediction image for which motion compensation is not performed Any one of (a simple inter-frame block), a difference image between the input image and the motion-compensated predicted image (motion-compensated inter-frame block), etc. is output to the DCT unit 14 as a prediction error signal.

【0037】DCTユニット14は、予測誤差信号生成
ユニット13から出力されたマクロブロックの画像信号
を8画素×8画素のブロックに分割し、このブロック毎
に公知の2次元DCT演算を行い、画像データを直流成
分(DC成分)および交流成分(AC成分)を含む低周
波項から高周波項までの複数のDCT係数に変換する。
The DCT unit 14 divides the image signal of the macro block output from the prediction error signal generation unit 13 into blocks of 8 pixels × 8 pixels, performs a known two-dimensional DCT operation for each block, and outputs the image data. Is converted into a plurality of DCT coefficients from a low frequency term to a high frequency term including a DC component (DC component) and an AC component (AC component).

【0038】このDCT演算によって、各ブロックの画
像データは、第1低周波項であるDC成分から高周波項
のAC成分まで、徐々に精細さを表現する段階的な複数
の周波数成分に分解される。また、DCT演算前には、
低い空間的相関を示していた画像信号の画素値(輝度情
報および色差情報)が、DCT演算により低周波項に集
中することから、高周波項を除去することで有効な情報
圧縮が可能となる。
By this DCT operation, the image data of each block is decomposed into a plurality of stepwise frequency components that gradually express fineness, from the DC component which is the first low frequency term to the AC component of the high frequency term. . Before the DCT operation,
Since the pixel values (luminance information and color difference information) of the image signal exhibiting a low spatial correlation are concentrated on the low-frequency terms by the DCT operation, effective information compression can be performed by removing the high-frequency terms.

【0039】なお、DCTは、好ましい直交変換方式と
して採用されているが、これに限るものではない。例え
ば、現在のテレビ信号はコンポーネント信号とコンポジ
ット信号が混在しているが、コンポーネント信号に対し
てはDCTが優れた特性を示すが、コンポジット信号に
対してはアダマール変換が優れた特性を示すことが知ら
れている。このように、符号化される画像の特性に応じ
て適した方式の直交変換方式を採用すれば良い。
Although DCT is adopted as a preferable orthogonal transform method, it is not limited to this. For example, current television signals have a mixture of component signals and composite signals, and DCT shows excellent characteristics for component signals, but Hadamard transform shows excellent characteristics for composite signals. Are known. As described above, an orthogonal transform method suitable for the characteristics of the image to be encoded may be adopted.

【0040】量子化ユニット15は、DCTユニット1
4から出力されたDCT係数を量子化ステップにより割
算し、高周波を除去するよう余りを丸めることにより量
子化を行い、可変長符号化ユニット16および逆量子化
ユニット21に出力する。DCT演算により得られたD
CT係数のDC成分とAC成分とはそれぞれ独立の量子
化ステップにより量子化され、イントラブロックのDC
係数については、ピクチャ単位に量子化ステップが制御
され、その他の係数については、ピクチャタイプに応じ
た量子化マトリックスにマクロブロック毎に定まる量子
化スケールを乗ずることにより量子化ステップが制御さ
れる。量子化マトリックスは量子化特性を視覚特性に合
せるためのパラメータである。量子化スケールは発生符
号量を制御するためのパラメータであり、後述する符号
量制御ユニット18によって制御される。
The quantization unit 15 is the DCT unit 1
The DCT coefficient output from No. 4 is divided by a quantization step, the remainder is rounded to remove high frequencies, and quantization is performed, and output to the variable length coding unit 16 and the inverse quantization unit 21. D obtained by DCT operation
The DC component and the AC component of the CT coefficient are quantized by independent quantization steps, and the DC of the intra block is quantized.
For the coefficient, the quantization step is controlled on a picture-by-picture basis, and for the other coefficients, the quantization step is controlled by multiplying the quantization matrix according to the picture type by the quantization scale determined for each macroblock. The quantization matrix is a parameter for adjusting the quantization characteristics to the visual characteristics. The quantization scale is a parameter for controlling the generated code amount, and is controlled by the code amount control unit 18 described later.

【0041】可変長符号化ユニット16は、量子化ユニ
ット15によって量子化されたDCT係数を低周波成分
から順次スキャンすることで、2次元の係数を1次元の
係数列に変換し、これらの係数を1次元係数列の連続す
る零係数の数を表すランおよび非零係数の値を表すレベ
ルに基づいて可変長符号化を行い、符号化データをバッ
ファユニット17に出力する。スキャン順序としては、
いわゆるジグザグスキャン(Zig-zag Scanning)とオル
タネートスキャン(Alternate Scanning)とがあり、画
像の種類に応じて切り換えて使用される。オルタネート
スキャンは、インタレース画像の場合に有効である。ま
た、可変長符号化ユニット16は、動きベクトル探索ユ
ニット26から出力された動きベクトル情報を可変長符
号化し、バッファユニット17に出力する。
The variable-length coding unit 16 scans the DCT coefficients quantized by the quantization unit 15 in order from the low frequency component, thereby converting the two-dimensional coefficients into a one-dimensional coefficient sequence, and Is subjected to variable length coding on the basis of the run representing the number of consecutive zero coefficients of the one-dimensional coefficient sequence and the level representing the value of the non-zero coefficient, and the encoded data is output to the buffer unit 17. The scan order is
There are so-called zig-zag scanning and so-called alternate scanning, which are switched and used according to the type of image. The alternate scan is effective for an interlaced image. Also, the variable length coding unit 16 performs variable length coding on the motion vector information output from the motion vector search unit 26, and outputs the motion vector information to the buffer unit 17.

【0042】バッファユニット17は、可変長符号化ユ
ニット16から符号化データを入力し、ビットレートを
平均化しながら出力する。すなわち、バッファユニット
17はその画像の複雑さや動きの激しさによって発生符
号量が変動するため、この変動を吸収して符号化データ
を略一定の伝送速度でビットストリームとして伝送する
ものである。バッファユニット17から出力された符号
化データは、出力端子2を通して出力され、図外の伝送
路を経て外部デコーダに伝送される。
The buffer unit 17 inputs the encoded data from the variable length encoding unit 16 and outputs it while averaging the bit rates. That is, since the generated code amount of the buffer unit 17 varies depending on the complexity of the image and the intensity of the motion, the buffer unit 17 absorbs the variation and transmits the encoded data as a bit stream at a substantially constant transmission rate. The encoded data output from the buffer unit 17 is output through the output terminal 2 and transmitted to the external decoder via a transmission line (not shown).

【0043】符号量制御ユニット18は、バッファユニ
ット17の符号化データの占有率を監視することによっ
て発生符号量を把握し、目標ビットレートに合せるよう
量子化ユニット15の量子化スケールを制御する。逆量
子化ユニット21は、量子化ユニット15により量子化
された各DCT係数に量子化時と同じ量子化ステップを
乗ずることにより逆量子化を行い、逆DCTユニット2
2に出力する。逆DCTユニット22は、逆量子化され
た2次元係数を逆DCT演算した後、8画素×8画素の
各ブロックから16画素×16画素のマクロブロックを
合成することで、予測誤差信号の復元画像を生成し、再
生画像生成ユニット23に出力する。
The code amount control unit 18 grasps the generated code amount by monitoring the occupation rate of the coded data in the buffer unit 17, and controls the quantization scale of the quantization unit 15 so as to match the target bit rate. The inverse quantization unit 21 performs inverse quantization by multiplying each DCT coefficient quantized by the quantization unit 15 by the same quantization step as in the case of quantization, and the inverse DCT unit 2
Output to 2. The inverse DCT unit 22 performs an inverse DCT operation on the inversely quantized two-dimensional coefficient, and then synthesizes a macroblock of 16 pixels × 16 pixels from each block of 8 pixels × 8 pixels to obtain a restored image of the prediction error signal. Is generated and output to the reproduction image generation unit 23.

【0044】再生画像生成ユニット23は、逆DCTユ
ニット22から出力された予測誤差信号の復元画像およ
び動き補償予測ユニット25から出力された予測画像に
基づいて原画像に対応する再生画像を生成し、再生画像
記憶ユニット24に記憶する。すなわち、逆量子化ユニ
ット21、逆DCTユニット22および再生画像生成ユ
ニット23により局部復号化が行われることになり、再
生画像記憶ユニット24に記憶された再生画像は、後に
符号化されるPピクチャまたはBピクチャの参照画像と
なる。
The reproduced image generation unit 23 generates a reproduced image corresponding to the original image based on the restored image of the prediction error signal output from the inverse DCT unit 22 and the predicted image output from the motion compensation prediction unit 25, It is stored in the reproduced image storage unit 24. That is, the inverse quantization unit 21, the inverse DCT unit 22, and the reproduction image generation unit 23 perform local decoding, and the reproduction image stored in the reproduction image storage unit 24 is a P picture or a P picture to be encoded later. It becomes the reference image of the B picture.

【0045】動き補償予測ユニット25は、再生画像生
成ユニット24に記憶された再生画像および動きベクト
ル探索ユニット26によって探索された動きベクトルに
基づいて、イントラブロック、単純フレーム間ブロッ
ク、動き補償フレーム間ブロック等の各マクロブロック
属性における予測画像を生成し、それぞれ予測誤差信号
生成ユニット13から出力される予測誤差信号とした場
合の発生符号量を推定し、符号化モード制御ユニット1
2に出力する。
The motion compensation prediction unit 25, based on the reproduced image stored in the reproduced image generation unit 24 and the motion vector searched by the motion vector search unit 26, intra block, simple inter-frame block, motion compensated inter-frame block. A predictive image in each macroblock attribute such as, for example, is generated, the generated code amount is estimated when the predictive error signal is output from the predictive error signal generating unit 13, and the encoding mode control unit 1
Output to 2.

【0046】符号化モード制御ユニット12では、動き
補償予測ユニット25により出力された各マクロブロッ
ク属性における予測誤差信号とした場合の発生符号量の
推定値、並びに、動きベクトル探索ユニット26から出
力された動きベクトル情報に基づいて、そのマクロブロ
ックの発生符号量が最も小さくなるマクロブロック属性
が決定される。動き補償予測ユニット25は、符号化モ
ード制御ユニット12により決定されたマクロブロック
属性に基づいて予測画像を再生画像生成ユニット23に
出力する。
In the coding mode control unit 12, the estimated value of the generated code amount when the prediction error signal in each macroblock attribute outputted by the motion compensation prediction unit 25 and the motion vector search unit 26 output it. Based on the motion vector information, the macroblock attribute that minimizes the generated code amount of the macroblock is determined. The motion compensation prediction unit 25 outputs the predicted image to the reproduced image generation unit 23 based on the macroblock attribute determined by the coding mode control unit 12.

【0047】動きベクトル探索ユニット26は、符号化
モード制御ユニット12から出力された画面構造および
ピクチャタイプに応じて、前処理ユニット11から出力
されたマクロブロック毎に、入力画像(現画像)の画像
情報と再生画像記憶ユニット24に記憶された参照画像
(既に符号化されたIピクチャまたはPピクチャ)の画
像情報に基づいて動きベクトルを求め、動きベクトル情
報を符号化モード制御ユニット12、動き補償予測ユニ
ット26、再生画像記憶ユニット24および可変長符号
化ユニット16に出力する。
The motion vector search unit 26 receives an image of the input image (current image) for each macroblock output from the preprocessing unit 11 according to the screen structure and the picture type output from the coding mode control unit 12. A motion vector is obtained based on the information and the image information of the reference image (I picture or P picture already encoded) stored in the reproduced image storage unit 24, and the motion vector information is obtained by the encoding mode control unit 12 and the motion compensation prediction. The data is output to the unit 26, the reproduced image storage unit 24, and the variable length coding unit 16.

【0048】ここで、画面構造がフレーム構造の場合に
は、16画素×16画素のマクロブロックは、従来の技
術において説明した現画像フレームブロックに相当し、
動きベクトル探索ユニット26は、現画像フレームブロ
ックに対応するフレーム動きベクトルMVA、現画像第
1フィールドブロックに対応する第1フィールド動きベ
クトルMVA1および現画像第2フィールドブロックに
対応する第2フィールド動きベクトルMVA2をそれぞ
れ求め、これらの動きベクトルの中から最適な1本のフ
レーム動きベクトルMVAまたは2本のフィールド動き
ベクトルMVA1,MVA2を選択して出力する。
Here, when the screen structure is a frame structure, the 16 pixel × 16 pixel macro block corresponds to the current image frame block described in the prior art.
The motion vector search unit 26 includes a frame motion vector MVA corresponding to the current image frame block, a first field motion vector MVA1 corresponding to the current image first field block and a second field motion vector MVA2 corresponding to the current image second field block. From each of these motion vectors, an optimum one frame motion vector MVA or two field motion vectors MVA1 and MVA2 are selected and output.

【0049】一方、画面構造がフィールド構造の場合に
は、16画素×16画素のマクロブロックは、従来の技
術で説明した現画像フィールドブロックに相当し、動き
ベクトル探索ユニット26は、現画像フィールドブロッ
クに対応するフィールド動きベクトルMVB、現画像第
1セグメントブロックに対応する第1セグメント動きベ
クトルMVB1および現画像第2セグメントブロックに
対応する第2セグメント動きベクトルMVB2をそれぞ
れ求め、これらの動きベクトルの中から最適な1本のフ
ィールド動きベクトルMVBまたは2本のセグメント動
きベクトルMVB1,MVB2を選択して出力する。
On the other hand, when the screen structure is the field structure, the macroblock of 16 pixels × 16 pixels corresponds to the current image field block described in the prior art, and the motion vector search unit 26 determines the current image field block. Field motion vector MVB, a first segment motion vector MVB1 corresponding to the current image first segment block, and a second segment motion vector MVB2 corresponding to the current image second segment block, respectively. The optimum one field motion vector MVB or two segment motion vectors MVB1 and MVB2 are selected and output.

【0050】また、動きベクトル探索ユニット26は、
上記各動きベクトルをそれぞれ、図9に示された粗い探
索(第1段階の探索)と細かい探索(第2段階の探索)
の2段階探索により探索するものであり、図2に示すよ
うに、判定段階切換ユニット30、第1探索領域設定ユ
ニット31、第1動きベクトル探索ユニット32、第2
探索領域設定ユニット33、第2動きベクトル探索ユニ
ット34、動きベクトル加算ユニット35および動きベ
クトル判定ユニット36を備えている。各ユニットは、
前記バスに接続されたローカルバス37によって互いに
接続されている。
Further, the motion vector search unit 26 is
Rough search (first stage search) and fine search (second stage search) shown in FIG.
2, the determination stage switching unit 30, the first search area setting unit 31, the first motion vector search unit 32, the second motion vector search unit 32, and the second motion vector search unit 32.
A search area setting unit 33, a second motion vector search unit 34, a motion vector addition unit 35, and a motion vector determination unit 36 are provided. Each unit is
They are connected to each other by a local bus 37 connected to the bus.

【0051】判定段階切換ユニット30は、選択手段の
機能を有し、符号化モード制御ユニット12から出力さ
れたピクチャタイプに基づいて、動きベクトルを判定す
る段階を切り換え、判定段階を表す情報を第1動きベク
トル探索ユニット32、第2探索領域設定ユニット3
3、第2動きベクトル探索ユニット34および動きベク
トル判定ユニット36に出力する。
The judgment step switching unit 30 has a function of selecting means, switches the step of judging the motion vector based on the picture type output from the coding mode control unit 12, and outputs information representing the judgment step to the first step. 1 motion vector search unit 32, second search area setting unit 3
3 to the second motion vector search unit 34 and the motion vector determination unit 36.

【0052】ここで、判定段階は、ピクチャタイプがP
ピクチャの場合には第2段階を表し、ピクチャタイプが
Bピクチャの場合には第1段階を表す。すなわち、Pピ
クチャの場合には、マクロブロックに含まれる3種類の
現画像ブロックに対し、それぞれ第1段階の探索および
第2段階の探索により求められた3本の動きベクトルか
ら最適な動きベクトルが判定される一方、Bピクチャの
場合には、第1段階の探索により求められた3本の動き
ベクトルから最適な動きベクトルが判定される。
Here, in the judging step, the picture type is P
In the case of a picture, it represents the second stage, and when the picture type is a B picture, it represents the first stage. That is, in the case of a P picture, an optimum motion vector is obtained from the three motion vectors obtained by the first-stage search and the second-stage search for the three types of current image blocks included in the macroblock. On the other hand, in the case of the B picture, the optimum motion vector is determined from the three motion vectors obtained by the search in the first stage.

【0053】第1探索領域設定ユニット31は、符号化
モード制御ユニット12から出力された画面構造に基づ
いて、マクロブロックに含まれる3種類の現画像ブロッ
クに対応する探索領域をそれぞれ設定する。各探索領域
はそれぞれ、再生画像記憶ユニット24に記憶された参
照画像から、水平走査方向および垂直走査方向の画素を
それぞれスキップして探索点を抽出することにより、探
索密度は粗いが、広い探索領域が設定される。
The first search area setting unit 31 sets the search areas corresponding to the three types of current image blocks included in the macroblock based on the screen structure output from the coding mode control unit 12. Each search area has a wide search area although the search density is coarse by extracting the search points from the reference image stored in the reproduced image storage unit 24 by skipping pixels in the horizontal scanning direction and the pixels in the vertical scanning direction. Is set.

【0054】第1動きベクトル探索ユニット32は、前
処理ユニット11から出力されたマクロブロック毎に、
符号化モード制御ユニット12から出力された画面構造
に基づいて、マクロブロックに含まれる3種類の現画像
ブロックに対し、第1探索領域設定ユニット31により
設定された探索領域の中からそれぞれ動きベクトルを求
め、予測精度の粗い第1段階の動きベクトル探索を行
う。
The first motion vector search unit 32, for each macroblock output from the preprocessing unit 11,
Based on the screen structure output from the coding mode control unit 12, a motion vector is selected from each of the search areas set by the first search area setting unit 31 for the three types of current image blocks included in the macroblock. Then, the first-stage motion vector search with rough prediction accuracy is performed.

【0055】具体的には、まず、各候補ブロックの画素
データと現画像ブロックの画素データとの差分を表すデ
ィストーションがそれぞれ演算される。次いで、演算さ
れたディストーションの中から最小の値をもつディスト
ーション(最小ディストーション)を特定することによ
り、現画像ブロックに最も類似した候補ブロック(類似
ブロック)が特定される。次いで、この類似ブロックと
現画像ブロックとの変位が演算されて動きベクトルが求
められる。
Specifically, first, the distortion representing the difference between the pixel data of each candidate block and the pixel data of the current image block is calculated. Then, the candidate block (similar block) most similar to the current image block is specified by specifying the distortion having the minimum value (minimum distortion) from the calculated distortions. Then, the displacement between the similar block and the current image block is calculated to obtain the motion vector.

【0056】求められた動きベクトルおよび最小ディス
トーションは、判定段階切換ユニット30から出力され
た判定段階を表す情報に基づいて出力される。ここで、
判定段階が第1段階(Bピクチャ)の場合には、求めら
れた全ての動きベクトルおよび最小ディストーションが
動きベクトル判定ユニット36に出力される。一方、判
定段階が第2段階(Pピクチャ)の場合には、求められ
た全ての動きベクトルが第2探索領域設定ユニット3
3、第2動きベクトル探索ユニット34および動きベク
トル加算ユニット35に出力される。
The obtained motion vector and minimum distortion are output based on the information indicating the judgment stage output from the judgment stage switching unit 30. here,
When the determination step is the first step (B picture), all the obtained motion vectors and the minimum distortion are output to the motion vector determination unit 36. On the other hand, when the determination step is the second step (P picture), all the obtained motion vectors are the second search area setting unit 3
3 to the second motion vector search unit 34 and the motion vector addition unit 35.

【0057】第2探索領域設定ユニット33は、第1動
きベクトル探索ユニット32または動きベクトル判定ユ
ニット36から第1段階の動きベクトルを入力し、入力
された第1段階の動きベクトルの現画像ブロックに対す
る探索領域を、第1動きベクトル探索ユニット32によ
り探索された候補ブロック(類似ブロック)の近傍に設
定する。これらの探索領域は第1探索領域設定ユニット
31により設定された探索領域より狭く、かつ探索領域
内の全ての画素の画像情報が再生画像記憶ユニット24
から抽出されるように、探索密度の細かい探索領域が設
定される。
The second search area setting unit 33 inputs the motion vector of the first stage from the first motion vector searching unit 32 or the motion vector judging unit 36, and the current image block of the input motion vector of the first stage is inputted. The search area is set near the candidate block (similar block) searched by the first motion vector search unit 32. These search areas are narrower than the search area set by the first search area setting unit 31, and the image information of all the pixels in the search area is the reproduced image storage unit 24.
A search area with a fine search density is set so that the search area is extracted from

【0058】第2動きベクトル探索ユニット34は、第
1動きベクトル探索ユニット32または動きベクトル判
定ユニット36から第1段階の動きベクトルを入力し、
入力された第1段階の動きベクトルに対応する現画像ブ
ロックに対し、第2探索領域設定ユニット33により設
定された探索領域の中から、動きベクトルおよび最小デ
ィストーションを求め、予測精度の細かい第2段階の動
きベクトル探索を行う。
The second motion vector search unit 34 inputs the first stage motion vector from the first motion vector search unit 32 or the motion vector determination unit 36,
For the current image block corresponding to the input first-step motion vector, the motion vector and the minimum distortion are obtained from the search area set by the second search area setting unit 33, and the second step with a fine prediction accuracy is obtained. Motion vector search is performed.

【0059】ここで、動きベクトルおよび最小ディスト
ーションは、第1動きベクトル探索ユニット32と同様
に求められるが、動きベクトルは、第1動きベクトル探
索ユニット32により特定された類似ブロックと第2動
きベクトル探索ユニット34により特定された類似ブロ
ックとの変位を表す。求められた動きベクトルおよび最
小ディストーションは、動きベクトル加算ユニット35
に出力される。
Here, the motion vector and the minimum distortion are obtained in the same manner as in the first motion vector search unit 32, but the motion vector is searched for the similar block specified by the first motion vector search unit 32 and the second motion vector search. The displacement with the similar block identified by the unit 34 is represented. The calculated motion vector and minimum distortion are calculated by the motion vector addition unit 35.
Is output to

【0060】動きベクトル加算ユニット35は、同一の
現画像ブロックに対応する第1段階の動きベクトルと第
2段階の動きベクトルとを加算して、各現画像ブロック
の最終動きベクトルを求める。最終動きベクトルは、判
定段階切換ユニット30から出力された判定段階を表す
情報に基づいて出力される。ここで、判定段階が第1段
階(Bピクチャ)の場合には、最終動きベクトルはその
まま符号化モード制御ユニット12や動き補償予測ユニ
ット25等に出力される。一方、判定段階が第2段階
(Pピクチャ)の場合には、最終動きベクトルは動きベ
クトル判定ユニット36に出力される。
The motion vector addition unit 35 adds the first stage motion vector and the second stage motion vector corresponding to the same current image block to obtain the final motion vector of each current image block. The final motion vector is output based on the information indicating the determination stage output from the determination stage switching unit 30. Here, when the determination step is the first step (B picture), the final motion vector is output as it is to the coding mode control unit 12, the motion compensation prediction unit 25, and the like. On the other hand, when the determination stage is the second stage (P picture), the final motion vector is output to the motion vector determination unit 36.

【0061】動きベクトル判定ユニット36は、第1動
きベクトル探索ユニット32から出力された第1段階の
動きベクトルまたは動きベクトル加算ユニット35から
出力された最終動きベクトルを入力し、入力された動き
ベクトルの中から最適な動きベクトルを選択して出力す
る。ここで、画面構造がフレーム構造の場合には、ま
ず、第1フィールド動きベクトルの最小ディストーショ
ンと第2フィールド動きベクトルの最小ディストーショ
ンとが加算され、次いで、この加算された最小ディスト
ーションとフレーム動きベクトルの最小ディストーショ
ンとが比較され、値が小さいほうが最適な動きベクトル
として判定される。
The motion vector determination unit 36 inputs the first stage motion vector output from the first motion vector search unit 32 or the final motion vector output from the motion vector addition unit 35, and outputs the motion vector of the input motion vector. The optimum motion vector is selected from the output and output. Here, when the screen structure is a frame structure, first, the minimum distortion of the first field motion vector and the minimum distortion of the second field motion vector are added, and then the added minimum distortion and the frame motion vector are added. The minimum distortion is compared, and the smaller value is determined as the optimum motion vector.

【0062】一方、画面構造がフィールド構造の場合に
は、まず、第1セグメント動きベクトルの最小ディスト
ーションと第2セグメント動きベクトルの最小ディスト
ーションとが加算され、次いで、この加算された最小デ
ィストーションとフィールド動きベクトルの最小ディス
トーションとが比較され、値が小さいほうが最適な動き
ベクトルとして判定される。
On the other hand, when the screen structure is the field structure, first, the minimum distortion of the first segment motion vector and the minimum distortion of the second segment motion vector are added, and then the added minimum distortion and the field motion are added. The minimum distortion of the vector is compared, and the smaller value is determined as the optimum motion vector.

【0063】これらの動きベクトルは、判定段階切換ユ
ニット30から出力された判定段階を表す情報に基づい
て出力される。ここで、判定段階が第1段階(Bピクチ
ャ)の場合には、選択された動きベクトルは第2探索領
域設定ユニット33および第2動きベクトル探索ユニッ
ト34に出力される。一方、判定段階が第2段階(Pピ
クチャ)の場合には、選択された動きベクトルは符号化
モード制御ユニット12や動き補償予測ユニット25等
に出力される。
These motion vectors are output based on the information indicating the determination stage output from the determination stage switching unit 30. Here, when the determination step is the first step (B picture), the selected motion vector is output to the second search area setting unit 33 and the second motion vector search unit 34. On the other hand, when the determination step is the second step (P picture), the selected motion vector is output to the coding mode control unit 12, the motion compensation prediction unit 25, and the like.

【0064】すなわち、本動画像圧縮装置は、予め動き
ベクトル探索ユニット26により、フレーム構造の場合
には、1本のフレーム動きベクトルおよび2本のフィー
ルド動きベクトルの中から最適な動きベクトルを判定す
るとともに、フィールド構造の場合には、1本のフィー
ルド動きベクトルおよび2本のセグメント動きベクトル
の中から最適な動きベクトルを判定するものである。そ
して、ピクチャタイプに応じて動きベクトルを判定する
時期を判定段階切換ユニット30によって切り換え、ピ
クチャタイプがPピクチャの場合には、第1および第2
段階の動きベクトルを加算して得られた最終動きベクト
ルの中から最適な動きベクトルを判定する一方、ピクチ
ャタイプがBピクチャの場合には、第1動きベクトル探
索ユニット32により得られた第1段階の動きベクトル
から最適な動きベクトルを判定する。
That is, in the present moving picture compression apparatus, the motion vector search unit 26 previously determines the optimum motion vector from one frame motion vector and two field motion vectors in the case of a frame structure. In addition, in the case of the field structure, the optimum motion vector is determined from one field motion vector and two segment motion vectors. Then, the determination stage switching unit 30 switches the timing of determining the motion vector according to the picture type. When the picture type is the P picture, the first and second
The optimum motion vector is determined from the final motion vectors obtained by adding the motion vectors of the steps, while the first step obtained by the first motion vector search unit 32 when the picture type is B picture. The optimum motion vector is determined from the motion vector of

【0065】第1段階の動きベクトルは、探索密度が粗
いが、広い探索領域から求められるので、動きベクトル
の大きさは第2段階の動きベクトルと比較して同等また
はその数倍の大きさとなる。これに対し、第2段階の動
きベクトルは探索密度は細かいが狭い探索領域から求め
られるので、動きベクトルの大きさは小さいものとな
る。このため、Bピクチャの場合には、第1段階の動き
ベクトルに基づいて動きベクトル判定を行うことで、多
少の画質劣化を許容している。Bピクチャの場合には、
多少画質を落しても動画像全体としての画質劣化にあま
り影響しないからである。しかし、Pピクチャの場合に
画質劣化があると動画像全体の画質劣化に影響してしま
う。よって、Pピクチャの場合には、動きベクトル加算
ユニット35により加算された最終動きベクトルから最
適な動きベクトルを判定している。
The motion vector of the first stage has a coarse search density but is obtained from a wide search area, and therefore the size of the motion vector is equal to or several times as large as that of the motion vector of the second stage. . On the other hand, the motion vector of the second stage has a small search density but is obtained from a narrow search region, and thus the size of the motion vector is small. Therefore, in the case of a B picture, a slight deterioration in image quality is allowed by making a motion vector determination based on the first stage motion vector. In case of B picture,
This is because even if the image quality is lowered to some extent, it does not significantly affect the image quality deterioration of the entire moving image. However, in the case of a P picture, if the image quality is deteriorated, it will affect the image quality deterioration of the entire moving image. Therefore, in the case of the P picture, the optimum motion vector is determined from the final motion vector added by the motion vector addition unit 35.

【0066】次に、本発明の実施の態様を説明する。以
下、各画面毎に動きベクトル探索ユニット26により動
きベクトルを探索する動作を図3に示されたフローチャ
ートに基づいて説明する。ここで、符号化制御モード制
御ユニット12により判別された各画面の画面構造およ
びピクチャタイプが動きベクトル探索ユニット26にそ
れぞれ入力されるとともに、PピクチャまたはBピクチ
ャの場合には、イントラスライスの指定により予めイン
トラブロックとして決定されたマクロブロック属性が符
号化モード制御ユニット12から動きベクトル探索ユニ
ット26に入力されるものとする。
Next, an embodiment of the present invention will be described. Hereinafter, the operation of searching the motion vector by the motion vector search unit 26 for each screen will be described based on the flowchart shown in FIG. Here, the screen structure and picture type of each screen determined by the coding control mode control unit 12 are input to the motion vector search unit 26, and in the case of P picture or B picture, the intra slice is designated. It is assumed that the macroblock attribute previously determined as an intra block is input from the coding mode control unit 12 to the motion vector search unit 26.

【0067】まず、符号化モード制御ユニット12から
出力されたピクチャタイプを判断する(ステップS
1)。ここで、ピクチャタイプがIピクチャであると判
断された場合には、すべてのマクロブロックがイントラ
ブロックであるので、動きベクトル探索は行わずにその
画面に対する処理を終了する。また、ステップS1でピ
クチャタイプがPピクチャであると判断された場合に
は、判定段階切換ユニット30により判定段階を第2段
階に切り換える(ステップS2)。
First, the picture type output from the coding mode control unit 12 is determined (step S
1). Here, when it is determined that the picture type is an I picture, all macroblocks are intra blocks, and therefore the motion vector search is not performed and the process for the screen ends. When it is determined in step S1 that the picture type is the P picture, the determination step switching unit 30 switches the determination step to the second step (step S2).

【0068】次に、処理すべきマクロブロックがあるか
否か判断する(ステップS3)。ここで、処理すべきマ
クロブロックがない場合には、その画面に対する処理を
終了する。一方、処理すべきマクロブロックがある場合
には、予めそのマクロブロックがイントラブロックとし
て決定されているか否かを判断する(ステップS4)。
Next, it is judged whether or not there is a macroblock to be processed (step S3). Here, if there is no macroblock to be processed, the process for that screen is terminated. On the other hand, when there is a macroblock to be processed, it is determined whether or not the macroblock is determined in advance as an intra block (step S4).

【0069】ここで、マクロブロック属性がイントラブ
ロックとして決定されている場合には、動きベクトル探
索は行わずにステップS3に戻る。一方、マクロブロッ
ク属性がイントラブロックとして決定されていない場合
には、第1探索領域設定ユニット31によりマクロブロ
ックに含まれる現画像ブロックに対応する探索領域が設
定され、設定された探索領域の画素データとマクロブロ
ックの画素データに基づいて第1動きベクトル探索ユニ
ット42により第1段階の動きベクトルが探索され、第
2探索領域設定ユニット33および第2動きベクトル探
索ユニット34に出力される(ステップS5)。
If the macroblock attribute is determined to be an intrablock, the motion vector search is not performed and the process returns to step S3. On the other hand, when the macroblock attribute is not determined as the intra block, the first search area setting unit 31 sets the search area corresponding to the current image block included in the macroblock, and the pixel data of the set search area is set. Based on the pixel data of the macroblock and the macroblock, the first motion vector search unit 42 searches for the first-stage motion vector, and outputs it to the second search area setting unit 33 and the second motion vector search unit 34 (step S5). .

【0070】次に、第1動きベクトル探索ユニット32
により探索された第1段階の動きベクトルに対して、第
2探索領域設定ユニット42により探索領域が設定さ
れ、設定された探索領域の画素データとマクロブロック
の画素データとに基づいて第2動きベクトル探索ユニッ
ト34により第2段階の動きベクトルが探索され、動き
ベクトル加算ユニット35に出力される(ステップS
6)。
Next, the first motion vector search unit 32
The search area is set by the second search area setting unit 42 with respect to the motion vector of the first stage searched by the second motion vector based on the pixel data of the set search area and the pixel data of the macro block. The search unit 34 searches for the second stage motion vector and outputs it to the motion vector addition unit 35 (step S
6).

【0071】次に、動きベクトル加算ユニット35によ
り、同一の現画像ブロックに対応する第1段階の動きベ
クトルと第2段階の動きベクトルとが加算され、加算さ
れた最終動きベクトルが動きベクトル判定ユニット36
に出力される(ステップS7)。次に、動きベクトル判
定ユニット36により、最終動きベクトルの中から最適
な動きベクトルが選択され、動き補償予測ユニット25
に出力され、再びステップS3に戻る(ステップS
8)。
Next, the motion vector addition unit 35 adds the first stage motion vector and the second stage motion vector corresponding to the same current image block, and the final added motion vector is the motion vector determination unit. 36
(Step S7). Next, the motion vector determination unit 36 selects the optimum motion vector from the final motion vectors, and the motion compensation prediction unit 25
To step S3 (step S3).
8).

【0072】さらに、ステップS1でピクチャタイプが
Bピクチャであると判断された場合には、判定段階切換
ユニット30により判定段階を第1段階に切り換える
(ステップS9)。次に、処理すべきマクロブロックが
あるか否か判断する(ステップS10)。ここで、処理
すべきマクロブロックがない場合には、その画面に対す
る処理を終了する。一方、処理すべきマクロブロックが
ある場合には、予めそのマクロブロックがイントラブロ
ックとして決定されているか否かを判断する(ステップ
S11)。
Further, when it is determined in step S1 that the picture type is the B picture, the determination step switching unit 30 switches the determination step to the first step (step S9). Next, it is determined whether there is a macroblock to be processed (step S10). Here, if there is no macroblock to be processed, the process for that screen is terminated. On the other hand, if there is a macroblock to be processed, it is determined whether or not the macroblock has been previously determined as an intra block (step S11).

【0073】ここで、マクロブロック属性がイントラブ
ロックとして決定されている場合には、動きベクトル探
索は行わずにステップS10に戻る。一方、マクロブロ
ック属性がイントラブロックとして決定されていない場
合には、第1探索領域設定ユニット31によりマクロブ
ロックに含まれる現画像ブロックに対応する探索領域が
設定され、設定された探索領域の画素データとマクロブ
ロックの画素データに基づいて第1動きベクトル探索ユ
ニット42により第1段階の動きベクトルが探索され、
動きベクトル判定ユニット36に出力される(ステップ
S12)。
If the macroblock attribute is determined to be an intra block, the motion vector search is not performed and the process returns to step S10. On the other hand, when the macroblock attribute is not determined as the intra block, the first search area setting unit 31 sets the search area corresponding to the current image block included in the macroblock, and the pixel data of the set search area is set. And the first motion vector search unit 42 searches the first stage motion vector based on the pixel data of the macroblock,
It is output to the motion vector determination unit 36 (step S12).

【0074】次に、第1動きベクトル探索ユニット32
により探索された第1段階の動きベクトルの中から動き
ベクトル判定ユニット36により最適な動きベクトルが
選択され、第2探索領域設定ユニット33および第2動
きベクトル探索ユニット34にそれぞれ出力される(ス
テップS13)。次に、動きベクトル判定ユニット36
により選択された第1段階の動きベクトルに対し、第2
探索領域設定ユニット33により探索領域が設定され、
設定された探索領域の画素データとマクロブロックの画
素データに基づいて第2動きベクトル探索ユニット34
により第2段階の動きベクトルが探索され、動きベクト
ル加算ユニット35に出力される(ステップS14)。
Next, the first motion vector search unit 32
The optimum motion vector is selected by the motion vector determination unit 36 from the first-stage motion vectors searched for by and is output to the second search area setting unit 33 and the second motion vector search unit 34, respectively (step S13). ). Next, the motion vector determination unit 36
To the first stage motion vector selected by
The search area is set by the search area setting unit 33,
The second motion vector search unit 34 based on the pixel data of the set search area and the pixel data of the macro block.
Thus, the second stage motion vector is searched for and output to the motion vector addition unit 35 (step S14).

【0075】次に、動きベクトル加算ユニット35によ
り、同一の現画像ブロックに対応する第1段階の動きベ
クトルと第2段階の動きベクトルとが加算され、動き補
償予測ユニット25に出力され、再びステップS10に
戻る(ステップS15)。このように、符号化モード制
御ユニット12から出力されたピクチャタイプに応じて
判定段階を切り換えて動きベクトルを探索しているの
で、Pピクチャの場合には、第1および第2段階の動き
ベクトルが加算された最終動きベクトルに基づいて最適
な動きベクトルが判定されるとともに、Bピクチャの場
合には、第1段階の動きベクトルにより最適な動きベク
トルが判定される。
Next, the motion vector addition unit 35 adds the first-stage motion vector and the second-stage motion vector corresponding to the same current image block, outputs the result to the motion compensation prediction unit 25, and again performs the step. It returns to S10 (step S15). In this way, since the motion vector is searched by switching the determination stage according to the picture type output from the coding mode control unit 12, in the case of the P picture, the motion vectors of the first and second stages are The optimum motion vector is determined based on the added final motion vector, and in the case of the B picture, the optimum motion vector is determined based on the first stage motion vector.

【0076】このため、Bピクチャの動きベクトル探索
処理量を大幅に削減することができるので、Pピクチャ
およびBピクチャの動きベクトル探索処理量を平均化し
て動きベクトル探索処理を効率良く行うことができる。
従って、動画像全体の画質を低下させることなく、符号
化処理を高速化することができる。なお、本実施の形態
の動画像圧縮装置の動きベクトル探索26では、多段階
探索方法を採用し、ピクチャタイプに応じて動きベクト
ルを判定する時期を切り換えたが、従来の技術で説明し
た階層探索方法により上位階層から下位階層の動きベク
トルを探索する場合にも、同様にピクチャタイプに応じ
て判定時期を切り換えることで動きベクトル探索処理を
効率良く行うことができることはいうまでもない。
Therefore, the motion vector search processing amount of the B picture can be significantly reduced, so that the motion vector search processing amount of the P picture and the B picture can be averaged to efficiently perform the motion vector search processing. .
Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image. In the motion vector search 26 of the moving picture compression apparatus according to the present embodiment, a multi-step search method is adopted, and the timing of determining the motion vector is switched according to the picture type. It is needless to say that even when the motion vector of the upper layer is searched for by the method, the motion vector search process can be efficiently performed by similarly switching the determination time according to the picture type.

【0077】[0077]

【発明の効果】請求項1に記載の発明によれば、画像判
別工程により判別された予測画像の種類に応じて、第1
および第2の判定工程のうち何れか一方の判定工程を選
択することができるので、動きベクトル探索処理量が大
きく、かつ動きベクトルの予測精度の低下が許容可能な
予測画像の場合には、第1の判定工程により最適な動き
ベクトルを判定することにより、動きベクトル探索処理
量を削減して、各予測画像の動きベクトル探索処理量を
平均化することができる。従って、動画像全体としての
画質を低下させることなく、符号化処理を高速化するこ
とができる。
According to the first aspect of the present invention, the first image is detected according to the type of the predicted image discriminated in the image discriminating step.
Since it is possible to select either one of the second and second determination steps, in the case of a predicted image in which the amount of motion vector search processing is large and the decrease in motion vector prediction accuracy is acceptable, By determining the optimum motion vector in the determination step of 1, it is possible to reduce the motion vector search processing amount and average the motion vector search processing amount of each prediction image. Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image.

【0078】請求項2に記載の発明によれば、請求項1
に記載の発明において、予測画像が前方向予測画像の場
合、第2の動きベクトル判定工程で最適な動きベクトル
を判定するとともに、予測画像が双方向予測画像の場
合、第1の動きベクトル判定工程で最適な動きベクトル
を判定するので、双方向予測画像の動きベクトル探索処
理量を削減して、前方向予測画像および双方向予測画像
の動きベクトル探索処理量を平均化することができる。
従って、動画像全体としての画質を低下させることな
く、符号化処理を高速化することができる。
According to the invention of claim 2, claim 1
In the invention described in (3), when the predicted image is the forward predicted image, the optimal motion vector is determined in the second motion vector determination step, and when the predicted image is the bidirectional predicted image, the first motion vector determination step Since the optimum motion vector is determined by, it is possible to reduce the motion vector search processing amount of the bidirectional predicted image and average the motion vector search processing amount of the forward predicted image and the bidirectional predicted image.
Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image.

【0079】請求項3に記載の発明によれば、画像判別
工程により判別された予測画像の種類に応じて、第1お
よび第2の判定工程のうち何れか一方の判定工程を選択
することができるので、動きベクトル探索処理量が大き
く、かつ動きベクトルの予測精度の低下が許容可能な予
測画像の場合には、第1の判定工程により最適な動きベ
クトルを判定することにより、動きベクトル探索処理量
を削減して、各予測画像の動きベクトル探索処理量を平
均化することができる。従って、動画像全体としての画
質を低下させることなく、符号化処理を高速化すること
ができる。
According to the third aspect of the present invention, one of the first and second determination steps can be selected according to the type of the predicted image determined by the image determination step. Therefore, in the case of a predicted image in which the amount of motion vector search processing is large and the prediction accuracy of the motion vector can be reduced, the motion vector search process is performed by determining the optimum motion vector in the first determination step. By reducing the amount, the motion vector search processing amount of each prediction image can be averaged. Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image.

【0080】請求項4に記載の発明によれば、請求項3
に記載発明において、予測画像が前方向予測画像の場
合、第2の動きベクトル判定工程で最適な動きベクトル
を判定するとともに、予測画像が双方向予測画像の場
合、第1の動きベクトル判定工程で最適な動きベクトル
を判定するので、双方向予測画像の動きベクトル探索処
理を削減して、前方向予測画像および双方向予測画像の
動きベクトル探索処理量を平均化することができる。従
って、動画像全体としての画質を低下させることなく、
符号化処理を高速化することができる。
According to the invention of claim 4, claim 3
In the invention described in (1), when the predicted image is a forward predicted image, the optimal motion vector is determined in the second motion vector determination step, and when the predicted image is a bidirectional predicted image, the first motion vector determination step is performed. Since the optimum motion vector is determined, it is possible to reduce the motion vector search processing of the bidirectional predicted image and average the motion vector search processing amounts of the forward predicted image and the bidirectional predicted image. Therefore, without degrading the image quality of the entire moving image,
The encoding process can be speeded up.

【0081】請求項5に記載の発明によれば、画像判別
手段により判別された予測画像の種類に応じて、第1お
よび第2の判定手段のうち何れか一方の判定手段を選択
することができるので、動きベクトル探索処理量が大き
く、かつ動きベクトルの予測精度の低下が許容可能な予
測画像の場合には、第1の判定手段により最適な動きベ
クトルを判定することにより、動きベクトル探索処理量
を削減して、各予測画像の動きベクトルを探索する処理
量を平均化することができる。従って、動画像全体とし
ての画質を低下させることなく、符号化処理を高速化す
ることができる。
According to the fifth aspect of the invention, one of the first and second determining means can be selected according to the type of the predicted image determined by the image determining means. Therefore, in the case of a predicted image in which the amount of motion vector search processing is large and the prediction accuracy of the motion vector can be reduced, the motion vector search processing is performed by determining the optimum motion vector by the first determination unit. The amount can be reduced and the amount of processing for searching the motion vector of each predicted image can be averaged. Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image.

【0082】請求項6に記載の発明によれば、請求項5
に記載発明において、予測画像が前方向予測画像の場
合、第2の動きベクトル判定手段で最適な動きベクトル
を判定するとともに、予測画像が双方向予測画像の場
合、第1の動きベクトル判定手段で最適な動きベクトル
を判定するので、双方向予測画像の動きベクトル探索処
理量を削減して、前方向予測画像および双方向予測画像
の動きベクトル探索処理量を平均化することができる。
従って、動画像全体としての画質を低下させることな
く、符号化処理を高速化することができる。
According to the invention described in claim 6, claim 5
In the invention described in (1), when the predicted image is a forward predicted image, the second motion vector determination means determines the optimum motion vector, and when the predicted image is a bidirectional predicted image, the first motion vector determination means Since the optimum motion vector is determined, it is possible to reduce the motion vector search processing amount of the bidirectional predicted image and average the motion vector search processing amount of the forward predicted image and the bidirectional predicted image.
Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image.

【0083】請求項7に記載の発明によれば、画像判別
手段により判別された予測画像の種類に応じて、第1お
よび第2の判定手段のうち何れか一方の判定手段を選択
することができるので、動きベクトル探索処理量が大き
く、かつ動きベクトルの予測精度の低下が許容可能な予
測画像の場合には、第1の判定手段により最適な動きベ
クトルを判定することにより、動きベクトル探索処理量
を削減して、各予測画像の動きベクトルを探索する処理
量を平均化することができる。従って、動画像全体とし
ての画質を低下させることなく、符号化処理を高速化す
ることができる。請求項8に記載の発明によれば、請求
項7に記載の発明において、予測画像が前方向予測画像
の場合、第2の動きベクトル判定手段で最適な動きベク
トルを判定するとともに、予測画像が双方向予測画像の
場合、第1の動きベクトル判定手段で最適な動きベクト
ルを判定するので、双方向予測画像の動きベクトル探索
処理量を削減して、前方向予測画像および双方向予測画
像の動きベクトル探索処理量を平均化することができ
る。従って、動画像全体としての画質を低下させること
なく、符号化処理を高速化することができる。
According to the invention described in claim 7, either one of the first and second determining means can be selected according to the type of the predicted image determined by the image determining means. Therefore, in the case of a predicted image in which the motion vector search processing amount is large and the prediction accuracy of the motion vector can be reduced, the motion vector search process is performed by determining the optimum motion vector by the first determination unit. The amount can be reduced and the amount of processing for searching the motion vector of each predicted image can be averaged. Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image. According to the invention described in claim 8, in the invention described in claim 7, when the predicted image is a forward predicted image, the second motion vector determination means determines the optimum motion vector and In the case of a bidirectionally predicted image, the first motion vector determination means determines the optimal motion vector, so the amount of processing for searching the motion vector of the bidirectionally predicted image is reduced, and the motions of the forward and backward predicted images are calculated. The vector search processing amount can be averaged. Therefore, the encoding process can be speeded up without degrading the image quality of the entire moving image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る実施形態の動画像圧縮装置の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a moving image compression apparatus according to an embodiment of the present invention.

【図2】動きベクトル探索ユニット26の構成を示すブ
ロック図である。
2 is a block diagram showing a configuration of a motion vector search unit 26. FIG.

【図3】動きベクトル探索ユニット26により動きベク
トルを探索する動作を示すフローチャートである。
FIG. 3 is a flowchart showing an operation of searching a motion vector by a motion vector search unit 26.

【図4】MPEGにおけるピクチャ構成を示す図であ
る。
FIG. 4 is a diagram showing a picture structure in MPEG.

【図5】フレーム構造の動画像を示す図である。FIG. 5 is a diagram showing a moving image having a frame structure.

【図6】フレーム構造におけるフレーム予測方式および
フィールド予測方式の動きベクトルを示す図である。
FIG. 6 is a diagram showing motion vectors of a frame prediction method and a field prediction method in a frame structure.

【図7】フィールド構造の動画像を示す図である。FIG. 7 is a diagram showing a moving image of a field structure.

【図8】フィールド構造における16×16フィールド
予測方式および16×8フィールド予測方式の動きベク
トルを示す図である。
[Fig. 8] Fig. 8 is a diagram illustrating motion vectors of a 16x16 field prediction method and a 16x8 field prediction method in a field structure.

【図9】粗い探索および細かい探索の2段階探索方法に
よる動きベクトル探索方法を示す図である。
FIG. 9 is a diagram showing a motion vector search method based on a two-step search method including a coarse search and a fine search.

【符号の説明】[Explanation of symbols]

1 画像信号入力端子 2 ビットストリーム出力端子 11 前処理ユニット(フォーマット変換手段) 12 符号化モード制御ユニット(画像判別手段) 13 予測誤差信号生成ユニット 14 DCTユニット 15 量子化ユニット 16 可変長符号化ユニット 17 バッファユニット 18 符号量制御ユニット 21 逆量子化ユニット 22 逆DCTユニット 23 再生画像生成ユニット 24 再生画像記憶ユニット 25 動き補償予測ユニット 26 動きベクトル探索ユニット 30 判定段階切換ユニット(選択手段) 31 第1探索領域設定ユニット(第1の探索領域設定
手段) 32 第1動きベクトル探索ユニット(第1の動きベク
トル探索手段) 33 第2探索領域設定ユニット(第2の探索領域設定
手段) 34 第2動きベクトル探索ユニット(第2の動きベク
トル探索手段) 35 動きベクトル加算ユニット 36 動きベクトル判定ユニット(第1および第2の動
きベクトル判定手段) 37 ローカルバス 110 現画像フレーム 111 現画像第1フィールド 112 現画像第2フィールド 120 参照画像フレーム 121 参照画像第1フィールド 122 参照画像第2フィールド 210 現画像フレームブロック 211 現画像第1フィールドブロック 212 現画像第2フィールドブロック 220 参照画像フレーム候補ブロック 221 参照画像第1フィールド候補ブロック 222 参照画像第2フィールド候補ブロック 310 現画像フィールド 320 参照画像フィールド 410 現画像フィールドブロック 211 現画像第1セグメントブロック 212 現画像第2セグメントブロック 420 参照画像フィールド候補ブロック 421 参照画像第1セグメント候補ブロック 422 参照画像第2セグメント候補ブロック
DESCRIPTION OF SYMBOLS 1 Image signal input terminal 2 Bit stream output terminal 11 Pre-processing unit (format conversion means) 12 Coding mode control unit (image discrimination means) 13 Prediction error signal generation unit 14 DCT unit 15 Quantization unit 16 Variable length coding unit 17 Buffer unit 18 Code amount control unit 21 Inverse quantization unit 22 Inverse DCT unit 23 Reproduced image generation unit 24 Reproduced image storage unit 25 Motion compensation prediction unit 26 Motion vector search unit 30 Judgment stage switching unit (selection means) 31 First search area Setting unit (first search area setting means) 32 First motion vector search unit (first motion vector searching means) 33 Second search area setting unit (second search area setting means) 34 Second motion vector searching unit Second motion vector search means) 35 Motion vector addition unit 36 Motion vector determination unit (first and second motion vector determination means) 37 Local bus 110 Current image frame 111 Current image first field 112 Current image Second field 120 Reference image frame 121 Reference image first field 122 Reference image second field 210 Current image frame block 211 Current image first field block 212 Current image second field block 220 Reference image frame candidate block 221 Reference image first field candidate block 222 Reference Image second field candidate block 310 Current image field 320 Reference image field 410 Current image field block 211 Current image first segment block 212 Current image second segment block Click 420 reference picture field candidate block 421 the reference image first segment candidate block 422 the reference image second segment candidate block

───────────────────────────────────────────────────── フロントページの続き (72)発明者 永井 律彦 東京都渋谷区代々木4丁目36番19号 株式 会社グラフィックス・コミュニケーショ ン・ラボラトリーズ内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Norihiko Nagai 4-36-19 Yoyogi, Shibuya-ku, Tokyo Inside Graphics Communications Laboratories, Inc.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】インタレース走査方式の動画像を構成する
各フレームに対し、該フレームを構成する画素に含まれ
る複数種類の画像情報をそれぞれ、所定の標本化周波数
に基づいて水平走査方向および垂直走査方向に抽出する
フォーマット変換工程を含み、該フォーマット変換工程
により抽出された各フレームに対し、フレーム内情報に
基づいて符号化されるフレーム内予測画像と、時間的に
前方向のフレームを参照画像として符号化される前方向
予測画像と、時間的に前方向および後方向のフレームを
それぞれ参照画像として符号化される双方向予測画像
と、をそれぞれ切り換えて生成する動画像圧縮方法であ
って、 前記フレーム内予測画像、前記前方向予測画像および前
記双方向予測画像のうち、符号化される予測画像を判別
する画像判別工程と、 前記フレームが第1フィールドおよび第2フィールドか
らなり、前記フレームを部分的に構成する現画像フレー
ムブロックが、該第1フィールドからなる現画像第1フ
ィールドブロックおよび該第2フィールドからなる現画
像第2フィールドブロックを含み、現画像フレームブロ
ック、現画像第1フィールドブロックおよび現画像第2
フィールドブロックに対し、前記参照画像を構成する画
素を代表する画像情報を抽出することにより、粗い探索
密度であり、かつ広い探索領域をそれぞれ設定する第1
の探索領域設定工程と、 第1の探索領域設定工程により設定された探索領域に基
づいて前記現画像フレームブロック、現画像第1フィー
ルドブロックおよび現画像第2フィールドブロックにそ
れぞれ最も類似した類似ブロックを特定し、現画像フレ
ームブロックに対応するフレーム動きベクトル、現画像
第1フィールドブロックに対応する第1フィールド動き
ベクトルおよび現画像第2フィールドブロックに対応す
る第2フィールド動きベクトルを探索する第1の動きベ
クトル探索工程と、 該第1の動きベクトル探索工程により特定された現画像
フレームブロック、現画像第1フィールドブロックおよ
び現画像第2フィールドブロックのそれぞれの前記類似
ブロックの近傍に、前記第1の探索領域設定工程により
設定された探索領域より細かい探索密度であり、かつ狭
い探索領域をそれぞれ設定する第2の探索領域設定工程
と、 第2の探索領域設定工程により設定されたそれぞれの探
索領域に基づいて前記現画像フレームブロック、現画像
第1フィールドブロックおよび現画像第2フィールドブ
ロックに最も類似した類似ブロックをそれぞれ特定し、
現画像フレームブロックに対応するフレーム動きベクト
ル、現画像第1フィールドブロックに対応する第1フィ
ールド動きベクトルおよび現画像第2フィールドブロッ
クに対応する第2フィールド動きベクトルを探索する第
2の動きベクトル探索工程と、 前記第1の動きベクトル探索工程により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第1の動きベクトル判定工程と、 前記第2の動きベクトル探索工程により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第2の動きベクトル判定工程と、 前記画像判別工程により判別された予測画像に応じて第
1の動きベクトル判定工程と第2の動きベクトル判定工
程とのうち何れか一方の判定工程を選択する選択工程
と、を含むことを特徴とする動画像圧縮方法。
1. For each frame constituting a moving image of the interlaced scanning system, a plurality of types of image information contained in pixels constituting the frame are respectively supplied in a horizontal scanning direction and a vertical direction based on a predetermined sampling frequency. Including a format conversion step of extracting in the scanning direction, for each frame extracted by the format conversion step, an intra-frame predicted image coded based on intra-frame information and a temporally forward frame reference image A forward predictive image encoded as, and a bidirectional predictive image encoded as a reference image temporally forward and backward frames, respectively, a moving image compression method for generating, Image discrimination for discriminating a predicted image to be encoded among the intra-frame predicted image, the forward predicted image and the bidirectional predicted image And a current image frame block partially forming the frame, the current image first field block including the first field and the current image frame block including the second field. A current image frame block, a current image first field block and a current image second
First extraction of image information representative of pixels forming the reference image for a field block to set a coarse search density and a wide search area, respectively.
And a similar block most similar to the current image frame block, the current image first field block and the current image second field block based on the search region set by the first search region setting step. A first motion that identifies and searches for a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block. A vector search step, and the first search in the vicinity of each of the similar blocks of the current image frame block, the current image first field block and the current image second field block specified by the first motion vector search step. Finer than the search area set by the area setting process. A second search area setting step of setting a narrow search area having a high search density, and the current image frame block and the current image first step based on the respective search areas set by the second search area setting step. The similar block that is most similar to the 1-field block and the 2nd field block of the current image is specified,
A second motion vector searching step of searching for a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block And the frame motion vector searched in the first motion vector search step, the first field motion vector,
A first motion vector determination step of determining an optimum motion vector from the second field motion vectors, the frame motion vector searched in the second motion vector search step, a first field motion vector,
A second motion vector determination step of determining an optimum motion vector from the second field motion vectors; a first motion vector determination step and a second motion vector according to the predicted image determined by the image determination step. And a selecting step of selecting one of the judging steps.
【請求項2】前記画像判別工程により判別された予測画
像が前方向予測画像の場合、前記選択工程が第2の動き
ベクトル判定工程を選択するとともに、前記画像判別工
程により判別された予測画像が双方向予測画像の場合、
前記選択工程が第1の動きベクトル判定工程を選択する
ことを特徴とする請求項1に記載の動画像圧縮方法。
2. When the predicted image determined by the image determining step is a forward predictive image, the selecting step selects the second motion vector determining step, and the predicted image determined by the image determining step is For bidirectional predictive images,
The moving image compression method according to claim 1, wherein the selection step selects the first motion vector determination step.
【請求項3】インタレース走査方式の動画像を構成する
各フィールドに対し、該フィールドを構成する画素に含
まれる複数種類の画像情報をそれぞれ、所定の標本化周
波数に基づいて水平走査方向および垂直走査方向に抽出
するフォーマット変換工程を含み、該フォーマット変換
工程により抽出された各フィールドに対し、フィールド
内情報に基づいて符号化されるフィールド内予測画像
と、時間的に前方向のフィールドを参照画像として符号
化される前方向予測画像と、時間的に前方向および後方
向のフィールドをそれぞれ参照画像として符号化される
双方向予測画像と、をそれぞれ切り換えて生成する動画
像圧縮方法であって、 前記フィールド内予測画像、前記前方向予測画像および
前記双方向予測画像のうち、符号化される予測画像を判
別する画像判別工程と、 前記フィールドを部分的に構成する現画像フィールドブ
ロックが、該現画像フィールドブロックの上半分のブロ
ックからなる現画像第1セグメントブロックおよび該現
画像フィールドブロックの下半分のブロックからなる現
画像第2セグメントブロックを含み、現画像フィールド
ブロック、現画像第1セグメントブロックおよび現画像
第2セグメントブロックに対し、前記参照画像を構成す
る画素を代表する画像情報を抽出することにより、粗い
探索密度であり、かつ広い探索領域をそれぞれ設定する
第1の探索領域設定工程と、 第1の探索領域設定工程により設定された探索領域に基
づいて前記現画像フィールドブロック、現画像第1セグ
メントブロックおよび現画像第2セグメントブロックに
それぞれ最も類似した類似ブロックを特定し、現画像フ
ィールドブロックに対応するフィールド動きベクトル、
現画像第1セグメントブロックに対応する第1セグメン
ト動きベクトルおよび現画像第2セグメントブロックに
対応する第2セグメント動きベクトルを探索する第1の
動きベクトル探索工程と、 該第1の動きベクトル探索工程により特定された現画像
フィールドブロック、現画像第1セグメントブロックお
よび現画像第2セグメントブロックのそれぞれの前記類
似ブロックの近傍に、前記第1の探索領域設定工程によ
り設定された探索領域より細かい探索密度であり、かつ
狭い探索領域をそれぞれ設定する第2の探索領域設定工
程と、 第2の探索領域設定工程により設定されたそれぞれの探
索領域に基づいて前記現画像フィールドブロック、現画
像第1セグメントブロックおよび現画像第2セグメント
ブロックに最も類似した類似ブロックをそれぞれ特定
し、現画像フィールドブロックに対応するフィールド動
きベクトル、現画像第1セグメントブロックに対応する
第1セグメント動きベクトルおよび現画像第2セグメン
トブロックに対応する第2セグメント動きベクトルを探
索する第2の動きベクトル探索工程と、 前記第1の動きベクトル探索工程により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第1の動きベクトル判定工程と、 前記第2の動きベクトル探索工程により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第2の動きベクトル判定工程と、 前記画像判別工程により判別された予測画像に応じて第
1の動きベクトル判定工程と第2の動きベクトル判定工
程のうち何れか一方の判定工程を選択する選択工程と、
を含むことを特徴とする動画像圧縮方法。
3. A plurality of types of image information contained in pixels forming the field for each field forming a moving image of the interlaced scanning system are respectively scanned in a horizontal scanning direction and a vertical direction based on a predetermined sampling frequency. Including a format conversion step of extracting in the scanning direction, for each field extracted by the format conversion step, an intra-field predicted image coded based on intra-field information and a temporally forward field reference image A forward prediction image encoded as, and a bidirectional prediction image encoded as a reference image temporally forward and backward fields, respectively, a moving image compression method, The predicted image to be coded among the intra-field predicted image, the forward predicted image, and the bidirectional predicted image is An image discrimination step of discriminating, and a current image field block partially constituting the field is a first segment block of the current image composed of blocks in the upper half of the current image field block and a block in the lower half of the current image field block. A current image field block, a current image first segment block, and a current image second segment block, the image information representing the pixels forming the reference image is extracted, A first search area setting step of setting a wide search area having a coarse search density; and the current image field block and the current image first segment based on the search area set by the first search area setting step. Most similar to block and current image 2nd segment block Field motion vector similar block to identify the, corresponding to the current image field blocks,
A first motion vector searching step of searching for a first segment motion vector corresponding to the current image first segment block and a second segment motion vector corresponding to the current image second segment block, and the first motion vector searching step In the vicinity of the similar blocks of the identified current image field block, current image first segment block and current image second segment block, with a search density finer than the search region set by the first search region setting step. A second search area setting step of setting existing and narrow search areas respectively, and the current image field block, the current image first segment block, and the current image field block based on the respective search areas set by the second search area setting step. Similar block most similar to the second segment block of the current image A second motion vector for identifying and searching for a field motion vector corresponding to the current image field block, a first segment motion vector corresponding to the current image first segment block, and a second segment motion vector corresponding to the current image second segment block. A motion vector search step, and a first motion vector judgment that determines an optimum motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the first motion vector search step. And a second motion vector determination step of determining an optimal motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the second motion vector search step, Discriminated by the image discrimination process A selection step of selecting one of the first motion vector determination step and the second motion vector determination step according to the predicted image
A moving image compression method comprising:
【請求項4】前記画像判別工程により判別された予測画
像が前方向予測画像の場合、前記選択工程が第2の動き
ベクトル判定工程を選択するとともに、前記画像判別工
程により判別された予測画像が双方向予測画像の場合、
前記選択工程が第1の動きベクトル判定工程を選択する
ことを特徴とする請求項3に記載の動画像圧縮方法。
4. If the predicted image determined by the image determining step is a forward predictive image, the selecting step selects the second motion vector determining step, and the predicted image determined by the image determining step is For bidirectional predictive images,
4. The moving image compression method according to claim 3, wherein the selecting step selects the first motion vector determining step.
【請求項5】インタレース走査方式の動画像を構成する
各フレームに対し、該フレームを構成する画素に含まれ
る複数種類の画像情報をそれぞれ、所定の標本化周波数
に基づいて水平走査方向および垂直走査方向に抽出する
フォーマット変換手段を有し、該フォーマット変換手段
により抽出された各フレームに対し、フレーム内情報に
基づいて符号化されるフレーム内予測画像と、時間的に
前方向のフレームを参照画像として符号化される前方向
予測画像と、時間的に前方向および後方向のフレームを
それぞれ参照画像として符号化される双方向予測画像
と、をそれぞれ切り換えて生成する動画像圧縮装置にお
いて、 前記フレーム内予測画像、前記前方向予測画像および前
記双方向予測画像のうち、符号化される予測画像を判別
する画像判別手段と、 前記フレームが第1フィールドおよび第2フィールドか
らなり、前記フレームを部分的に構成する現画像フレー
ムブロックが、該第1フィールドからなる現画像第1フ
ィールドブロックおよび該第2フィールドからなる現画
像第2フィールドブロックを含み、現画像フレームブロ
ック、現画像第1フィールドブロックおよび現画像第2
フィールドブロックに対し、前記参照画像を構成する画
素を代表する画像情報を抽出することにより、粗い探索
密度であり、かつ広い探索領域をそれぞれ設定する第1
の探索領域設定手段と、 第1の探索領域設定手段により設定された探索領域に基
づいて前記現画像フレームブロック、現画像第1フィー
ルドブロックおよび現画像第2フィールドブロックにそ
れぞれ最も類似した類似ブロックを特定し、現画像フレ
ームブロックに対応するフレーム動きベクトル、現画像
第1フィールドブロックに対応する第1フィールド動き
ベクトルおよび現画像第2フィールドブロックに対応す
る第2フィールド動きベクトルを探索する第1の動きベ
クトル探索手段と、 該第1の動きベクトル探索手段により特定された現画像
フレームブロック、現画像第1フィールドブロックおよ
び現画像第2フィールドブロックのそれぞれの前記類似
ブロックの近傍に、前記第1の探索領域設定手段より設
定された探索領域より細かい探索密度であり、かつ狭い
探索領域をそれぞれ設定する第2の探索領域設定手段
と、 第2の探索領域設定手段により設定されたそれぞれの探
索領域に基づいて前記現画像フレームブロック、現画像
第1フィールドブロックおよび現画像第2フィールドブ
ロックに最も類似した類似ブロックをそれぞれ特定し、
現画像フレームブロックに対応するフレーム動きベクト
ル、現画像第1フィールドブロックに対応する第1フィ
ールド動きベクトルおよび現画像第2フィールドブロッ
クに対応する第2フィールド動きベクトルを探索する第
2の動きベクトル探索手段と、 前記第1の動きベクトル探索手段により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第1の動きベクトル判定手段と、 前記第2の動きベクトル探索手段により探索された前記
フレーム動きベクトル、第1フィールド動きベクトル、
第2フィールド動きベクトルの中から最適な動きベクト
ルを判定する第2の動きベクトル判定手段と、 前記画像判別手段により判別された予測画像に応じて第
1の動きベクトル判定手段と第2の動きベクトル判定手
段とのうち何れか一方の判定手段を選択する選択手段
と、を備えたことを特徴とする動画像圧縮装置。
5. For each frame forming a moving image of the interlaced scanning system, a plurality of types of image information contained in pixels forming the frame are respectively supplied in a horizontal scanning direction and a vertical direction based on a predetermined sampling frequency. A format conversion unit for extracting in the scanning direction is provided, and for each frame extracted by the format conversion unit, an intra-frame predicted image encoded based on the intra-frame information and a temporally forward frame are referred to. In a moving image compression apparatus, the forward predictive image encoded as an image and the bidirectional predictive image encoded as temporally forward and backward frames respectively as reference images are switched and generated. Image discrimination for discriminating a predicted image to be encoded among the intra-frame predicted image, the forward predicted image and the bidirectional predicted image Means, the frame comprises a first field and a second field, and a current image frame block partially forming the frame comprises a current image first field block comprising the first field and a current image first field block comprising the second field. A current image frame block, a current image first field block and a current image second
First extraction of image information representative of pixels forming the reference image for a field block to set a coarse search density and a wide search area, respectively.
And a similar block most similar to the current image frame block, the current image first field block and the current image second field block based on the search region set by the first search region setting unit. A first motion that identifies and searches for a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block. Vector search means, and the first search near the similar blocks of the current image frame block, current image first field block and current image second field block specified by the first motion vector search means. Finer than the search area set by the area setting means Second search area setting means for setting a narrow search area having a search density, and the current image frame block and the current image first based on the respective search areas set by the second search area setting means. The similar blocks that are most similar to the field block and the second field block of the current image are specified,
Second motion vector search means for searching a frame motion vector corresponding to the current image frame block, a first field motion vector corresponding to the current image first field block, and a second field motion vector corresponding to the current image second field block A frame motion vector searched by the first motion vector search means, a first field motion vector,
A first motion vector determination means for determining an optimum motion vector from the second field motion vectors, the frame motion vector searched by the second motion vector search means, a first field motion vector,
Second motion vector determination means for determining an optimal motion vector from the second field motion vectors, and first motion vector determination means and second motion vector according to the predicted image determined by the image determination means. A moving image compression apparatus, comprising: a determination unit that selects one of the determination units.
【請求項6】前記画像判別手段により判別された予測画
像が前方向予測画像の場合、前記選択手段が第2の動き
ベクトル判定手段を選択するとともに、前記画像判別手
段により判別された予測画像が双方向予測画像の場合、
前記選択手段が第1の動きベクトル判定手段を選択する
ことを特徴とする請求項5に記載の動画像圧縮装置。
6. The predictive image determined by the image determining means is a forward predictive image, the selecting means selects the second motion vector determining means, and the predictive image determined by the image determining means is For bidirectional predictive images,
The moving picture compression apparatus according to claim 5, wherein the selection means selects the first motion vector determination means.
【請求項7】インタレース走査方式の動画像を構成する
各フィールドに対し、該フィールドを構成する画素に含
まれる複数種類の画像情報をそれぞれ、所定の標本化周
波数に基づいて水平走査方向および垂直走査方向に抽出
するフォーマット変換手段を有し、該フォーマット変換
手段により抽出された各フィールドに対し、フィールド
内情報に基づいて符号化されるフィールド内予測画像
と、時間的に前方向のフィールドを参照画像として符号
化される前方向予測画像と、時間的に前方向および後方
向のフィールドをそれぞれ参照画像として符号化される
双方向予測画像と、をそれぞれ切り換えて生成する動画
像圧縮装置において、 前記フレーム内予測画像、前記前方向予測画像および前
記双方向予測画像のうち、符号化される予測画像を判別
する画像判別手段と、 前記フィールドを部分的に構成する現画像フィールドブ
ロックが、該現画像フィールドブロックの上半分のブロ
ックからなる現画像第1セグメントブロックおよび該現
画像フィールドブロックの下半分のブロックからなる現
画像第2セグメントブロックを含み、現画像フィールド
ブロック、現画像第1セグメントブロックおよび現画像
第2セグメントブロックに対し、前記参照画像を構成す
る画素を代表する画像情報を抽出することにより、粗い
探索密度であり、かつ広い探索領域をそれぞれ設定する
第1の探索領域設定手段と、 第1の探索領域設定手段により設定された探索領域に基
づいて前記現画像フィールドブロック、現画像第1セグ
メントブロックおよび現画像第2セグメントブロックに
それぞれ最も類似した類似ブロックを特定し、現画像フ
ィールドブロックに対応するフィールド動きベクトル、
現画像第1セグメントブロックに対応する第1セグメン
ト動きベクトルおよび現画像第2セグメントブロックに
対応する第2セグメント動きベクトルを探索する第1の
動きベクトル探索手段と、 該第1の動きベクトル探索手段により特定された現画像
フィールドブロック、現画像第1セグメントブロックお
よび現画像第2セグメントブロックのそれぞれの前記類
似ブロックの近傍に、前記第1の探索領域設定手段より
設定された探索領域より細かい探索密度であり、かつ狭
い探索領域をそれぞれ設定する第2の探索領域設定手段
と、 第2の探索領域設定手段により設定されたそれぞれの探
索領域に基づいて前記現画像フィールドブロック、現画
像第1セグメントブロックおよび現画像第2セグメント
ブロックに最も類似した類似ブロックをそれぞれ特定
し、現画像フィールドブロックに対応するフィールド動
きベクトル、現画像第1セグメントブロックに対応する
第1セグメント動きベクトルおよび現画像第2セグメン
トブロックに対応する第2セグメント動きベクトルを探
索する第2の動きベクトル探索手段と、 前記第1の動きベクトル探索手段により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第1の動きベクトル判定手段と、 前記第2の動きベクトル探索手段により探索された前記
フィールド動きベクトル、第1セグメント動きベクト
ル、第2セグメント動きベクトルの中から最適な動きベ
クトルを判定する第2の動きベクトル判定手段と、 前記画像判別手段により判別された予測画像に応じて第
1の動きベクトル判定手段と第2の動きベクトル判定手
段のうち何れか一方の判定手段を選択する選択手段と、
を備えたことを特徴とする動画像圧縮装置。
7. A plurality of types of image information contained in pixels forming the field for each field forming a moving image of the interlaced scanning method are respectively supplied in the horizontal scanning direction and the vertical direction based on a predetermined sampling frequency. A format conversion unit for extracting in the scanning direction is provided, and for each field extracted by the format conversion unit, an intra-field predicted image encoded based on the intra-field information and a temporally forward field are referred to. In a moving image compression apparatus, which generates by switching a forward prediction image encoded as an image and a bidirectional prediction image encoded by temporally forward and backward fields as reference images respectively, The predicted image to be encoded is determined from the intra-frame predicted image, the forward predicted image, and the bidirectional predicted image. Another image discriminating means, and a current image field block which partially constitutes the field is a current image first segment block consisting of an upper half block of the current image field block and a lower half block of the current image field block. A current image field block, a current image first segment block, and a current image second segment block, the image information representing the pixels forming the reference image is extracted, First search area setting means for setting a wide search area having a coarse search density, and the current image field block and the current image first segment based on the search area set by the first search area setting means Most similar to block and second segment of current image Field motion vector similar block to identify, corresponding to the current image field blocks,
A first motion vector searching means for searching a first segment motion vector corresponding to the current image first segment block and a second segment motion vector corresponding to the current image second segment block, and the first motion vector searching means In the vicinity of the similar blocks of the specified current image field block, current image first segment block and current image second segment block, with a search density finer than the search area set by the first search area setting means. Second search area setting means for setting a narrow search area, respectively, and the current image field block, the current image first segment block, and the current image field block based on the respective search areas set by the second search area setting means. The similar block most similar to the second segment block of the current image Searching for a field motion vector corresponding to the current image field block, a first segment motion vector corresponding to the current image first segment block, and a second segment motion vector corresponding to the current image second segment block. A second motion vector searching means, and a first motion for determining an optimum motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the first motion vector searching means. Vector determining means, and second motion vector determining means for determining an optimum motion vector from the field motion vector, the first segment motion vector, and the second segment motion vector searched by the second motion vector searching means. And is discriminated by the image discrimination means. Selecting means for selecting either one of the first motion vector determining means and the second motion vector determining means according to the predicted image,
A moving image compression apparatus comprising:
【請求項8】前記画像判別手段により判別された予測画
像が前方向予測画像の場合、前記選択手段が第2の動き
ベクトル判定手段を選択するとともに、前記画像判別手
段により判別された予測画像が双方向予測画像の場合、
前記選択手段が第1の動きベクトル判定手段を選択する
ことを特徴とする請求項7に記載の動画像圧縮装置。
8. If the predicted image determined by the image determination means is a forward predicted image, the selection means selects the second motion vector determination means, and the predicted image determined by the image determination means is For bidirectional predictive images,
8. The moving image compression apparatus according to claim 7, wherein the selection unit selects the first motion vector determination unit.
JP28548295A 1995-11-02 1995-11-02 Moving image compression method and apparatus Expired - Fee Related JP2868445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28548295A JP2868445B2 (en) 1995-11-02 1995-11-02 Moving image compression method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28548295A JP2868445B2 (en) 1995-11-02 1995-11-02 Moving image compression method and apparatus

Publications (2)

Publication Number Publication Date
JPH09130808A true JPH09130808A (en) 1997-05-16
JP2868445B2 JP2868445B2 (en) 1999-03-10

Family

ID=17692097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28548295A Expired - Fee Related JP2868445B2 (en) 1995-11-02 1995-11-02 Moving image compression method and apparatus

Country Status (1)

Country Link
JP (1) JP2868445B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003030556A1 (en) * 2001-09-18 2003-04-10 Matsushita Electric Industrial Co., Ltd. Image encoding method and image decoding method
WO2007091459A1 (en) * 2006-02-10 2007-08-16 Ntt Electronics Corporation Moving-vector detecting device and moving-vector detecting method
JP2008067353A (en) * 2006-08-08 2008-03-21 Canon Inc Motion vector detection apparatus, and motion vector detection method
JP2013165488A (en) * 2012-01-11 2013-08-22 Panasonic Corp Image processing apparatus, image capturing apparatus, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003030556A1 (en) * 2001-09-18 2003-04-10 Matsushita Electric Industrial Co., Ltd. Image encoding method and image decoding method
CN1298171C (en) * 2001-09-18 2007-01-31 松下电器产业株式会社 Image encoding method and image decoding method
WO2007091459A1 (en) * 2006-02-10 2007-08-16 Ntt Electronics Corporation Moving-vector detecting device and moving-vector detecting method
US8126060B2 (en) 2006-02-10 2012-02-28 Ntt Electronics Corporation Motion vector detection device and motion vector detecting method
EP1983761A4 (en) * 2006-02-10 2012-07-25 Ntt Electronics Corp Moving-vector detecting device and moving-vector detecting method
TWI404423B (en) * 2006-02-10 2013-08-01 Ntt Electronics Corp Dynamic vector detection device and dynamic vector detection method
JP2008067353A (en) * 2006-08-08 2008-03-21 Canon Inc Motion vector detection apparatus, and motion vector detection method
JP2013165488A (en) * 2012-01-11 2013-08-22 Panasonic Corp Image processing apparatus, image capturing apparatus, and program

Also Published As

Publication number Publication date
JP2868445B2 (en) 1999-03-10

Similar Documents

Publication Publication Date Title
US8494056B2 (en) Method and system for efficient video transcoding
US5453799A (en) Unified motion estimation architecture
US7426308B2 (en) Intraframe and interframe interlace coding and decoding
US9247250B2 (en) Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing
JP3104942B2 (en) Digital video signal encoding device
US6603815B2 (en) Video data processing apparatus, video data encoding apparatus, and methods thereof
US7920628B2 (en) Noise filter for video compression
KR100446083B1 (en) Apparatus for motion estimation and mode decision and method thereof
US20070098067A1 (en) Method and apparatus for video encoding/decoding
US20150010243A1 (en) Method for encoding/decoding high-resolution image and device for performing same
WO2010004939A1 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
US20120082213A1 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JPH11112973A (en) Device and method for converting video signal
KR19990067723A (en) Dynamically determining group of picture size during encoding of video sequence
US20050276331A1 (en) Method and apparatus for estimating motion
US7151799B2 (en) Transcoder for coded video
US7072399B2 (en) Motion estimation method and system for MPEG video streams
US6040875A (en) Method to compensate for a fade in a digital video input sequence
JP2868445B2 (en) Moving image compression method and apparatus
JPH10224779A (en) Method and device for detecting scene change of moving image
JP2872109B2 (en) Moving picture coding method and apparatus
JP2002016923A (en) Image encoding device and method
JP3166835B2 (en) Method and apparatus for highly efficient coding of moving images
KR100549926B1 (en) Motion vector estimator for each area of image and motion compensation prediction encoding / decoding method for each area of image
JP2002064826A (en) Apparatus and method for converting resolution of compressed image

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees