JPH05137129A - Moving image encoding device - Google Patents

Moving image encoding device

Info

Publication number
JPH05137129A
JPH05137129A JP29437691A JP29437691A JPH05137129A JP H05137129 A JPH05137129 A JP H05137129A JP 29437691 A JP29437691 A JP 29437691A JP 29437691 A JP29437691 A JP 29437691A JP H05137129 A JPH05137129 A JP H05137129A
Authority
JP
Japan
Prior art keywords
image
unit
frame
variance
average value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP29437691A
Other languages
Japanese (ja)
Inventor
Kazuhiro Matsukura
和浩 松倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP29437691A priority Critical patent/JPH05137129A/en
Publication of JPH05137129A publication Critical patent/JPH05137129A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PURPOSE:To realize a high picture quality, while suppressing code amount without increasing the information quantity in a flat part more than required by executing a forcible processing in an intra-mode, in the case it is decided that a higher harmonic noise is generated at the time of generating a predicting signal. CONSTITUTION:In the dynamic image encoding device for encoding a dynamic image between each frame and encoding it in the frame, plural dynamic images reversed each other timewise by a delaying part 19 is subjected to orthogonal conversion, and thereafter, the statistic of each image subjected to orthogonal conversion is calculated by a mean value calculating part 12 and a dispersion calculating part 13, and subjected to prescribed comparison by a noise deciding part 14. subsequently, based on this output, a block mode or an intra-mode is selected, that is, one of inter-frame encoding or in-frame encoding is selected, and by each mode processing part 16, 17, a predicting signal by the present input image and a motion compensation is generated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は動画像を符号化する装置
に係り、特に入力する画像のモード処理に好適する動画
像符号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture coding apparatus, and more particularly to a moving picture coding apparatus suitable for mode processing of an input image.

【0002】[0002]

【従来の技術】一般に、画像の符号化方式の国際標準化
に伴い、動画像符号化技術の向上が活発化している。そ
の国際標準化のうちの1つになる蓄積メディアを想定し
たMPEG方式(Moving Picture Expert Group)は、仕
様がすでに決定されている。
2. Description of the Related Art In general, with the international standardization of image coding methods, the improvement of moving image coding technology has become active. The specifications of the MPEG method (Moving Picture Expert Group), which is one of the international standardizations and assumes a storage medium, has already been determined.

【0003】このMPEG方式は、時間軸方向の冗長度
を落とすために動き補償を行い、画像の差分を取り、そ
の後、空間軸方向の冗長度を落とすために直交変換の一
種であるDCT(離散コサイン変換)及び可変長符号化
方式を導入している。また、時間軸方向の冗長度削減に
ついては、連続した動画像が前後のフレーム間または、
フィールド間において、高い相関性を有する性質を利用
している。
In this MPEG system, motion compensation is performed in order to reduce redundancy in the time axis direction, a difference between images is obtained, and then, in order to reduce redundancy in the spatial axis direction, DCT (discrete transform) is a kind of orthogonal transformation. Cosine transform) and variable length coding are introduced. In addition, for the reduction of redundancy in the time axis direction, continuous moving images are displayed between frames before and after, or
Utilizing the property of high correlation between fields.

【0004】すなわち、符号化を行おうとしている画像
(現画像)と時間的に前後にある画像との間で各ブロッ
クごとに動ベクトルを検出し、動き予測を行い現画像を
予測した後、両者の間における予測誤差を算出する。こ
こで、動画像を構成する各画像は、図5に示されるよう
にIピクチャ(フレームまたはフィールド内符号化画
像)、Pピクチャ(前方向予測画像)、Bピクチャ(前
方向、後方向、両方向予測画像)の3つの種類に分類さ
れた後、符号化されることになる。一方、空間軸方向の
冗長度については、各画像の予測誤差信号をブロック単
位でDCT係数に対し、量子化を施した後、可変長符号
化を行っている。
That is, a motion vector is detected for each block between an image to be encoded (current image) and images temporally preceding and following, and after motion estimation is performed to predict the current image, Calculate the prediction error between the two. Here, each image forming the moving image is an I picture (frame or intra-field coded image), P picture (forward prediction image), B picture (forward, backward, bidirectional) as shown in FIG. After being classified into three types (predicted image), they will be encoded. On the other hand, regarding the redundancy in the spatial axis direction, variable length coding is performed after the prediction error signal of each image is quantized to the DCT coefficient in block units.

【0005】前述した予測信号は、イントラ、前方向予
測、後方向予測、両方向予測の4種類に分類される。ブ
ロック符号化を行う場合、最適な予測方式を選択しなけ
ればならないが、同選択部の詳細については、標準化で
規定されず、種々の方式が提案されている。
The above-mentioned prediction signals are classified into four types: intra, forward prediction, backward prediction, and bidirectional prediction. When performing block coding, an optimal prediction method must be selected, but details of the selection unit are not specified by standardization, and various methods have been proposed.

【0006】前記提案として、例えば、特開平1−17
0276号公報において、述べられているような予測誤
差のブロック内平均値を符号化する方式が提案されてい
る。また、前述した標準化方式の検討段階に提案された
例の1つとして、SM3方式(MPEG Simulation Model
Three ISO-IEC/JTC/SC2/WG8 Documents of MovingPictu
re Experts Group)がある。同方式の選択部は、動き補
償の有無の判定イントラの有効無効の判定、動き補償採
用時における予測方向の決定といった各選択要素により
構成されている。
As the proposal, for example, Japanese Patent Laid-Open No. 1-17
Japanese Patent Laid-Open No. 0276 proposes a method for encoding the intra-block average value of prediction errors as described above. In addition, as one of the examples proposed in the examination stage of the standardization method described above, the SM3 method (MPEG Simulation Model
Three ISO-IEC / JTC / SC2 / WG8 Documents of MovingPictu
re Experts Group). The selection unit of the same system is configured by selection elements such as determination of presence / absence of motion compensation, determination of validity / invalidity of intra, and determination of prediction direction when motion compensation is adopted.

【0007】例えば、動き補償の有無の選択を行う場
合、図6に示すように、(X,Y)座標系が特性図の斜
線領域内にあるとき、動き補償が行われる。同図におい
て、BDは現画像間(現画像と前画像)の16×16画
素ブロックにおける絶対差分和であり、DBDは原画像
のブロックと動き補償ブロックとの間における絶対差分
和である。
For example, when the presence / absence of motion compensation is selected, the motion compensation is performed when the (X, Y) coordinate system is within the shaded area of the characteristic diagram as shown in FIG. In the figure, BD is a sum of absolute differences in a 16 × 16 pixel block between current images (current image and previous image), and DBD is a sum of absolute differences between a block of an original image and a motion compensation block.

【0008】一方、イントラモードの選択を行う場合、
図7に示されるように、(VAR,VAROR)座標値
が特性図の斜線領域内にあるとき、イントラモードが選
択される。ここで、VARは、16×16画素で構成さ
れるブロックに関するフレーム間差分2乗和であり、V
ARORは、同ブロックに関するフレーム内画素値の分
散を示す。以上の選択方式等を基準として各ブロック毎
に予測信号が生成される。
On the other hand, when the intra mode is selected,
As shown in FIG. 7, when the (VAR, VAROR) coordinate value is within the hatched area of the characteristic diagram, the intra mode is selected. Here, VAR is the sum of squared differences between frames regarding a block composed of 16 × 16 pixels, and
AROR represents the variance of pixel values within a frame for the same block. A prediction signal is generated for each block based on the above selection method and the like.

【0009】[0009]

【発明が解決しようとする課題】しかし前述したSM3
方式おいて、動画像のシーンチェンジが行われた時に、
視覚的な見地にたった場合、誤った予測方式が選択され
ることがある。
However, the above-mentioned SM3
In the method, when the scene change of the moving image is performed,
From a visual point of view, the wrong prediction method may be selected.

【0010】例えば、図5において、高周波成分の多い
4番目のPピクチャ(以下、4Pピクチャと称する)と
5番目のBピクチャ(以下、5Bピクチャと称する)と
の間にシーンチェンジが行われた時、5Bピクチャの符
号化時において、平坦な画像部分のブロックは、動き補
償モードが選択されることがある。
For example, in FIG. 5, a scene change is performed between the fourth P picture (hereinafter referred to as 4P picture) and the fifth B picture (hereinafter referred to as 5B picture) having many high frequency components. At the time of coding a 5B picture, a motion compensation mode may be selected for a block of a flat image portion.

【0011】これは、シーンチェンジにより、シーンチ
ェンジ前の4P画像の相関性が小さくなるため、7P画
像のみの情報により、5B画像を符号化しようとする点
及び平坦部分を有するブロックについて、非イントラモ
ードが選択され易くなるような判定を行う方式に定めて
いることに起因する。
This is because the scene change reduces the correlation of the 4P image before the scene change. Therefore, with respect to the block having the point and the flat portion, which is to be encoded in the 5B image, only the information of the 7P image is used. This is due to the fact that the method is such that a determination is made so that the mode is easily selected.

【0012】その結果、現在の入力画像と動き補償によ
る予測信号から生成される予測誤差信号が所定の閾値以
下の値の場合に、量子化すると平坦な画像となるべき情
報が失われ、復号画像ではブロック内で非平坦な画像が
発生することになる(以下、これを高調波ノイズと称す
る)。
As a result, when the prediction error signal generated from the current input image and the motion-compensated prediction signal has a value equal to or less than a predetermined threshold value, the information which should be a flat image is lost by quantization, and the decoded image is lost. Then, a non-flat image is generated in the block (hereinafter referred to as harmonic noise).

【0013】そこで本発明は、予測信号の生成時に高調
波ノイズが発生すると判定された場合にイントラモード
により強制的に処理し、平坦部の情報量を必要以上に多
くせずに符号量を低く押さえつつ、画質の高品質化が実
現できる動画像符号化装置を提供することを目的とす
る。
Therefore, according to the present invention, when it is determined that harmonic noise occurs during generation of a prediction signal, the processing is forcibly processed by the intra mode, and the code amount is reduced without increasing the information amount of the flat portion more than necessary. It is an object of the present invention to provide a moving picture coding device capable of realizing high quality picture quality while holding down.

【0014】[0014]

【課題を解決するための手段】本発明は上記目的を達成
するために、動画像をフレーム(フィールド)相互間で
符号化する手段及びフレーム(フィールド)内で符号化
する手段とを有する動画像符号化装置において、時間的
に相前後する複数の動画を直交変換した後、それぞれの
直交変換後の画像の統計量を算出する統計量算出手段
と、前記統計量算出手段からの出力を比較する比較手段
とを具備し、前記比較手段からの出力に基づいて、フレ
ーム(フィールド)間符号化若しくはフレーム(フィー
ルド)内符号化のどちらか一方を選択する動画像符号化
装置を提供する。
In order to achieve the above object, the present invention provides a moving image having means for encoding moving images between frames (fields) and means for encoding within frames (fields). In the encoding device, after orthogonally transforming a plurality of moving images that are temporally consecutive, a statistic amount calculating unit that calculates the statistic amount of each image after the orthogonal transform is compared with the output from the statistic amount calculating unit. There is provided a moving picture coding apparatus, which comprises a comparing means, and selects either inter-frame (field) coding or intra-frame (field) coding based on an output from the comparing means.

【0015】[0015]

【作用】以上のような構成の動画像符号化装置は、予測
信号の生成時に高調波ノイズが発生すると判定された場
合にイントラモードにより強制的に処理し、平坦部の情
報量を必要以上に多くせずに符号量を低くする。
In the moving picture coding apparatus having the above-described configuration, when it is determined that harmonic noise occurs during generation of a prediction signal, the processing is forcibly processed in the intra mode, and the amount of information in the flat portion is unnecessarily increased. Reduce the code amount without increasing it.

【0016】[0016]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。図1に、本発明による第1実施例の同符号
化装置の構成を示し説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 shows the configuration of the same encoding apparatus according to the first embodiment of the present invention and will be described.

【0017】まず、入力した原画像信号xと予測画像信
号x´が減算部1により予測誤差信号εを出力する。こ
の予測誤差信号εは、DCT部2により離散コサイン変
換されてDCT係数を生成し、量子化部3により前記D
CT係数が、あるステップサイズに規定された状態で量
子化される。
First, the input original image signal x and the predicted image signal x ′ are output by the subtraction unit 1 as a prediction error signal ε. This prediction error signal ε is discrete cosine transformed by the DCT unit 2 to generate a DCT coefficient, and the quantizing unit 3 performs the D
The CT coefficient is quantized in a state defined by a certain step size.

【0018】このとき、前記ステップサイズは、可変長
符号化部4及びバッファメモリ部5からの情報により最
適化されている。その後、量子化されたDCT係数が前
記可変長量子化部4において、例えば、ハフマン符号化
等により、符号語が割り当てられ、該符号語がバッファ
メモリ部5に入力され、伝送路での転送レートが一定に
なるように順次出力される。
At this time, the step size is optimized by the information from the variable length coding unit 4 and the buffer memory unit 5. Then, the quantized DCT coefficient is assigned a code word by the variable length quantization unit 4 by, for example, Huffman coding, the code word is input to the buffer memory unit 5, and the transfer rate in the transmission path is set. Are output in sequence so that

【0019】一方、前記量子化部3からの量子化された
DCT係数の出力信号は、前記可変長符号化部4に入力
されるだけでなく、逆量子化部6へも入力される。その
後、前記逆DCT部7において、逆離散コサイン変換さ
れ予測誤差信号εが出力される。さらに加算部8におい
て、前記予測誤差信号εと予測信号x´が加算され局部
復号信号が作成される。ここで、前記予測信号x´を得
るために必要とされる信号として局部復号信号があり、
これから符号化しようとしている入力画像における現在
の画像(以下、現画像と称し、画像はフレーム画像及び
フィールド画像を示すものとする)に対し、過去の画像
(以下、前画像と称する)及び未来の画像(以下、後画
像と称する)が考えられる。
On the other hand, the output signal of the quantized DCT coefficient from the quantizer 3 is input not only to the variable length encoder 4 but also to the inverse quantizer 6. Then, in the inverse DCT unit 7, the inverse discrete cosine transform is performed and the prediction error signal ε is output. Further, the prediction error signal ε and the prediction signal x ′ are added in the adding section 8 to create a local decoded signal. Here, there is a locally decoded signal as a signal required to obtain the predicted signal x ′,
In contrast to the current image (hereinafter referred to as the current image, and the images indicate the frame image and the field image) in the input image which is about to be encoded, the past image (hereinafter referred to as the previous image) and the future image An image (hereinafter referred to as a rear image) can be considered.

【0020】また、前記量子化部3からの出力信号は、
任意の画像相当分タイミングをずらす遅延部19a,1
9b及び加算部20a,20bへも入力された後、動き
補償部22a,22bにおいて、ベクトル検出部18か
らの動ベクトル情報に基づき量子化されたDCT値が動
き補償される。その後、後述するジグザグスキャン部へ
情報が送られる。例えば、図2に示すように、5Bピク
チャを符号化する際、4Pピクチャ及び7Pピクチャが
用いられる。ここで、画像入力信号に基づいた制御部2
1からの情報により、1Iピクチャの情報を遅延部19
aにおいて、1画像分遅らせ加算部20aへ出力させ、
一方、次に送られる予測誤差信号εと該加算部で加算さ
れる。従って、前記加算部からの出力は、4Pピクチャ
の局部復号信号のDCT値を示すことに相当する。さら
に前記局部復号信号は、画像入力信号に基づき制御部2
1からの情報により、遅延部19bで4画像分遅延さ
れ、動き補償部22aで動き補償した後、ジグザグスキ
ャン部に入力される。同様に4Pピクチャの情報を遅延
部19cにおいて、3画像分遅らせ、加算部20bへ出
力され、次に送られる予測誤差信号と前記加算部で加算
し、7Pピクチャの局部復号信号のDCT値を生成す
る。前記局部復号信号は制御部21からの情報により、
遅延部19dで1画像分遅延させ、動き補償部22aで
動き補償した後、ジグザグスキャン部11へ入力され
る。この動作から明らかなように、遅延させる期間はこ
れから符号化しようとしている画像との画像間隔分相当
の遅延をかけることになる。
The output signal from the quantizer 3 is
Delay units 19a, 1 for shifting the timing by an amount corresponding to an arbitrary image
After being also input to 9b and the adders 20a and 20b, the motion compensators 22a and 22b perform motion compensation on the quantized DCT values based on the motion vector information from the vector detector 18. Then, the information is sent to the zigzag scanning unit described later. For example, as shown in FIG. 2, when encoding a 5B picture, a 4P picture and a 7P picture are used. Here, the control unit 2 based on the image input signal
The information of 1I picture is added to the delay unit 19 based on the information from 1.
In a, the image is delayed by one image and is output to the addition unit 20a,
On the other hand, the prediction error signal ε sent next is added by the adder. Therefore, the output from the adder corresponds to indicating the DCT value of the locally decoded signal of the 4P picture. Further, the locally decoded signal is based on the image input signal, and the control unit 2
The information from 1 is delayed by four images in the delay unit 19b, is motion compensated in the motion compensation unit 22a, and is then input to the zigzag scanning unit. Similarly, the delay unit 19c delays the information of the 4P picture by three images and outputs the DCT value of the locally decoded signal of the 7P picture to the prediction error signal which is output to the addition unit 20b and is then sent to the addition unit. To do. According to the information from the control unit 21, the locally decoded signal is
After being delayed by one image by the delay unit 19d and motion-compensated by the motion compensation unit 22a, it is input to the zigzag scanning unit 11. As is clear from this operation, the delay period is delayed by an amount corresponding to the image interval with the image to be encoded.

【0021】そして、前記ジグザグスキャン部11に入
力された局部復号信号は、図3に示されるようなスキャ
ニング処理が施される。すなわち、水平方向及び垂直方
向の低周波成分から高周波成分へと順番にスキャンされ
ることになる。このスキャニング処理で得られた信号
は、平均値算出部12及び分散算出部13に入力され
る。それらの各処理部では、ブロック内のスキャニング
順序に対するDCT値の分布の前画像に関する平均値M
p及び分散σ2 pが算出される。同様に、後画像につい
ても、平均値Mf及び分散σ2 fが算出される。その
後、Mp値、σ2 p値は、ノイズ判定部14に入力され
る。
Then, the locally decoded signal input to the zigzag scanning unit 11 is subjected to a scanning process as shown in FIG. That is, the low frequency components in the horizontal and vertical directions are sequentially scanned to the high frequency components. The signal obtained by this scanning processing is input to the average value calculation unit 12 and the variance calculation unit 13. In each of these processing units, the average value M of the distribution of DCT values with respect to the scanning order in the block for the previous image is calculated.
p and variance σ 2 p is calculated. Similarly, for the rear image, the average value Mf and the variance σ 2 f is calculated. After that, Mp value, σ 2 The p value is input to the noise determination unit 14.

【0022】また、画像入力された現画像は、ブロック
毎にDCT部9及び量子化部10にて、信号処理された
後、ジグザグスキャン部を通過し、平均値算出部、分散
算出部において、それぞれ平均値Mc、分散σ2 cが算
出され、その後、ノイズ判定部14に入力される。
The current image, which has been input as an image, is subjected to signal processing by the DCT unit 9 and the quantizing unit 10 for each block, and then passes through the zigzag scanning unit, and in the average value calculating unit and the variance calculating unit, Mean value Mc and variance σ 2 respectively c is calculated and then input to the noise determination unit 14.

【0023】前記ノイズ判定部では、前画像、後画像及
び現画像の平均値及び分散の情報に基づき、高周波ノイ
ズの発生の有無を予測し、その予測結果を判定信号とし
て、出力し、ブロックモード処理部17及びイントラモ
ード処理部16へ動作の有無に関する制御を行う。
The noise determination unit predicts the presence or absence of high-frequency noise on the basis of the average value and variance information of the previous image, the subsequent image, and the current image, outputs the prediction result as a determination signal, and outputs the block mode. The processing unit 17 and the intra mode processing unit 16 are controlled regarding the presence or absence of operation.

【0024】すなわち、高周波ノイズが発生すると予測
された場合、イントラモード処理部が動作し、現画像の
情報のみをDCT部2へ入力する。一方、同ノイズが発
生しないと予測された場合、ブロックモード選択部が動
作する。前記ブロックモード選択部は、例えば、前述し
た従来技術のSM3方式のように、イントラ、前方向動
き補償、後方向動き補償、両方向動き補償等の選択を行
い、その時の選択結果を出力する部材であり、その時の
選択結果を出力する。
That is, when it is predicted that high frequency noise will occur, the intra mode processing section operates and inputs only the information of the current image to the DCT section 2. On the other hand, when it is predicted that the same noise will not occur, the block mode selection unit operates. The block mode selection unit is a member that selects intra, forward motion compensation, backward motion compensation, bidirectional motion compensation, and the like, and outputs the selection result at that time, for example, like the SM3 method of the related art described above. Yes, the selection result at that time is output.

【0025】前記ブロックモード選択部15では、ブロ
ックモード選択部の出力結果に応じて、最適な予測ブロ
ックが生成され、予測信号として出力される。なお、動
き補償を行う場合、ベクトル検出部18において、ブロ
ックマッチング法等により、動ベクトルが検出され、該
動ベクトル及び前画像内のブロック情報に基づき処理さ
れる。図4には、前記ノイズ判定部の構成を示し、説明
する。
In the block mode selection unit 15, an optimum prediction block is generated according to the output result of the block mode selection unit and is output as a prediction signal. When performing motion compensation, the vector detection unit 18 detects a motion vector by a block matching method or the like, and processes it based on the motion vector and block information in the previous image. FIG. 4 shows the configuration of the noise determination unit, which will be described.

【0026】前述したように前画像の平均値Mp、現画
像の平均値Mc、後画像の平均値Mfがノイズ判定部に
入力される。まず前画像の平均値Mp及び、後画像の平
均値Mfが入力され、バッファメモリ部31a、31b
へそれぞれ格納し、前記Mc値が入力されるまで、前記
ノイズ判定部に入力されるまで待機させる。
As described above, the average value Mp of the previous image, the average value Mc of the current image, and the average value Mf of the subsequent image are input to the noise determination section. First, the average value Mp of the front image and the average value Mf of the rear image are input, and the buffer memory units 31a and 31b are input.
Respectively, and waits until the Mc value is input to the noise determination unit.

【0027】次にMc値が出力され、減算部32a,3
2bへ向かうと同時に前記バッファメモリ部からMc値
が出力され、前記減算部から差分信号(Mp−Mc)及
び(Mf−Mc)が求められる。
Next, the Mc value is output, and the subtraction units 32a, 32a
At the same time as heading to 2b, the Mc value is output from the buffer memory unit, and the difference signals (Mp-Mc) and (Mf-Mc) are obtained from the subtraction unit.

【0028】よって、平均値M及び分散σ2 が小さい場
合、低周波成分の割合が多く、平坦な画像であり、一
方、分散σ2 が大きい場合、低周波成分から高周波成分
まで、広く分布する絵柄の細かい画像であると考えるこ
とができる。従って、平均値の差分値及び分散が大きい
場合、絵柄の細かい画像から平坦な画像へと変わったこ
とを示す。このような状態において、前の画像からの情
報により、動き補償を行うと、前述したように、高周波
ノイズが発生し易くなる。前記差分信号は、コンパレー
タ33a及び33bへそれぞれ入力され、閾値MThと比
較され、 (Mp−Mc)≧MTh 且つ、 (Mf−Mc)≧MTh
Therefore, the average value M and the variance σ 2 Is small, the image is flat with a large proportion of low-frequency components, while the variance σ 2 Is large, it can be considered that the image has a fine pattern widely distributed from low frequency components to high frequency components. Therefore, when the difference value and the variance of the average value are large, it indicates that the image with a fine pattern is changed to a flat image. In such a state, if motion compensation is performed using information from the previous image, high-frequency noise is likely to occur, as described above. The difference signals are respectively input to the comparators 33a and 33b and compared with the threshold value MTh, and (Mp-Mc) ≧ MTh, and (Mf−Mc) ≧ MTh.

【0029】が、真の場合、ノイズ有りと判定され、論
理積回路38aよりフラグ信号Fg1に“1”が出力さ
れ、偽の場合、ノイズ無しと判定されフラグ信号Fg1
に“0”が出力される。また分散による判定について
も、全く同様に、閾値MTh´と(σ2 p−σ2 c)若し
くは(σ2 f−σ2 c)との大小関係に対応し、論理積
回路38bからフラグ信号Fg2が出力される。その
後、論理積回路39へ入力され、該論理積回路39によ
り、その演算結果が出力される。
When true, it is determined that there is noise, and the logical product circuit 38a outputs "1" to the flag signal Fg1. When false, it is determined that there is no noise and the flag signal Fg1.
"0" is output to. Also in the determination by variance, the thresholds MTh ′ and (σ 2 p-σ 2 c) or (σ 2 f−σ 2 The flag signal Fg2 is output from the logical product circuit 38b in correspondence with the magnitude relationship with c). Then, the logical product circuit 39 inputs the result, and the logical product circuit 39 outputs the operation result.

【0030】すなわち、出力信号が“1”の場合、イン
トラモード処理部の動作が行われる信号T(1)を示
し、一方、“0”の場合ブロックモード選択部の動作が
行われる信号F(0)を示す。
That is, when the output signal is "1", it indicates the signal T (1) for the operation of the intra-mode processing section, while when it is "0", the signal F (for the operation of the block-mode selection section is shown. 0) is shown.

【0031】以上詳述したように本実施例では、現画
像、前画像及び、後画像の平均値と分散を比較するよう
にしたが、現画像と前画像の比較のみでも本発明は当然
実施することは可能である。
As described above in detail, in the present embodiment, the average value and the variance of the current image, the previous image and the subsequent image are compared, but the present invention is naturally carried out only by comparing the current image and the previous image. It is possible to do so.

【0032】このように平坦部を有するブロックについ
て、動き補償を用いて、予測信号を生成するよりも、高
品質な画像を得ることができ、情報量としても少なくて
すむ利点がある。また本発明は、前述した実施例に限定
されるものではなく、他にも発明の要旨を逸脱しない範
囲で種々の変形や応用が可能であることは勿論である。
As described above, with respect to the block having the flat portion, it is possible to obtain a high quality image and generate a smaller amount of information than to generate a prediction signal by using motion compensation. Further, the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications and applications can be made without departing from the scope of the invention.

【0033】[0033]

【発明の効果】以上詳述したように本発明によれば、予
測信号の生成時に高調波ノイズが発生すると判定された
場合にイントラモードにより強制的に処理し、平坦部の
情報量を必要以上に多くせず符号量を低く押さえつつ画
質の高品質化が実現できる動画像符号化装置を提供する
ことができる。
As described above in detail, according to the present invention, when it is determined that harmonic noise occurs during generation of a prediction signal, the processing is forcibly processed by the intra mode, and the amount of information in the flat portion is more than necessary. It is possible to provide a moving picture coding apparatus that can improve the image quality while suppressing the code amount to be low without increasing the number.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は、本発明による第1実施例の同符号化装
置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an encoding apparatus according to a first embodiment of the present invention.

【図2】図2は、第1実施例の同符号化装置による符号
化画像順の動画像の構成を示すである。
FIG. 2 is a diagram showing a structure of a moving image in the order of encoded images by the same encoding device according to the first embodiment.

【図3】図3は、ブロック内のジグザグスキャニングの
様子を示す図である。
FIG. 3 is a diagram showing a state of zigzag scanning within a block.

【図4】図4は、ノイズ判定部の構成を示す図である。FIG. 4 is a diagram showing a configuration of a noise determination unit.

【図5】図5は、従来の入力画像順の動画像の構成を示
すである。
FIG. 5 is a diagram showing a configuration of a conventional moving image in the order of input images.

【図6】図6は、動き補償有無の判定基準を示す図であ
る。
FIG. 6 is a diagram showing criteria for determining whether or not motion compensation is performed.

【図7】図7は、イントラ有無の判定基準を示す図であ
る。
FIG. 7 is a diagram showing criteria for determining the presence / absence of an intra.

【符号の説明】 1…減算部、2…DCT部、3…量子化部、4…可変長
符号化部、5…バッファメモリ部、6…逆量子化部、7
…逆DCT部、8…加算部、9…DCT部、10…量子
化部、11…ジグザグスキャン部、12…平均値算出
部、13…分散算出部、14…ノイズ判定部、15…ブ
ロックモード選択部、16…イントラモード処理部、1
7…ブロックモード処理部、18…ベクトル検出部、1
9a,19b,19c,19d…遅延部、20a,20
b…加算部、21…制御部、31a,31b,35a,
35b…バッファメモリ部、32a,32b,36a,
36b…減算部、33a,33b,37a,37b…コ
ンパレータ、38a,38b…論理積回路、39…論理
積回路、Mc,Mf,Mp…平均値、σ2 c,σ2 f,
σ2 p…分散、x´…予測画像信号、x…原画像信号、
ε…予測誤差信号。
[Description of Codes] 1 ... Subtraction unit, 2 ... DCT unit, 3 ... Quantization unit, 4 ... Variable length coding unit, 5 ... Buffer memory unit, 6 ... Dequantization unit, 7
Inverse DCT section, 8 ... Addition section, 9 ... DCT section, 10 ... Quantization section, 11 ... Zigzag scanning section, 12 ... Average value calculation section, 13 ... Variance calculation section, 14 ... Noise determination section, 15 ... Block mode Selection unit, 16 ... Intra mode processing unit, 1
7 ... Block mode processing unit, 18 ... Vector detection unit, 1
9a, 19b, 19c, 19d ... Delay unit, 20a, 20
b ... Addition unit, 21 ... Control unit, 31a, 31b, 35a,
35b ... Buffer memory unit, 32a, 32b, 36a,
36b ... Subtraction unit, 33a, 33b, 37a, 37b ... Comparator, 38a, 38b ... Logical product circuit, 39 ... Logical product circuit, Mc, Mf, Mp ... Average value, σ 2 c, σ 2 f,
σ 2 p ... variance, x '... predicted image signal, x ... original image signal,
ε ... Prediction error signal.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 動画像をフレームまたはフィールド画像
相互間で符号化する手段及びフレームまたはフィールド
画像内で符号化する手段とを有する動画像符号化装置に
おいて、 時間的に相前後する複数の動画を直交変換した後、それ
ぞれの直交変換後の画像の統計量を算出する統計量算出
手段と、 前記統計量算出手段からの出力を比較する比較手段とを
具備し、 前記比較手段からの出力に基づいて、フレームまたはフ
ィールド画像間符号化若しくはフレームまたはフィール
ド画像内符号化のどちらか一方を選択することを特徴と
する動画像符号化装置。
1. A moving picture coding apparatus having means for coding a moving picture between frame or field images and means for coding a moving picture within a frame or field image, and After the orthogonal transformation, it comprises a statistic calculation means for calculating the statistic of each image after the orthogonal transformation, and a comparison means for comparing the output from the statistic calculation means, based on the output from the comparison means The moving picture coding apparatus is characterized in that either one of the inter-frame or field picture coding or the intra-frame or field picture coding is selected.
【請求項2】 前記統計量算出手段が直交変換係数の平
均値を求める平均値算出手段及び、直交変換係数の分散
を求める分散算出手段とを具備することを特徴とする請
求項1記載の動画像符号化装置。
2. The moving image according to claim 1, wherein the statistic calculating means includes an average value calculating means for calculating an average value of the orthogonal transform coefficients and a variance calculating means for calculating a variance of the orthogonal transform coefficients. Image coding device.
【請求項3】 前記比較手段において、 現画像の平均値Mcと分散σ2 c、前画像の平均値Mp
と分散σ2 p、後画像の平均値Mfと分散σ2 fとを比
較し、平均値と分散が所定値MTh,σ2 Thに対して、 Mp−Mc≧MTh, Mf−Mc≧MTh, σ2 p−σ
2 c≧σ2 Th, σ2 f−σ2 c≧σ2 Th, なる関係をすべて満たすとき、フレームもしくはフィー
ルド内符号化を選択することを特徴とする請求項1記載
の動画像符号化装置。
3. The average value Mc and the variance σ 2 of the current image in the comparing means. c, the average value Mp of the previous image
And variance σ 2 p, mean value Mf of the subsequent image and variance σ 2 f is compared, and the average value and variance are predetermined values MTh, σ 2 For Th, Mp-Mc ≧ MTh, Mf-Mc ≧ MTh, σ 2 p-σ
2 c ≧ σ 2 Th, σ 2 f−σ 2 c ≧ σ 2 2. The moving picture coding apparatus according to claim 1, wherein intraframe or intrafield coding is selected when all the relations Th and are satisfied.
JP29437691A 1991-11-11 1991-11-11 Moving image encoding device Withdrawn JPH05137129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29437691A JPH05137129A (en) 1991-11-11 1991-11-11 Moving image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29437691A JPH05137129A (en) 1991-11-11 1991-11-11 Moving image encoding device

Publications (1)

Publication Number Publication Date
JPH05137129A true JPH05137129A (en) 1993-06-01

Family

ID=17806923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29437691A Withdrawn JPH05137129A (en) 1991-11-11 1991-11-11 Moving image encoding device

Country Status (1)

Country Link
JP (1) JPH05137129A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5650829A (en) * 1994-04-21 1997-07-22 Sanyo Electric Co., Ltd. Motion video coding systems with motion vector detection
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
US5963673A (en) * 1995-12-20 1999-10-05 Sanyo Electric Co., Ltd. Method and apparatus for adaptively selecting a coding mode for video encoding
KR20190052551A (en) * 2017-11-08 2019-05-16 한화테크윈 주식회사 Apparatus and Method for Noise Reduction
CN110780272A (en) * 2019-10-29 2020-02-11 西安电子科技大学 Unparameterized paired echo suppression method for bump platform SAR

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5650829A (en) * 1994-04-21 1997-07-22 Sanyo Electric Co., Ltd. Motion video coding systems with motion vector detection
US5808700A (en) * 1994-04-21 1998-09-15 Sanyo Electric Co., Ltd. Motion video coding systems with motion vector detection
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
US6075556A (en) * 1994-06-23 2000-06-13 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
US5963673A (en) * 1995-12-20 1999-10-05 Sanyo Electric Co., Ltd. Method and apparatus for adaptively selecting a coding mode for video encoding
KR20190052551A (en) * 2017-11-08 2019-05-16 한화테크윈 주식회사 Apparatus and Method for Noise Reduction
CN110780272A (en) * 2019-10-29 2020-02-11 西安电子科技大学 Unparameterized paired echo suppression method for bump platform SAR

Similar Documents

Publication Publication Date Title
EP1098528B1 (en) Device for predicting and decoding image
US6462791B1 (en) Constrained motion estimation and compensation for packet loss resiliency in standard based codec
KR0181034B1 (en) Method and apparatus for detecting motion vector using feature point based motion estimation
JP4755095B2 (en) Bidirectional prediction method used for encoding / decoding side of video encoding
US9667961B2 (en) Video encoding and decoding apparatus, method, and system
US20070002945A1 (en) Intra-coding apparatus and method
EP0531041A1 (en) Adaptive DCT/DPCM video signal coding method
US20050281479A1 (en) Method of and apparatus for estimating noise of input image based on motion compensation, method of eliminating noise of input image and encoding video using the method for estimating noise of input image, and recording media having recorded thereon program for implementing those methods
US20030095603A1 (en) Reduced-complexity video decoding using larger pixel-grid motion compensation
JP2004527960A (en) Dynamic complexity prediction and adjustment of MPEG2 decoding process in media processor
JPH09179987A (en) Method and device for detecting motion vector
EP1158806A1 (en) Motion vector coding
US20050141616A1 (en) Video encoding and decoding methods and apparatuses using mesh-based motion compensation
US7236529B2 (en) Methods and systems for video transcoding in DCT domain with low complexity
WO2003056838A1 (en) Moving picture compression/coding apparatus and motion vector detection method
JPH05137129A (en) Moving image encoding device
JP4130617B2 (en) Moving picture coding method and moving picture coding apparatus
JP4171934B2 (en) Image processing apparatus and method, and recording medium
US20060146932A1 (en) Method and apparatus for providing motion estimation with weight prediction
US5614953A (en) Image signal decoding apparatus having an encoding error compensation
JP3738511B2 (en) Video coding system
JP2702139B2 (en) Video predictive coding
JP2507199B2 (en) Image coding method and apparatus
US20040013200A1 (en) Advanced method of coding and decoding motion vector and apparatus therefor
JPH06224773A (en) High efficiency coding circuit

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990204