JPH05292485A - Moving image encoding device - Google Patents

Moving image encoding device

Info

Publication number
JPH05292485A
JPH05292485A JP8711692A JP8711692A JPH05292485A JP H05292485 A JPH05292485 A JP H05292485A JP 8711692 A JP8711692 A JP 8711692A JP 8711692 A JP8711692 A JP 8711692A JP H05292485 A JPH05292485 A JP H05292485A
Authority
JP
Japan
Prior art keywords
image
block
unit
dct
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8711692A
Other languages
Japanese (ja)
Inventor
Kazuhiro Matsukura
和浩 松倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP8711692A priority Critical patent/JPH05292485A/en
Publication of JPH05292485A publication Critical patent/JPH05292485A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Analogue/Digital Conversion (AREA)

Abstract

PURPOSE:To provide a moving image encoding device which can prevent generating high frequency noise after scene changing for the scene changing or the like for the moving images. CONSTITUTION:For the moving images divided into blocks, this device is provided with a statistic calculating means 107 to calculate the statistic based on the information of the block under consideration, statistic calculating means 109 to calculate the statistic based on the result of the orthogonal transformation of the block motion predicted, and discriminating means 110 to discriminate by which method the encoding of the block under consideration is performed between intra-encoding and inter-encoding based on the statistics calculated at the two calculating parts.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は動画像符号化装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture coding device.

【0002】[0002]

【従来の技術】動画像符号化技術の向上に伴い、各分野
から符号化装置が活発に開発されている。その背景とし
て、符号化方式の国際標準化が進んでいることがあげら
れる。中でも、蓄積メディアを想定したMPEG方式
(Moving Picture Expert Group)においては、仕様決
定が完了している。
2. Description of the Related Art With the improvement of moving image coding technology, coding devices have been actively developed from various fields. The background to this is that the international standardization of coding methods is progressing. Above all, the specifications have been determined in the MPEG (Moving Picture Expert Group) system, which is intended for storage media.

【0003】同方式では、時間軸方向の冗長度を落とす
ために動き補償を行ない画像の差分を取り、その後空間
軸方向の冗長度を落とすために直交変換の一種であるD
CT(離散コサイン変換)および可変長符号化方式を導
入している。
In the same system, motion compensation is performed to reduce redundancy in the time axis direction, a difference between images is calculated, and then redundancy is reduced in the spatial axis direction, which is a kind of orthogonal transform.
CT (discrete cosine transform) and variable length coding are introduced.

【0004】時間軸方式の冗長度削減については、連続
した動画像が、前後のフレーム間(又はフィールド間)
において高い相関性を有するといった性質を利用してい
る。すなわち、符号化を行なおうとしている画像(現画
像)と時間的に前後にある画像との間で各ブロックごと
に動ベクトルを検出し、動き予測を行ない現画像を予測
した後、両者の間における予測誤差を算出する。ここ
で、動画像を構成する各画像は、図9(a)に示される
ように、Iピクチャ(フレーム又はフィールド内符号化
画像)、Pピクチャ(前方向予測画像)、Bピクチャ
(前方向、後方向、両方向予測画像)の3つの種類に分
類された後、図9(b)の順序に従い符号化されること
になる。一方、空間軸方向の冗長度については、各画像
の予測誤差信号をブロック単位でDCT係数に対し量子
化を施した後、可変長符号化を行なっている。
Regarding the reduction of redundancy in the time axis method, a continuous moving image is displayed between preceding and following frames (or between fields).
The property of having a high correlation is used. That is, a motion vector is detected for each block between the image to be encoded (current image) and the images preceding and succeeding in time, and motion estimation is performed to predict the current image, Calculate the prediction error between Here, as shown in FIG. 9A, each image forming the moving image is an I picture (frame or intra-field coded image), P picture (forward prediction image), B picture (forward direction, After being classified into three types (backward and bidirectional prediction images), they are coded according to the order of FIG. 9B. On the other hand, for the redundancy in the spatial axis direction, variable length coding is performed after the prediction error signal of each image is quantized in DCT coefficients in block units.

【0005】前述した予測信号は、イントラ、前方向予
測、後方向予測、両方向予測の4種類に分類される。ブ
ロック符号化を行なう場合、最適な予測方式を選択しな
ければならないが、同選択部の詳細については標準化の
規定外であり、各方面で多種の方式が提案されている。
例えば、特開平1−170276号公報において述べら
れているような、予測誤差のブロック内平均値を符号化
する方式があげられる。
The above-mentioned prediction signals are classified into four types: intra, forward prediction, backward prediction, and bidirectional prediction. When performing block coding, an optimal prediction method must be selected, but the details of the selection unit are outside the scope of standardization, and various methods have been proposed in various fields.
For example, there is a method described in JP-A-1-170276, which encodes an intra-block average value of prediction errors.

【0006】また特開平2−29180号公報において
は、ブロック符号化方式と動き補償方式の両者から符号
量の少ない方式をブロックごとに適応的に選択するとい
った方式もある。
Further, in Japanese Patent Laid-Open No. 2-29180, there is a system in which a system with a small code amount is adaptively selected for each block from both a block coding system and a motion compensation system.

【0007】あるいは、前述した標準化方式の検討段階
において提案されたモデルケースの1つとして、SM3
方式(MPEG Simulation Model Three ISO-IEC/JTC/SC2/
WG8Documents of Moving Picture Experts Group )が
ある。同方式の選択部は、動き補償の有無の判定、イン
トラの有効無効の判定、動き補償採用時における予測方
向の決定と行った各選択要素により構成されている。
Alternatively, as one of the model cases proposed in the examination stage of the standardization method described above, SM3 is used.
Method (MPEG Simulation Model Three ISO-IEC / JTC / SC2 /
WG8Documents of Moving Picture Experts Group). The selection unit of the same system is configured by each selection element that determines whether or not motion compensation is performed, determines whether intra is valid or invalid, and determines a prediction direction when motion compensation is adopted.

【0008】例えば、動き補償の有無の選択を行う場
合、図10に示されるように、(X,Y)座標系が特性
図の斜線領域内にあるとき動き補償が行われる。同図に
おいて、BDは現画像間(現画像と前画像)の16*1
6画素ブロックにおける絶対差分和であり、DBDは現
画像のブロックと動き補償後のブロックとの間における
絶対差分和である。
For example, when the presence / absence of motion compensation is selected, as shown in FIG. 10, motion compensation is performed when the (X, Y) coordinate system is within the shaded area of the characteristic diagram. In the figure, BD is 16 * 1 between the current images (current image and previous image).
This is the sum of absolute differences in the 6-pixel block, and DBD is the sum of absolute differences between the block of the current image and the block after motion compensation.

【0009】一方、イントラモード有無の選択を行う場
合、図11に示されるように、(VAR、VAROR)
座標値が特性図の斜線領域内にあるときイントラモード
が選択される。ここで、VARは16*16画素で構成
されるブロックに関するフレーム間差分2乗和であり、
VARORは同ブロックに関するフレーム内画素値の分
散を示す。以上の、選択方式等を基準として各ブロック
毎に予測信号が作られる。
On the other hand, when selecting the presence / absence of the intra mode, as shown in FIG. 11, (VAR, VAROR)
The intra mode is selected when the coordinate value is within the shaded area of the characteristic diagram. Here, VAR is the sum of squared differences between frames regarding a block composed of 16 * 16 pixels,
VAROR represents the variance of pixel values within a frame for the same block. A prediction signal is created for each block based on the selection method and the like described above.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上記の
SM3方式では、動画像のシーンチェンジが行われた
時、視覚的な見地に立った場合、誤った予測方式が選択
されることがある。例えば、図9(a)において、高周
波成分の多い4番目のP画像(以下、P3画像と略記)
と5番目のB画像(以下、B4画像と略記)との間にシ
ーンシェンジが行われた時、B4画像の符号化時におい
て、平坦な画像部分のブロックに対して動き補償モード
が選択されてしまうことがある。
However, in the above SM3 method, an incorrect prediction method may be selected from a visual point of view when a scene change of a moving image is performed. For example, in FIG. 9A, the fourth P image with many high-frequency components (hereinafter abbreviated as P3 image).
When the scene change is performed between the B-picture and the fifth B-picture (hereinafter, abbreviated as B4 picture), the motion compensation mode is selected for the block of the flat picture part during the coding of the B4 picture. It may end up.

【0011】これは、シーンチェンジにより、シーンチ
ェンジ前のP3画像が相関性が小さくなるため、シーン
チェンジによる誤差を含む前方向予測された画像のみの
情報により、P3画像からB5画像を符号化する構成と
なっており、また、平坦部分を有するブロックについて
は、非イントラモードが選択され易くなる判定を行なう
方式に定めていることに起因する。その結果、現在の入
力画像と動き補償による予測信号から作成される予測誤
差信号が所定のしきい値以下の値を有するときは、量子
化において平坦な画像となる情報が損なわれ、図12
(a)と(b)との比較により明らかなように、復号し
たとき、ブロック内で非平坦な画像(高調波ノイズ)が
発生してしまうことになる。なお、図12(a)、
(b)において、横軸はマクロブロックナンバー、縦軸
は分散を表す。
This is because the P3 image before the scene change has a small correlation due to the scene change, so the B5 image is encoded from the P3 image by the information of only the image predicted in the forward direction including the error due to the scene change. This is due to the fact that the block having the flat portion is set to a method for making a determination that the non-intra mode is easily selected. As a result, when the prediction error signal created from the current input image and the prediction signal by motion compensation has a value equal to or less than a predetermined threshold value, the information that becomes a flat image in the quantization is lost, and FIG.
As is clear from the comparison between (a) and (b), when decoding, a non-flat image (harmonic noise) occurs in the block. In addition, FIG.
In (b), the horizontal axis represents the macroblock number and the vertical axis represents the variance.

【0012】本発明の動画像符号化装置はこのような課
題に着目してなされたものであり、その目的とするとこ
ろは、動画像におけるシーンチェンジ等において、シー
ンチェンジ後の高周波ノイズの発生を防ぐことが可能な
動画像符号化装置を提供することにある。
The moving picture coding apparatus of the present invention has been made in view of such a problem, and its purpose is to prevent generation of high frequency noise after a scene change in a scene change in a moving picture. An object of the present invention is to provide a moving picture coding device that can prevent such a situation.

【0013】[0013]

【課題を解決するための手段】上記目的を達成するため
に、本発明の動画像符号化装置は、フレームまたはフィ
ールド画像内でブロックごとに分割された動画像のう
ち、符号化すべき現画像内の注目ブロックに対して、そ
の画像内の相関のみを用いて符号化を行うイントラ符号
化手段と、符号化済みの参照画像から予測されたブロッ
ク間の相関を用いて注目ブロックの符号化を行うインタ
ー符号化手段と、前記注目ブロックの情報に基づく統計
量と、動き予測されたブロックの直交変換結果に基づく
統計量とに基づいて、前記イントラ符号化手段と前記イ
ンター符号化手段のうちいずれかを選択して注目ブロッ
クの符号化を行う選択手段とを具備する。
In order to achieve the above object, a moving picture coding apparatus according to the present invention uses a current picture to be coded among moving pictures divided into blocks in a frame or field picture. The target block is encoded using the intra-coding unit that performs the coding using only the correlation within the image and the correlation between the blocks predicted from the coded reference image. Any one of the intra coding means and the inter coding means based on an inter coding means, a statistic based on the information of the block of interest, and a statistic based on an orthogonal transformation result of the motion-predicted block. And selecting means for selecting and encoding the block of interest.

【0014】[0014]

【作用】すなわち、本発明の動画像符号化装置において
は、ブロック分割された動画像において、注目ブロック
の情報に基づく統計量と、動き予測されたブロックの直
交変換結果に基づく統計量とに基づいて、イントラ符号
化とインター符号化のうちいずれかを選択して注目ブロ
ックの符号化を行う。
That is, in the moving picture coding apparatus of the present invention, based on the statistical amount based on the information of the target block and the statistical amount based on the orthogonal transformation result of the motion predicted block in the moving image divided into blocks. Then, either the intra coding or the inter coding is selected and the block of interest is coded.

【0015】[0015]

【実施例】以下に、図面を参照して本発明に係る動画像
符号化装置の実施例を説明する。図1は本発明の第1の
実施例を示す。動画像が、1フレームずつブロック化手
段101へ入力されると、各画像はm*n画素ごとにブ
ロック分割され、順次出力される。イントラ・インター
切り換え手段102は、各ブロックごとに、減算器11
1において求められる動き予測手段106からの予測画
像信号と現画像信号との差分信号と、ブロック化手段1
01から出力される現画像信号のうちいずれかを判定手
段110からの制御信号に基づいて選択する。したがっ
て、イントラ・インター切り換え手段102と判定手段
110とは選択手段を構成する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a moving picture coding apparatus according to the present invention will be described below with reference to the drawings. FIG. 1 shows a first embodiment of the present invention. When a moving image is input to the blocking unit 101 frame by frame, each image is divided into blocks of m * n pixels and sequentially output. The intra / inter switching means 102 is configured to subtract the subtractor 11 for each block.
1 and the difference signal between the predicted image signal from the motion prediction unit 106 and the current image signal, and the blocking unit 1
One of the current image signals output from 01 is selected based on the control signal from the determination means 110. Therefore, the intra / inter switching means 102 and the determination means 110 form a selection means.

【0016】直交変換手段103は、イントラ・インタ
ー切り換え手段102からのm*nブロックサイズの画
像信号を直交変換し変換係数を得るものであり、その具
体例として、K−L変換(カルーネン・レーベ変換)、
DCT(Discrete Cosine
The orthogonal transformation means 103 obtains transformation coefficients by orthogonally transforming the image signal of m * n block size from the intra / inter switching means 102, and as a specific example thereof, a KL transformation (Karhunen-Loeve) is used. conversion),
DCT (Discrete Cosine

【0017】Transform )等があげられる。
その後、直交変換係数は、圧縮手段104へ入力され、
ChenとPratt が提案したシーンアダプティブ符号化に代
表されるような量子化処理およびハフマン符号化等の処
理がなされ、符号語が割り当てられることにより符号が
出力される。
Transform) and the like.
Thereafter, the orthogonal transform coefficient is input to the compression means 104,
Quantization and Huffman coding as represented by the scene adaptive coding proposed by Chen and Pratt are performed, and the code is output by assigning a code word.

【0018】符号化された信号は、符号語として伝送路
へ出力されるが、一方、圧縮手段104で、量子化され
た変換係数の量子化値が、局部復号化手段105へ入力
される。同部において、量子化値を逆量子化することで
得られた直交変換係数を復元し、さらに、同直交変換係
数を逆変換することにより、最終的には符号器内で局部
的に画像を再現することになる。
The encoded signal is output to the transmission path as a code word, while the quantized value of the transform coefficient quantized by the compression means 104 is input to the local decoding means 105. In the same section, the orthogonal transform coefficient obtained by dequantizing the quantized value is restored, and further, the orthogonal transform coefficient is inversely transformed, so that the image is finally locally generated in the encoder. It will be reproduced.

【0019】動き予測手段106には、すでに処理の終
わった画像に対する前記局部復号画像信号とブロック化
手段101からの現画像信号が入力され、両者の信号か
ら動ベクトルを検出し、この動ベクトルに従い画像の動
き予測がなされる。前記動き予測信号は、前述した減算
器111に入力される。又、動き予測手段106からの
動き予測信号は直交変換手段108にも供給される。直
交変換手段108において変換された変換係数は、統計
量算出手段109により、画像の性質を示す統計量が求
められ判定手段110へ出力される。
The motion predicting means 106 is supplied with the locally decoded image signal for the already processed image and the current image signal from the blocking means 101, detects a motion vector from both signals, and follows the motion vector. Image motion prediction is performed. The motion prediction signal is input to the subtractor 111 described above. The motion prediction signal from the motion prediction means 106 is also supplied to the orthogonal transformation means 108. The transform coefficient converted by the orthogonal transform unit 108 is calculated by the statistic calculation unit 109 to obtain a statistic indicating the property of the image, and the statistic is output to the determination unit 110.

【0020】一方、統計量算出手段107においては、
ブロック化された現画像の性質を示す統計量が求めら
れ、判定手段110へ出力される。ここで、各統計量は
画像の平坦さ、精細さを示すものである。
On the other hand, in the statistic calculation means 107,
A statistic indicating the property of the current image that has been blocked is obtained and output to the determination unit 110. Here, each statistic indicates the flatness and fineness of the image.

【0021】判定手段110では、ブロック化された現
画像信号の統計量および動き予測信号の統計量に基づ
き、注目ブロックの符号化をイントラ方式とインター方
式のうちどちらの方法で行うかを判定し、その制御信号
をイントラ・インター切り換え手段102へ出力し、符
号化方式を制御する。すなわち、本実施例においては、
画像がシーンチェンジ等、各ブロックごとに精細な画像
へ極端に変化したときのみ、上記2つの統計量に基き平
坦部にひずみが発生すると予測し、制御信号を出力す
る。その結果、イントラ・インター切り換え手段102
は、動き補償を用いずに、ブロック化手段101からの
現画像信号を採用するように動作する。
The decision means 110 decides which of the intra method and the inter method the coding of the target block is based on the statistic amount of the current image signal and the statistic amount of the motion prediction signal which are divided into blocks. , And outputs the control signal to the intra / inter switching means 102 to control the encoding system. That is, in this embodiment,
Only when the image extremely changes to a fine image for each block such as a scene change, it is predicted that the flat portion will be distorted based on the above two statistics, and the control signal is output. As a result, the intra / inter switching means 102
Operates so as to adopt the current image signal from the blocking means 101 without using motion compensation.

【0022】上記の第1実施例の動作から明らかなよう
に、動画像におけるシーンチェンジ等において、シーン
チェンジ後の画像に発生する人間が感知しやすい平坦部
のノイズを予測し同ノイズが発生しないように、イント
ラ方式で処理するため、画質劣化を抑えることができ
る。また、高調波ノイズのあるブロックでは、直流成分
のみならず交流成分も有するため、同ブロックの符号量
は、必然的に増えてしまうが、同ブロックをイントラ方
式で符号化すると、平坦なブロックならば直流成分のみ
であるため符号量は少なくてすむ。このように、平坦部
の情報量を必要以上に多くしないことから、符号量を低
く抑える効果もある。以上、第1実施例の動作説明にお
いてフレーム画像について述べたが、フィールド画像に
ついても全く同様なことが言える。以下に図2を参照し
て本発明の第2の実施例を説明する。
As is apparent from the operation of the first embodiment described above, when a scene is changed in a moving image, the noise of the flat portion which is easily perceived by humans and is generated in the image after the scene change is predicted, and the noise is not generated. As described above, since the processing is performed by the intra method, image quality deterioration can be suppressed. In addition, a block with harmonic noise has an AC component as well as a DC component, so the code amount of the block inevitably increases, but if the block is encoded by the intra method, it will be a flat block. For example, the code amount can be small because it has only the DC component. In this way, the amount of information in the flat portion is not increased more than necessary, so that there is also an effect of keeping the code amount low. Although the frame image has been described in the description of the operation of the first embodiment, the same can be said for the field image. A second embodiment of the present invention will be described below with reference to FIG.

【0023】動画像を構成するフレーム画像は、一旦1
フレームずつ画像メモリ201へ入力される。その後、
減算部202において原画像信号x から予測画像信号x'
が減算され、減算部202からは予測誤差信号εが出力
される。同信号は、DCT部203により離散コサイン
変換され、量子化部204によりDCT係数が、あるス
テップサイズに規定された状態で量子化される。このと
き、ステップサイズは、可変長符号化部(VLC)20
5およびバッファメモリ部206からの情報により最適
化されている。その後、量子化されたDCT係数が可変
長符号化部205において、例えばハフマン符号化など
により符号語が割り当てられ、同符号語がバッファメモ
リ206へ入力され、伝送路での転送レートが一定にな
るように順次出力される。
The frame image forming the moving image is once 1
It is input to the image memory 201 frame by frame. afterwards,
The subtraction unit 202 calculates the predicted image signal x ′ from the original image signal x.
Is subtracted, and the subtraction unit 202 outputs a prediction error signal ε. The DCT unit 203 performs discrete cosine transform on the signal, and the quantizing unit 204 quantizes the DCT coefficient in a state in which the DCT coefficient is regulated to a certain step size. At this time, the step size is the variable length coding unit (VLC) 20.
5 and information from the buffer memory unit 206 are optimized. After that, the quantized DCT coefficient is assigned a code word by the variable-length coding unit 205 by, for example, Huffman coding, the same code word is input to the buffer memory 206, and the transfer rate on the transmission path becomes constant. Are sequentially output.

【0024】量子化部204からの量子化されたDCT
係数の出力信号は、可変長符号化部205へ入力される
だけでなく、逆量子化部207へも入力される。その
後、逆DCT部208において、逆離散コサイン変換さ
れ予測誤差信号ε´が出力される。さらに、加算部20
9において、同信号ε´と予測画像信号x'が加算され局
部復号が作成される。ここで、予測信号を得るために必
要とされる信号として局部復号信号があり、これから符
号化しようとしている入力画像における現在の画像(以
下、現画像と略記し、画像とは、フレーム画像又はフィ
ールド画像を示す。)に対し、過去の画像(以下、前画
像と略記)および未来の画像(以下、後画像と略記)が
考えられる。
Quantized DCT from quantizer 204
The coefficient output signal is input not only to the variable length coding unit 205 but also to the inverse quantization unit 207. After that, in the inverse DCT unit 208, the inverse discrete cosine transform is performed and the prediction error signal ε ′ is output. Furthermore, the addition unit 20
In 9, the same signal ε ′ and the predicted image signal x ′ are added to create local decoding. Here, there is a locally decoded signal as a signal required to obtain a prediction signal, and the current image in the input image to be encoded from now on (hereinafter abbreviated as current image, the image is a frame image or field). Image), a past image (hereinafter abbreviated as a front image) and a future image (hereinafter abbreviated as a rear image) can be considered.

【0025】ベクトル検出部215では、画像メモリ2
01に蓄えられている現画像(原画)と画像メモリ21
1に蓄えられている前画像あるいは画像メモリ212に
蓄えられた後画像(共に局部復号画像)との間で、m*
n画素で構成されるブロックごとにブロックマッチング
法等により画像間の動ベクトルが検出される。従って、
現画像と前画像、現画像と後画像との間でブロックマッ
チングが行われると動ベクトルが2つ求められることに
なる。
In the vector detection unit 215, the image memory 2
The current image (original image) stored in 01 and the image memory 21
1 between the previous image stored in 1 and the subsequent image stored in the image memory 212 (both locally decoded images), m *
A motion vector between images is detected for each block composed of n pixels by a block matching method or the like. Therefore,
When block matching is performed between the current image and the previous image and between the current image and the subsequent image, two motion vectors are obtained.

【0026】MC部213は、前記局部復号画像である
前画像、後画像、およびベクトル検出部215から検出
される動ベクトルの情報に基づき、前方向予測、後方向
予測、両方向予測による動き補償あるいはイントラブロ
ックが選ばれるところであり、従来から提案されている
SM3方式による動き補償部である。また、切り換えス
イッチ214は、MC部213から出力される現画像を
予測する予測画像情報あるいは現画像を選択するところ
である。
The MC unit 213 performs motion compensation by forward prediction, backward prediction, or bidirectional prediction based on the information of the previous image, the latter image, which is the locally decoded image, and the motion vector detected by the vector detection unit 215. The intra block is about to be selected, and is the motion compensation unit based on the SM3 method that has been proposed in the past. Further, the changeover switch 214 is a place for selecting the predicted image information for predicting the current image output from the MC unit 213 or the current image.

【0027】DCT部216では、画像メモリ201よ
り送られたm*n画素の画素値のブロック情報に対し、
2次元のDCT演算がなされる。前記演算部の出力は、
判定部217へ入力され、画像の平坦さが確認される。
すなわち、図4に示されるように、ブロック内でジグザ
グスキャンをした後、図5に示されるようなDCT係数
に関する分散σ2 m が、しきい値Th2 と比較され、 σ2 m >Th2 のとき、DCT係数が交流成分をもつため、非平坦な画
像であると判定される。従って、ノイズ除去のための以
降の処理が行われないようにフラグ信号Fg2=0が出力さ
れる。あるいは、 σ2 m ≦Th2 のとき、DCT係数が直流成分のみあるいは極く直流成
分に近い交流成分をもつため、平坦な画像であると判定
されFg2=1が出力される。
In the DCT section 216, for the block information of the pixel value of m * n pixels sent from the image memory 201,
A two-dimensional DCT operation is performed. The output of the calculation unit is
It is input to the determination unit 217, and the flatness of the image is confirmed.
That is, as shown in FIG. 4, after performing zigzag scanning within a block, the variance σ 2 regarding the DCT coefficient as shown in FIG. m is compared to a threshold Th2, σ 2 When m> Th2, the DCT coefficient has an AC component, so that the image is determined to be non-flat. Therefore, the flag signal Fg2 = 0 is output so that the subsequent processing for noise removal is not performed. Alternatively, σ 2 When m ≤ Th2, the DCT coefficient has only a direct current component or an alternating current component that is very close to a direct current component, so that the image is determined to be flat and Fg2 = 1 is output.

【0028】DCT部218では、判定部217から出
力されるフラグ信号がFg2=1のときのみ動作する。同条
件の場合、MC部213で作成された予測画像がDCT
部218へ入力され、2次元DCT演算され同係数が出
力される。さらに、判定部219において、判定部21
7からの現画像に関する2次元DCT係数のジグザグス
キャン後の分散σ2 m およびDCT部218からの予測
画像に関する2次元DCT係数のジグザグスキャン後の
分散σ2 k が出力され、 |σ2 m −σ2 k |<Th3
The DCT unit 218 operates only when the flag signal output from the determination unit 217 is Fg2 = 1. Under the same conditions, the predicted image created by the MC unit 213 is DCT.
The data is input to the unit 218, the two-dimensional DCT operation is performed, and the same coefficient is output. Further, in the determination unit 219, the determination unit 21
Variance σ 2 of the two-dimensional DCT coefficient for the current image from 7 after zigzag scanning m and the variance σ 2 of the two-dimensional DCT coefficient regarding the predicted image from the DCT unit 218 after the zigzag scan k is output, and | σ 2 m − σ 2 k | <Th3

【0029】が真のとき、予測画像の平坦部にノイズが
発生しないものと判定し、切り換えスイッチし214お
よび222をそれぞれS1側に接続し、MC部213か
らの予測画像が送られる。一方、同条件式が偽のとき、
ノイズが発生したものと判定し、前記切り換えスイッチ
をそれぞれS2側に接続し、画像メモリ201から原画
の情報が送られることになる。
When is true, it is determined that noise does not occur in the flat portion of the predicted image, the changeover switches 214 and 222 are connected to the S1 side, respectively, and the predicted image is sent from the MC unit 213. On the other hand, when the conditional expression is false,
It is determined that noise has occurred, the changeover switches are respectively connected to the S2 side, and the information of the original image is sent from the image memory 201.

【0030】図5からも明らかなように、低周波成分か
ら高周波成分まで有するMC画像の特性Aが、直流もし
くは低周波成分までを有する現画像の特性Bへ移行した
とき、ノイズが発生したと判定される。
As is clear from FIG. 5, when the characteristic A of the MC image having low frequency components to high frequency components shifts to the characteristic B of the current image having direct current or low frequency components, noise is generated. To be judged.

【0031】また、判定部217,219においては、
画素値の分散およびDCT係数のジグザグスキャン後の
分散について述べたものであるが、他の統計量について
も適用することができる。例えば、同一である固有なベ
クトルにおけるDCT係数の絶対差分和、差分二乗和に
よる比較、DCT係数の量子化値の非ゼロ係数の数によ
る比較、あるいはアクティビティ(画像ブロックの直流
成分を除く交流成分電力で画像の精細度を定義したも
の)による比較といった統計量により実施しても同様な
ノイズ発生防止の動作が可能である。
Further, in the judging units 217 and 219,
Although the variance of the pixel value and the variance of the DCT coefficient after the zigzag scan are described, other statistics can be applied. For example, the sum of absolute differences of DCT coefficients in the same unique vector, the comparison by the sum of squared differences, the comparison by the number of non-zero coefficients of the quantized values of DCT coefficients, or the activity (AC component power excluding DC component of image block). The same operation for preventing noise generation can be performed by using a statistical amount such as a comparison based on the definition of the image definition).

【0032】図6に示されるように、m*nサイズのブ
ロックの画素位置に、現画像のDCT値aij(図6
(a))およびMC画像のDCT値bij(図6(b))
が与えられている。ここで、差分絶対値和に着目するな
らば、 ΣΣ|aij−bij|≧Th4(0≦i≦m−1,0≦j≦n−1) が真のとき、ノイズ発生と判定され、イントラ符号化を
必ず行うような動作をする。
As shown in FIG. 6, the DCT value aij (FIG. 6) of the current image is displayed at the pixel position of the m * n size block.
(A)) and the DCT value bij of the MC image (Fig. 6 (b))
Is given. Here, focusing on the sum of absolute differences, when ΣΣ | aij-bij | ≧ Th4 (0 ≦ i ≦ m−1, 0 ≦ j ≦ n−1) is true, it is determined that noise has occurred, The operation is such that encoding is always performed.

【0033】なお、本実施例によると、図8(a)の高
周波成分の多い画像から、図8(b)のほぼ直流成分の
みの画像にシーンチェンジした場合、ブロックサイズ1
6*16で、Th2=5 、Th3=1 、Th4=80のとき、ノイズ発
生の防止が可能となり、良好な実験結果が得られたこと
を付け加えておく。あるいは、差分二乗和に着目するな
らば、 ΣΣ(aij−bij)2 ≧Th5(0≦i≦m−1,0≦j≦n−1) が真のとき、あるいは、アクティビティーに着目するな
らば、 ΣΣbij2 −ΣΣaij2 ≧Th6(0≦i≦m−1,0≦j≦n−1) が真のとき、ノイズ発生と判定され、イントラ符号化を
必ず行なうような動作をする。
According to the present embodiment, when the scene change from the image with many high frequency components in FIG. 8A to the image with almost DC components in FIG.
It should be added that when 6 * 16, Th2 = 5, Th3 = 1, and Th4 = 80, it was possible to prevent noise generation and good experimental results were obtained. Alternatively, if attention is paid to the sum of squared differences, ΣΣ (aij-bij) 2 When ≧ Th5 (0 ≦ i ≦ m−1, 0 ≦ j ≦ n−1) is true, or when attention is paid to the activity, ΣΣbij 2 −ΣΣaij 2 When ≧ Th6 (0 ≦ i ≦ m−1, 0 ≦ j ≦ n−1) is true, it is determined that noise has occurred, and the intra-encoding is performed without fail.

【0034】同様に、非ゼロ係数の数に着目する場合、
図7に示されるように、MC画像における特性Aの非ゼ
ロ係数の個数をC1、現画像における特性Bの非ゼロ係
数の個数をC2とすると、 C1−C2≧Th7 が真のとき、ノイズ発生と判定され、イントラ符号化を
必ず行なうような動作をする。
Similarly, when focusing on the number of non-zero coefficients,
As shown in FIG. 7, assuming that the number of non-zero coefficients of the characteristic A in the MC image is C1 and the number of non-zero coefficients of the characteristic B in the current image is C2, noise is generated when C1-C2 ≧ Th7 is true. Is determined, and the operation is performed such that intra coding is always performed.

【0035】以上、本発明によると、シーンチェンジ後
の画像の平坦部に現われるノイズを予測し、ノイズの発
生と判断される場合、イントラ符号化方式に切りかわる
ため、画質劣化を抑えることができる。本実施例の動作
説明においてフレーム画像について述べたが、フィール
ド画像についても全く同様なことが言える。
As described above, according to the present invention, the noise appearing in the flat portion of the image after the scene change is predicted, and when it is judged that the noise is generated, the intra coding system is switched to, so that the image quality deterioration can be suppressed. .. Although the frame image is described in the description of the operation of the present embodiment, the same can be said for the field image.

【0036】図3は本発明の第3の実施例を示す。動画
像(フレーム画像またはフィールド画像)は、いったん
画像メモリ301へ入力される。その後、減算部302
において原画像信号x から予測画像信号x'が減算され、
減算部302からは予測誤差信号εが出力される。同信
号は、DCT部303により離散コサイン変換され、量
子化部304によりDCT係数が、あるステップサイズ
に規定された状態で量子化される。このとき、ステップ
サイズは、可変長符号化部305およびバッファメモリ
部306からの情報により最適化されている。その後、
量子化されたDCT係数が可変長符号化部(VLC)3
05において、例えばハフマン符号化などにより符号語
が割り当てられ、同符号語がバッファメモリ306へ入
力され、伝送路での転送レートが一定になるように順次
出力される。
FIG. 3 shows a third embodiment of the present invention. The moving image (frame image or field image) is once input to the image memory 301. After that, the subtraction unit 302
At, the predicted image signal x'is subtracted from the original image signal x,
The subtraction unit 302 outputs the prediction error signal ε. The DCT unit 303 performs discrete cosine transform on the signal, and the quantizing unit 304 quantizes the DCT coefficient in a state in which the DCT coefficient is regulated to a certain step size. At this time, the step size is optimized by the information from the variable length coding unit 305 and the buffer memory unit 306. afterwards,
The quantized DCT coefficient is the variable length coding unit (VLC) 3
In 05, a code word is assigned by, for example, Huffman coding, the same code word is input to the buffer memory 306, and sequentially output so that the transfer rate on the transmission path becomes constant.

【0037】量子化304からの量子化されたDCT係
数の出力信号は、可変長符号化部305へ入力されるだ
けでなく、逆量子化部307へも入力される。その後、
逆DCT部308において、逆離散コサイン変換され予
測誤差信号ε´が出力されるる。さらに、加算器309
において、同符号ε´と予測誤差信号x'が加算され局部
復号信号が作成される。ここで、予測信号を得るために
必要とされる信号として局部復号信号があり、これから
符号化しようとしている入力画像における現在の画像
(以下、現画像と略記し、画像とは、フレーム画像又は
フィールド画像を示す。)に対し、過去の画像(以下、
前画像と略記)および未来の画像(以下、後画像と略
記)が考えられる。
The output signal of the quantized DCT coefficient from the quantization 304 is input not only to the variable length coding unit 305 but also to the dequantization unit 307. afterwards,
The inverse DCT unit 308 outputs the prediction error signal ε'which is subjected to the inverse discrete cosine transform. Furthermore, the adder 309
At, the same sign ε ′ and the prediction error signal x ′ are added to create a locally decoded signal. Here, there is a locally decoded signal as a signal required to obtain a prediction signal, and the current image in the input image to be encoded from now on (hereinafter abbreviated as current image, the image is a frame image or field). Image is shown.)
A front image and a future image (hereinafter abbreviated as a rear image) can be considered.

【0038】ベクトル検出部315では、画像メモリ3
01に蓄えられている現画像(原画)と画像メモリ31
1に蓄えられている前画像あるいは画像メモリ312に
蓄えられている後画像(共に局部復号画像)との間で、
m*n画素で構成されるブロックごとにブロックマッチ
ング法等により画像間の動ベクトルが検出される。従っ
て、現画像と前画像、現画像と後画像との間でブロック
マッチングが行われると動ベクトルが2つ求められるこ
とになる。
In the vector detection unit 315, the image memory 3
The current image (original image) stored in 01 and the image memory 31
Between the previous image stored in 1 or the subsequent image stored in the image memory 312 (both locally decoded images),
A motion vector between images is detected for each block composed of m * n pixels by a block matching method or the like. Therefore, if block matching is performed between the current image and the previous image and between the current image and the subsequent image, two motion vectors are obtained.

【0039】MC部313は、前記局部画像である前画
像、後画像、およびベクトル検出部315から検出され
る動ベクトルの情報に基づき、前方向予測、後方向予
測、両方向予測による動き補償あるいはイントラブロッ
クが選ばれるところであり、従来から提案されているS
M3式による動き補償部である。また、切り換えスイッ
チ314は、MC部313から出力される現画像を予測
する予測画像情報あるいは現画像を選択するところであ
る。
The MC unit 313, on the basis of the front image, the rear image, which is the local image, and the information of the motion vector detected by the vector detection unit 315, performs forward prediction, backward prediction, motion compensation by intra-directional prediction, or intra-prediction. The block is about to be selected, and the previously proposed S
This is a motion compensation unit based on the M3 formula. Further, the changeover switch 314 is a place for selecting predicted image information for predicting the current image output from the MC unit 313 or current image.

【0040】一方、分散算出部316では、画像メモリ
301からの現画像(原画)の情報を受けて、m*n画
素によるブロックごとに画素値の分散σ2 c を算出す
る。その後、分散σ2 c は、判定部317へ入力され、
しきい値Th1 と比較される。すなわち、 σ2 c >Th1 のとき、ブロックは非平坦な画像と判定され、フラグ信
号Fg1=0が出力される。あるいは、 σ2 c ≦Th1 のとき、ブロックは平坦な画像と判定され、フラグ信号
Fg1=1が出力される。ここで、Th1 は、ゼロまたは比較
的ゼロに近い値である。
On the other hand, the variance calculation unit 316 receives the information of the current image (original image) from the image memory 301, and the variance σ 2 of pixel values for each block of m * n pixels. Calculate c. Then the variance σ 2 c is input to the determination unit 317,
Compared with threshold Th1. That is, σ 2 When c> Th1, the block is determined to be a non-flat image, and the flag signal Fg1 = 0 is output. Alternatively, σ 2 When c ≦ Th1, the block is determined to be a flat image, and the flag signal Fg1 = 1 is output. Here, Th1 is zero or a value relatively close to zero.

【0041】DCT部318では、判定部317からの
フラグ信号Fg1の結果を受けて動作する。すなわち、F
g1=0のとき、ノイズ除去の必要な平坦な画像ではないた
め、以降で示されるDCT演算は行わない。また、同条
件のときは、DCT部318の動作のみならず、判定部
319,DCT部320、判定部321の動作も行われ
ない。
The DCT section 318 operates in response to the result of the flag signal Fg1 from the judging section 317. That is, F
When g1 = 0, the image is not a flat image that requires noise removal, and therefore the DCT calculation shown below is not performed. Further, under the same condition, not only the operation of the DCT unit 318 but also the operations of the determination unit 319, the DCT unit 320, and the determination unit 321 are not performed.

【0042】Fg1=1のとき、画素値の分散を算出した結
果、平坦画像である可能性があるため、直交変換により
確認する。すなわち、画像メモリ301よりm*n画素
の画素値のブロック情報が送られ、DCT部318で2
次元のDCT演算がなされる。前記演算部の出力は、判
定部319へ入力され、画像の平坦さが確認される。
When Fg1 = 1, the result of calculating the variance of pixel values may be a flat image, so confirmation is performed by orthogonal transformation. That is, the block information of the pixel value of m * n pixels is sent from the image memory 301, and the DCT unit 318 outputs the block information.
A dimensional DCT operation is performed. The output of the calculation unit is input to the determination unit 319 and the flatness of the image is confirmed.

【0043】すなわち、図4に示されるように、ブロッ
ク内でジグザグスキャンをした後、図5に示されるよう
なDCT係数に関する特性Bの分散σ2 m が、しきい値
Th2と比較され、 σ2 m >Th2
That is, as shown in FIG. 4, after performing zigzag scanning within a block, the variance σ 2 of the characteristic B relating to the DCT coefficient as shown in FIG. m is the threshold
Compared with Th2, σ 2 m > Th2

【0044】のとき、DCT係数が交流成分をもつた
め、非平坦な画像であると判定される。従って、ノイズ
除去のための以降の処理が行なわれないようにフラグ信
号Fg2=0が出力される。あるいは、 σ2 m ≦Th2 のとき、DCT係数が直流成分のみあるいは極く直流成
分に近い交流成分をもつため、平坦な画像であると判定
されFg2=1が出力される。
At this time, since the DCT coefficient has an AC component, it is determined that the image is non-flat. Therefore, the flag signal Fg2 = 0 is output so that the subsequent processing for noise removal is not performed. Alternatively, σ 2 When m ≤ Th2, the DCT coefficient has only a direct current component or an alternating current component that is very close to a direct current component, so that the image is determined to be flat and Fg2 = 1 is output.

【0045】DCT部320では、判定部319から出
力されるフラグ信号Fg2=1のときのみ動作する。同条件
の場合、MC部313で作成された予測画像がDCT部
320へ入力され、2次元DCT演算され同係数が出力
される。さらに、判定部321において、判定部319
からの現画像に関する2次元DCT係数のジグザグスキ
ャン後の分散σ2 m およびDCT部320からの予測画
像に関する2次元DCT係数のジグザグスキャン後の分
散σ2 k が出力され、 |σ2 m −σ2 k |<Th3
The DCT section 320 operates only when the flag signal Fg2 = 1 output from the determination section 319. In the case of the same condition, the predicted image created by the MC unit 313 is input to the DCT unit 320, a two-dimensional DCT operation is performed, and the same coefficient is output. Furthermore, in the determination unit 321, the determination unit 319
Variance σ 2 of the two-dimensional DCT coefficient after the zigzag scan for the current image from m and the variance σ 2 of the two-dimensional DCT coefficient for the predicted image from the DCT unit 320 after the zigzag scan k is output, and | σ 2 m − σ 2 k | <Th3

【0046】が真のとき、予測画像の平坦部にノイズが
発生しないものと判定し、切り換えスイッチ314およ
び322をそれぞれSI側に接続し、MC部313から
の予測画像が送られる。一方、同条件式が偽のとき、ノ
イズが発生したものと判定し、前記切り換えスイッチを
それぞれS2側に接続し、画像メモリ301から原画の
情報が送られることになる。
When is true, it is determined that noise does not occur in the flat portion of the predicted image, the changeover switches 314 and 322 are respectively connected to the SI side, and the predicted image from the MC unit 313 is sent. On the other hand, when the conditional expression is false, it is determined that noise has occurred, the changeover switches are respectively connected to the S2 side, and the information of the original image is sent from the image memory 301.

【0047】また、判定部317,319,321にお
いては、画素値の分散およびDCT係数のジグザグスキ
ャン後の分散について述べたものであるが、他の統計量
についても適用することができるという点は、第2実施
例においてすでに述べられたように明らかである。
In the decision units 317, 319 and 321, the variance of the pixel values and the variance of the DCT coefficients after the zigzag scan are described, but the point that they can also be applied to other statistics. , As already mentioned in the second embodiment.

【0048】以上の動作説明から明らかなように、本実
施例においては、現画像(原画)において、平坦部と思
われるm*n画素のブロックについてのみDCT演算を
行なうこと、および予測画像内のブロックについてDC
T演算を行う場合、同演算が前記原画に関する画像内の
平坦と思われるブロックに限定されるため、第2実施例
に比べ処理の効率化がなされている。
As is apparent from the above description of the operation, in the present embodiment, the DCT operation is performed only on the block of m * n pixels which is considered to be the flat portion in the current image (original image), and the DCT operation is performed in the predicted image. About block DC
When the T operation is performed, the operation is limited to the blocks that are considered to be flat in the image related to the original image, so that the processing efficiency is improved as compared with the second embodiment.

【0049】上記した本発明の実施例によると、シーン
チェンジ後の画像の平坦部に現われるノイズを予測し、
ノイズの発生と判断される場合、イントラ符号化方式に
切り換えるため、画質劣化を抑えることができる。ま
た、平坦部にノイズが発生しないため、符号量も抑える
効果がある点については言うまでもない。
According to the embodiment of the present invention described above, the noise appearing in the flat portion of the image after the scene change is predicted,
When it is determined that noise is generated, the intra-coding method is switched to, so that deterioration in image quality can be suppressed. Further, it is needless to say that noise is not generated in the flat portion, so that the code amount can be suppressed.

【0050】[0050]

【発明の効果】以上から明らかなように、本発明による
と、動画像におけるシーンチェンジ等において、シーン
チェンジ後の画像に発生すると人間が感知しやすい平坦
部のノイズを予測し同ノイズが発生しないようにイント
ラ符号方式で処理するため、画質劣化を抑えることがで
きる。また、平坦部の情報量を必要以上に多くしないこ
とから、符号量を低く抑えることができる。
As is apparent from the above, according to the present invention, when a scene change occurs in a moving image, noise of a flat portion which is easily perceived by humans when it occurs in the image after the scene change is predicted and the noise is not generated. Since the intra-coding method is used as described above, it is possible to suppress image quality deterioration. Moreover, since the amount of information in the flat portion is not increased more than necessary, the code amount can be suppressed low.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を示す回路構成図であ
る。
FIG. 1 is a circuit configuration diagram showing a first embodiment of the present invention.

【図2】本発明の第2の実施例を示す回路構成図であ
る。
FIG. 2 is a circuit configuration diagram showing a second embodiment of the present invention.

【図3】本発明の第3の実施例を示す回路構成図であ
る。
FIG. 3 is a circuit configuration diagram showing a third embodiment of the present invention.

【図4】ブロック内ジグザクスキャンのようすを示す図
である。
FIG. 4 is a diagram illustrating a zigzag scan within a block.

【図5】スキャンインデックス(SI)とDCT値との
関係を示す特性図である。
FIG. 5 is a characteristic diagram showing a relationship between a scan index (SI) and a DCT value.

【図6】現画像のDCT値aijおよびMC画像のDCT
値bijが与えられたm*nサイズのブロックの画素位置
を示す図である。
FIG. 6 is a DCT value aij of the current image and a DCT value of the MC image
It is a figure which shows the pixel position of the block of m * n size to which the value bij was given.

【図7】MC画像及び現画像の特性を比較して示す図で
ある。
FIG. 7 is a diagram showing characteristics of an MC image and a current image in comparison.

【図8】高周波成分の多い画像とほぼ直流成分のみの画
像を示す図である。
FIG. 8 is a diagram showing an image with many high-frequency components and an image with almost only DC components.

【図9】Iピクチャ、Pピクチャ、Bピクチャの3つの
種類に分類された動画像を示す図である。
[Fig. 9] Fig. 9 is a diagram showing moving images classified into three types of I pictures, P pictures, and B pictures.

【図10】原画像の絶対差分和と現画像の絶対差分和と
の関係を示す特性図である。
FIG. 10 is a characteristic diagram showing the relationship between the sum of absolute differences of the original image and the sum of absolute differences of the current image.

【図11】フレーム内画素値の分散とフレーム間差分2
乗和との関係を示す特性図である。
FIG. 11: Variance of pixel value in frame and difference between frames 2
It is a characteristic view which shows the relationship with a multiplication sum.

【図12】従来装置における高周波ノイズの発生を説明
するための図である。
FIG. 12 is a diagram for explaining generation of high frequency noise in a conventional device.

【符号の説明】[Explanation of symbols]

101…ブロック化手段、102…イントラ・インター
切り換え手段、103…直交変換手段、104…圧縮手
段、105…局部復号化手段、106…動き予測手段、
107…統計量算出手段、108…直交変換手段、10
9…統計量算出手段、110…判定手段。
101 ... Blocking means, 102 ... Intra / inter switching means, 103 ... Orthogonal transformation means, 104 ... Compression means, 105 ... Local decoding means, 106 ... Motion prediction means,
107 ... Statistical amount calculation means, 108 ... Orthogonal transformation means, 10
9 ... Statistics calculating means, 110 ... Judging means.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 フレームまたはフィールド画像内でブロ
ックごとに分割された動画像のうち、符号化すべき現画
像内の注目ブロックに対して、その画像内の相関のみを
用いて符号化を行うイントラ符号化手段と、 符号化済みの参照画像から予測されたブロック間の相関
を用いて注目ブロックの符号化を行うインター符号化手
段と、 前記注目ブロックの情報に基づく統計量と、動き予測さ
れたブロックの直交変換結果に基づく統計量とに基づい
て、前記イントラ符号化手段と前記インター符号化手段
のうちいずれかを選択して注目ブロックの符号化を行う
選択手段とを具備することを特徴とする動画像符号化装
置。
1. An intra code for encoding a block of interest in a current image to be encoded among moving images divided into blocks in a frame or field image using only the correlation in the image. Coding means, an inter coding means for coding a block of interest using the correlation between blocks predicted from a coded reference image, a statistic based on the information of the block of interest, and a motion-predicted block And a selecting means for selecting one of the intra-encoding means and the inter-encoding means on the basis of the statistic based on the result of the orthogonal transformation of (1) to encode the block of interest. Video coding device.
JP8711692A 1992-04-08 1992-04-08 Moving image encoding device Withdrawn JPH05292485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8711692A JPH05292485A (en) 1992-04-08 1992-04-08 Moving image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8711692A JPH05292485A (en) 1992-04-08 1992-04-08 Moving image encoding device

Publications (1)

Publication Number Publication Date
JPH05292485A true JPH05292485A (en) 1993-11-05

Family

ID=13905987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8711692A Withdrawn JPH05292485A (en) 1992-04-08 1992-04-08 Moving image encoding device

Country Status (1)

Country Link
JP (1) JPH05292485A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0622298A (en) * 1992-06-29 1994-01-28 Victor Co Of Japan Ltd Scene change detector

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0622298A (en) * 1992-06-29 1994-01-28 Victor Co Of Japan Ltd Scene change detector

Similar Documents

Publication Publication Date Title
EP1404136A1 (en) Image encoder, image decoder, image encoding method, and image decoding method
JP3063715B2 (en) Image compression device
JP2001045489A (en) Image prediction decoding method and system
KR20040106364A (en) System and method for providing single-layer video encoded bitstreams suitable for reduced-complexity decoding
JPH04245884A (en) Prediction encoding system for picture
EP0680217B1 (en) Video signal decoding apparatus capable of reducing blocking effects
US5432555A (en) Image signal encoding apparatus using adaptive 1D/2D DCT compression technique
WO2006074043A2 (en) Method and apparatus for providing motion estimation with weight prediction
WO2003056838A1 (en) Moving picture compression/coding apparatus and motion vector detection method
JPH07240926A (en) Inter-image predictive encoder
US5614953A (en) Image signal decoding apparatus having an encoding error compensation
JP3738511B2 (en) Video coding system
JP2702139B2 (en) Video predictive coding
JP2507199B2 (en) Image coding method and apparatus
US6266447B1 (en) Coding apparatus
JPH11513873A (en) Apparatus and method for selecting a coding mode in a block-based coding system
JPH05292485A (en) Moving image encoding device
JPH05137129A (en) Moving image encoding device
JPH0984024A (en) Coder for moving image signal
JP4359273B2 (en) Coding mode selection method
JP3157144B1 (en) Picture prediction decoding method
JP4100067B2 (en) Image information conversion method and image information conversion apparatus
JP3188081B2 (en) Image encoding method and image encoding device
JP4353928B2 (en) Data compression method, recording method, and transmission method
JP4359274B2 (en) Video compression encoding device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990608