JPH02174388A - Picture encoder - Google Patents

Picture encoder

Info

Publication number
JPH02174388A
JPH02174388A JP63328662A JP32866288A JPH02174388A JP H02174388 A JPH02174388 A JP H02174388A JP 63328662 A JP63328662 A JP 63328662A JP 32866288 A JP32866288 A JP 32866288A JP H02174388 A JPH02174388 A JP H02174388A
Authority
JP
Japan
Prior art keywords
prediction
signal
code book
frame
discriminating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63328662A
Other languages
Japanese (ja)
Other versions
JPH0512914B2 (en
Inventor
Masamichi Koyama
小山 昌岐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GRAPHICS COMMUN TECHNOL KK
Original Assignee
GRAPHICS COMMUN TECHNOL KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GRAPHICS COMMUN TECHNOL KK filed Critical GRAPHICS COMMUN TECHNOL KK
Priority to JP63328662A priority Critical patent/JPH02174388A/en
Publication of JPH02174388A publication Critical patent/JPH02174388A/en
Publication of JPH0512914B2 publication Critical patent/JPH0512914B2/ja
Granted legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE:To prevent the generation of new information by switching the code books with use of the estimated type-based signals which are originally required for a picture coding operation applying an estimated error. CONSTITUTION:A counter 11 decides a fast scene or a scene change as long as the count value 61 exceeds the threshold value since the intre-frame correlation is high and the intre-frame correlation is low. A switch 26 receives a selection signal 64 showing the result of decision of the counter 11 via an OR gate 14 and selects a static picture code book 28 when the signal 64 shows the fast scene or the scene change. While the switch 26 selects a dynamic picture code book 27 when the signal 64 does not show the fast scene nor the scene change. Thus the generation of new information is prevented.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像符号化装置に関する。具体的には、フ7−
ス1〜・シーンやシーン・チェンジを判別して、これら
に伴う画像劣化を防ぐために、あらかじめ設計された最
適な専用のコード・ブックを用いて画像信号のベクトル
量子化を行うことにより、画質の向上を実現することが
できる画像符号化装置を提供せんとするものでおる。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image encoding device. Specifically, F7-
In order to distinguish between scenes and scene changes and prevent image deterioration associated with them, image quality is improved by vector quantizing the image signal using a pre-designed optimal dedicated code book. It is an object of the present invention to provide an image encoding device that can realize improvements.

[従来の技術] 従来よりディジタル画像の画質の向上を図る試みとして
、画像符号化の手法であるベクトル量子化において、量
子化する領域の分割の形状やそのビット配分を固定とし
ないで、画像の情況に応じて適応的に変化させることが
行われている(参考文献 ゛コサイン変換差分符号化に
おける有息勤領域検出方弐″渡辺敏明、杉山文夫、駄竹
建志。
[Prior Art] As an attempt to improve the image quality of digital images, in vector quantization, which is an image encoding method, the shape of the division of the quantized area and the bit allocation are not fixed, and the image is It is changed adaptively according to the situation (References: ``Method for detecting breathed regions in cosine transform differential encoding 2'' Toshiaki Watanabe, Fumio Sugiyama, Kenji Datake.

昭和63年電子情報通信学会総合全国大会、1116)
1986 IEICE General Conference, 1116)
.

また、分割された量子化領域を代表し最終的に出力され
るベクトルである代表ベクトルを集積し、コード・ブッ
クを、画像信号を単位化した1ブロツクごとに順次交信
して用いるという方法もあった(参考文献名“コードブ
ック自己生成を用いた適応ブロック・サイズ・ベクトル
量子化“泉岡たかあき、鈴木元、昭和63年電子情報通
信学会春季全国大会、D−122>。
Another method is to accumulate representative vectors, which represent the divided quantization regions and are the vectors that are finally output, and use the code book by sequentially communicating each block of the image signal. (Reference title: “Adaptive block size vector quantization using codebook self-generation,” Takaaki Izumioka, Hajime Suzuki, 1988 IEICE Spring National Conference, D-122).

ざらに、画面の変化に応じてフレーム内符号化とフレー
ム間符号化とを適応的に切換える従来の方式のなかには
、用いる量子化器に量子化ステップ幅の異なる2つの量
子化特性を持たせて、画面の大きいときに選択されるフ
レーム内符号化においては、量子化ステップ幅の小ざい
量子化特性の方を用いて量子化し、画面の変化が小さい
ときに選択されるフレーム間符号化においては、量子化
ステップ幅の大きい量子化特性の方を用いて量子化する
ことにより、画質の向上を図る方式もあった(特開昭6
3−232691号公報参照)。
Roughly speaking, some conventional methods that adaptively switch between intra-frame coding and inter-frame coding in response to changes in the screen involve giving the quantizer used two quantization characteristics with different quantization step widths. , in intraframe coding, which is selected when the screen is large, quantization is performed using a quantization characteristic with a smaller quantization step width, and in interframe coding, which is selected when the screen changes are small, quantization is performed using a quantization characteristic with a smaller quantization step width. There was also a method to improve image quality by quantizing using a quantization characteristic with a larger quantization step width (Japanese Patent Laid-Open No. 6
3-232691).

[発明が解決しようとする課題] しかしながら、これらの従来の方式では画像の状況に適
応して制御させるときに付加情報が発生するために、結
果的に情報最の減少があまり行われていないという問題
点が残されていた。また、ファースト・シーンやシーン
・チェンジにおける解像度変化についての格別の処理を
行っていないために、画質が大幅に劣化するという解決
されるべき課題があった。
[Problems to be Solved by the Invention] However, in these conventional methods, additional information is generated when controlling the image in a way that adapts it to the situation of the image, and as a result, the amount of information is not reduced very much. Problems remained. Furthermore, since no special processing is performed for resolution changes in the first scene or scene change, there is a problem that the image quality deteriorates significantly.

さらに、従来の画像符号化装置においては、ファースト
・シーンやシーン・チェンジでの画質劣化に対処するた
めに、あらかじめファースト・シーンやシーン・チェン
ジであるかどうかを判別する機能を具備した装置は実現
されていなかった。
Furthermore, in conventional image encoding devices, in order to deal with image quality deterioration at first scenes and scene changes, devices equipped with a function to determine whether it is a first scene or a scene change in advance have been realized. It had not been done.

[課題を解決するための手段] 本発明は、このような課題を解決するためになされたも
のであり、画像信号の予測値を1ワるために2種類の予
測方式を用い、1フレームを構成する各ブロックについ
て、予測誤差が最小となる選択された予測方式を示す信
号から、ファースト・シーンあるいはシーン・チェンジ
であるかどうかを的確に判断し、その判断結果に従って
動画像用コード・ブックと静止画像用コード・ブックと
を選択的に用いてベクトル量子化するという手段を講じ
た。
[Means for Solving the Problems] The present invention has been made to solve such problems, and uses two types of prediction methods to subtract the predicted value of the image signal by 1, and For each constituent block, it is accurately determined whether it is a first scene or a scene change based on the signal indicating the selected prediction method with the minimum prediction error, and a video code book is created according to the determination result. We took a method of vector quantization by selectively using a code book for still images.

[作用] このような手段を用いたことにより、ファースト・シー
ンやシーン・チェンジの有無を的確に判断し、これらを
示す信号から動画像用コード・ブックまたは静止画像用
コード・ブックを切換えて使用し、ベクトル量子化する
ことから、付加的な情報も発生することなく、ファース
ト、シーンやシーン・チェンジにおける画質の劣化が防
止できるようになった。
[Operation] By using such means, the presence or absence of a first scene or a scene change can be accurately determined, and the code book for moving images or the code book for still images can be switched and used based on the signals indicating these. However, since vector quantization is used, no additional information is generated, making it possible to prevent image quality deterioration during first scenes, scenes, and scene changes.

[実施例] 本発明の一実施例の回路構成を第1図に示し説明する。[Example] A circuit configuration of an embodiment of the present invention is shown in FIG. 1 and will be described.

第1図において、入力端子40より入力される画像信@
50は、多くのフレームからなり、1つのフレームは多
くのブロック、たとえば32×32=1024に分割さ
れ、各ブロックには所定数の画素、たとえば8X8=6
4の画素が含まれており、画像信号50はブロック単位
で処理される。
In FIG. 1, an image signal @
50 consists of many frames, one frame is divided into many blocks, e.g. 32x32=1024, each block has a predetermined number of pixels, e.g. 8x8=6
4 pixels are included, and the image signal 50 is processed in block units.

入力された画像信号50は動ベクトル検出器24に入力
されて、フレーム・メモリ32からの1フレーム前のF
fj像信号72より各ブロックごとの動ベクトルが求め
られ、)qられた動ベクトル信号54は予測器25およ
び勤ベクトル信号端子42に送出される。予測器25は
つぎの画像信号50の予測値55Aを得るために、2種
類の予測方式を用いており、本実施例ではフレーム内予
測とフレーム間予測が採られている。すなわち、フレー
ム・メモリ32からの1フレーム前の画像信@72より
、1フレームの各ブロックについて、フレーム内予測を
行うとともに、動ベクトル検出器24からの勤ベクトル
信@54より動き補償を用いたフレーム間予測を行う。
The input image signal 50 is input to the motion vector detector 24, and the input image signal 50 is inputted to the motion vector detector 24, and the F of the previous frame from the frame memory 32 is
A motion vector for each block is determined from the fj image signal 72, and the motion vector signal 54 determined by )q is sent to the predictor 25 and the motion vector signal terminal 42. The predictor 25 uses two types of prediction methods to obtain a predicted value 55A of the next image signal 50, and in this embodiment, intra-frame prediction and inter-frame prediction are used. That is, intra-frame prediction is performed for each block of one frame from the image signal @72 of the previous frame from the frame memory 32, and motion compensation is used from the image signal @54 from the motion vector detector 24. Perform interframe prediction.

このようにして1フレームの各ブロックについて2種類
の予測方式により行われた予測の結果、予測誤差が最小
となる予測方式による値を、そのブロックの予測値55
Aとして減算器21に出力する。同時に、予測器25は
、1フレームの各ブロックについての予測において選択
されたフレーム内予測を示す予測種別信号55Bを計数
器11およびコード・ブック切換信号発生器13に出力
し、受信側には選択された予測方式を示す予測種別信号
55Cを伝送する。ここで、計数器11は1フレームご
とにフレーム内予測が選択されたブロック数をカウント
し、コード・ブック切換信号発生器13は、1フレーム
に含まれる各ブロックごとに選択された予測方式を示す
判別信号を出力する。
In this way, as a result of prediction performed using two types of prediction methods for each block of one frame, the value obtained by the prediction method that has the minimum prediction error is calculated as the predicted value 55 of that block.
It is output as A to the subtracter 21. At the same time, the predictor 25 outputs a prediction type signal 55B indicating the intra-frame prediction selected in prediction for each block of one frame to the counter 11 and the code book switching signal generator 13, and the receiving side A prediction type signal 55C indicating the selected prediction method is transmitted. Here, the counter 11 counts the number of blocks for which intra-frame prediction is selected for each frame, and the code book switching signal generator 13 indicates the selected prediction method for each block included in one frame. Outputs a discrimination signal.

計数器11は得られたカウント値61が、設定されたし
きい値〈たとえば、全ブロック数の50%)を越えるも
のであるかどうかを判別器12により判別する。カウン
ト値61が、しきい値を越えるものであれば、フレーム
内相関が高くフレーム間相関が低いのであるから、ファ
ースト・シーンあるいはシーン・チェンジと判断し、し
きい値以下であれば、フレーム間相関が高いのであるか
ら、ファースト・シーンあるいはシーン◆チェンジでは
ないと判断する。その判断結果を示す選択信号64をO
Rゲート14を介して受けた切換器26は、選択信号6
4がファースト・シーンあるいはシーン・チェンジを示
すものであれば、静止画像用コード・ブック28を、そ
うでないならば、動画像用]−ド・ブック27を選択す
る。
The counter 11 determines by the discriminator 12 whether the obtained count value 61 exceeds a set threshold value (for example, 50% of the total number of blocks). If the count value 61 exceeds the threshold, the intra-frame correlation is high and the inter-frame correlation is low, so it is determined that it is a first scene or a scene change, and if it is below the threshold, it is determined that the inter-frame correlation is high. Since the correlation is high, it is determined that this is not a first scene or scene◆change. The selection signal 64 indicating the judgment result is
The switch 26 receives the selection signal 6 via the R gate 14.
If 4 indicates a first scene or a scene change, the code book 28 for still images is selected, and if not, the code book 27 for moving images is selected.

判別器12がファースト・シーンあるいはシーン・チェ
ンジではないと判断している場合においては、コード・
ブック切換信号発生器13は、そのブロックがフレーム
内予測が選択されたものでおれば、ORゲート14を介
して静止画像用コード・ブック28を選択する選択信号
64を切換器26に送出する。
If the discriminator 12 determines that it is not a first scene or a scene change, the code
If intra-frame prediction is selected for the block, the book switching signal generator 13 sends a selection signal 64 for selecting the still image code book 28 to the switch 26 via the OR gate 14.

他方、減算器21では、つぎのフレームの画像信850
と予測器25からの1フレームの各ブロックについての
予測値55Aとの差分で市る予測誤差51を求め、これ
を直交変換器22により直交変換して、量子化器23に
出力する。量子化器23は、判別器12からのORゲー
ト14を介した選択信@64に従って切換器26により
選択された動画像用コード・ブック27または静止画像
用コード・ブック28のいずれか一方を用いて、直交変
換器22により得られた直交変換係数52をベクトル量
子化して量子化出力信@53を得る。
On the other hand, the subtracter 21 receives the image signal 850 of the next frame.
A prediction error 51 is determined by the difference between the predicted value 55A for each block of one frame from the predictor 25, and the prediction error 51 is orthogonally transformed by the orthogonal transformer 22 and output to the quantizer 23. The quantizer 23 uses either the moving image code book 27 or the still image code book 28 selected by the switch 26 according to the selection signal @64 from the discriminator 12 via the OR gate 14. Then, the orthogonal transform coefficients 52 obtained by the orthogonal transformer 22 are vector quantized to obtain a quantized output signal @53.

ここで、動画像用コード・ブック27および静止画像用
コード・ブック28には、あらかじめ予測器25で用い
る予測方式(本実施例では、フレーム内予測とフレーム
間予測)に最適なものとして設計されたコード・ブック
が蓄積されている。コード・ブックの設計の方法として
は、多数のテスト画像から選んだベクトルか、おるいは
直交変換器22からの直交変換係数52の分布(たとえ
ば、ガウス分布)を仮定して乱数より発生させたベクト
ルを、トレーニング・シーケンスとしてり、B。
Here, the code book 27 for moving images and the code book 28 for still images are designed in advance to be optimal for the prediction method (intraframe prediction and interframe prediction in this embodiment) used by the predictor 25. code books have been accumulated. The code book can be designed using vectors selected from a large number of test images, or generated from random numbers assuming a distribution (for example, Gaussian distribution) of the orthogonal transform coefficients 52 from the orthogonal transformer 22. Let the vector be the training sequence.B.

G、アルゴリズム(参考文献“ベクトル量子化設計用ア
ルゴリズム(An Algorithm for Ve
ctor 0uantizer Design) ”ワ
イ・リント(Y、Linde ) 。
G. Algorithm (Reference: “An Algorithm for Vector Quantization Design”)
Y, Linde.

ニー争ブゾ(A、Buzo) 、アール・エム・グレイ
(f?、)f、Gray) 、アイ・イー・イー・イー
・トランザクション オン コミュニケーションズ(I
EEE丁ransaction  on  Commu
nications)  、 Vol、Com−28、
1,84〜95頁 1980年1月)を用いて設計する
Buzo (A, Buzo), R.M. Gray (f?,) f, Gray), IE Transaction on Communications (I
EEE transaction on Commu
nications), Vol, Com-28,
1, pp. 84-95, January 1980).

たとえば、静止画像用コード・ブック28については、
均一なグレー画像と人物画像との差分の直交変換係数5
2を正規化(平均O1分散1)し、そのベクトルをトレ
ーニング・シーケンスとじて設計する。動画像用コード
・ブック27については、ガウス分布の乱数系列をトレ
ーニング・シーケンスとして設計する。
For example, for still image code book 28,
Orthogonal transformation coefficient 5 for the difference between a uniform gray image and a person image
2 (average O1 variance 1) and design the vector as a training sequence. As for the moving image code book 27, a Gaussian distributed random number sequence is designed as a training sequence.

このようにして設計された動画像用コード・ブック27
または静止画像用コード・ブック28より、符号化しよ
うとするベクトルと最短距離の代表ベクトルを信子化器
23が選び出し、これに付された番号を団子化出力信号
53として出力する。
Video code book 27 designed in this way
Alternatively, from the still image code book 28, the signal converter 23 selects a representative vector having the shortest distance from the vector to be encoded, and outputs the number assigned thereto as the grouped output signal 53.

量子化出力信号53は、勤ベクトル検出器24からの勤
ベクトル信号54および予測器25からの予測種別信号
55Cとともに、量子化出力信号端子41を介して受信
側に伝送される。
The quantized output signal 53 is transmitted to the receiving side via the quantized output signal terminal 41 together with the differential vector signal 54 from the differential vector detector 24 and the prediction type signal 55C from the predictor 25.

また、ω子化出力信号53は、ω千生出力信号端子41
に19られ、逆量子化器29に入力されて、m子化器2
3が選択的に用いた動画像用]−ド・ブック27または
静止画像用コード・ブック28を用いて逆量子化された
後、逆直行変換器3Qにより逆直交変換される。その出
力と予測器25からの予測値55Aとを加算器31によ
り加痒して、現在の画像信号5Qを推定した値である加
算値をフレーム・メモリ32に記憶せしめる。
Further, the ω child output signal 53 is output from the ω Chishu output signal terminal 41.
19, is input to the inverse quantizer 29, and is input to the m child quantizer 2
After being inverse quantized using the code book 27 for moving pictures or the code book 28 for still pictures selectively used by Code 3, it is subjected to inverse orthogonal transformation by an inverse orthogonal transformer 3Q. The output and the predicted value 55A from the predictor 25 are combined by the adder 31, and the added value, which is the estimated value of the current image signal 5Q, is stored in the frame memory 32.

以上の動作は、入力される画像信号50の各フレームご
とに順次行われ、得られた量子化出力信号53を、動ベ
クトル信号54および予測種別信号55Gとともに、受
信側に伝送する。
The above operations are performed sequentially for each frame of the input image signal 50, and the obtained quantized output signal 53 is transmitted to the receiving side together with the motion vector signal 54 and the prediction type signal 55G.

第2A図および第2B図は、第1図に示した実施例の装
置全体の制御動作の流れを示すものである。
FIGS. 2A and 2B show the flow of control operations of the entire apparatus of the embodiment shown in FIG. 1.

第2A図において、入力端子40(第1図)より画像信
号50を入力しく3101)、入力された画像信号50
のブロックごとに勤ベクトル検出器24により勤ベクト
ルを求め(3102>、ifFられた勤ベクトル信号5
4は予測器25に送出される。予測器25はフレーム・
メモリ32からの1つ前のフレームの画像信号72より
、1フレームの各ブロックについて、フレーム内予測(
3103)と、動ベクトル信号54から動き補償を用い
たフレーム間予測を行い(S104)、予測誤差が最小
となる予測方式を選択しく3105)、その予測方式に
よる値をそのブロックの予測値55Aとして出力すると
ともに、選択されたフレーム内予測を示す予測種別信号
55Bを計数器11に出力し、受信側に予測方式を示す
予測種別信号55Cを伝送する。
In FIG. 2A, an image signal 50 is input from the input terminal 40 (FIG. 1) (3101), and the input image signal 50
The force vector is determined by the force vector detector 24 for each block (3102>, and the force vector signal 5 obtained by
4 is sent to the predictor 25. The predictor 25
From the image signal 72 of the previous frame from the memory 32, intra-frame prediction (
3103), performs inter-frame prediction using motion compensation from the motion vector signal 54 (S104), selects a prediction method with the minimum prediction error (3105), and uses the value obtained by the prediction method as the predicted value 55A of the block. At the same time, a prediction type signal 55B indicating the selected intra-frame prediction is output to the counter 11, and a prediction type signal 55C indicating the prediction method is transmitted to the receiving side.

予測器25により得られた予測値55Aは減算器21に
入力されて、1フレームの各ブロックについて、予測値
55Aと入力されたつぎのフレームの画像信号50との
差分である予測誤差が計算される(3106)。求めら
れた予測誤差51は直交変換器22により直交変換され
(S107)。
The predicted value 55A obtained by the predictor 25 is input to the subtracter 21, and a prediction error, which is the difference between the predicted value 55A and the input image signal 50 of the next frame, is calculated for each block of one frame. (3106). The obtained prediction error 51 is orthogonally transformed by the orthogonal transformer 22 (S107).

計数器11はフレーム内予測が選択されたブロック数を
カウントしく810B>、そのカウント値61が設定さ
れた、しきい値を越えるもので必るかどうかを判別器]
2により判別する。しきい値を越えるものであれば、フ
ァースト・シーンあるいはシーン・チェンジを示す判別
信号を出力する(3109)。しきい値以下の場合にお
いては、フレーム内予測が選択されたブロックについて
はコード・ブック切換信号発生器13よりこれを示す判
別信号が出力されて(S110)、ORゲート14によ
り判別器12からの判別信号とのオフがとられる(51
11、第2B図)。その出力である判別信号64に従っ
て切換器26が切換られて(5112)、!千生器23
は各ブロックごとにベクトル量子化する(5113)。
The counter 11 counts the number of blocks for which intra-frame prediction is selected 810B>, and the discriminator determines whether the count value 61 necessarily exceeds a set threshold value.
Determine based on 2. If it exceeds the threshold, a discrimination signal indicating a first scene or a scene change is output (3109). If it is below the threshold, the code book switching signal generator 13 outputs a discrimination signal indicating this for the block for which intra-frame prediction has been selected (S110), and the OR gate 14 outputs a discrimination signal indicating this from the discriminator 12. The discrimination signal is turned off (51
11, Figure 2B). The switch 26 is switched according to the discrimination signal 64 that is the output (5112), and! Senseiki 23
vector quantizes each block (5113).

そこで、1フレームの全ブロックについてのベクトル量
子化が完了しているか否かが問われ(3114)、完了
していなければ(3114N)、ステップ5111から
の作業を繰り返す。完了していれば(S114Y)、量
子化出力信@53を動ベクトル信号54および予測種別
信@55Cとともに受信側に伝送する(S115>、同
時に、量子化出力信号53を逆量子化器29により逆量
子化しく3116)、逆直交変換器30により逆直交変
換してから(S117)、その出力と予測器25からの
予測値55Aとを加算器31により加算し、その加算値
をフレーム・メモリ32に記憶せしめて、ステップ51
01からの作業を繰り返す。
Therefore, it is asked whether vector quantization has been completed for all blocks of one frame (3114), and if it has not been completed (3114N), the operations from step 5111 are repeated. If completed (S114Y), the quantization output signal @53 is transmitted to the receiving side together with the motion vector signal 54 and the prediction type signal @55C (S115>, and at the same time, the quantization output signal 53 is transmitted by the inverse quantizer 29. The inverse orthogonal transformer 30 performs inverse orthogonal transform (S117), and the adder 31 adds the output and the predicted value 55A from the predictor 25, and the added value is stored in the frame memory. 32, step 51
Repeat the work from 01.

以上においては、予測器25により予測値55Aを得る
2種類の予測方式として、フレーム内子側とフレーム間
予測とを例として説明したが伯の種類の予測方式を用い
ても同じ機能を実現することができる。その場合は、そ
れぞれの予測方式に最適なものとして設計されたvJ@
像用コード・ブックおよび静止画像用コード・ブックを
用いる。
In the above, intra-frame side prediction and inter-frame prediction have been explained as examples of two types of prediction methods for obtaining the predicted value 55A by the predictor 25, but the same function can be achieved by using the Haku type prediction method. Can be done. In that case, vJ@ designed as the best one for each prediction method
A code book for images and a code book for still images are used.

なお、第1図における直交変換器22および逆直交変換
器30を省略しても、本発明の目的を達成することは可
能である。
Note that the object of the present invention can be achieved even if the orthogonal transformer 22 and the inverse orthogonal transformer 30 in FIG. 1 are omitted.

また、計数器11によるフレーム内予測が選択されたブ
ロック数のカウントおよびコード・ブック切換信号発生
器13によるブロックごとの判別は、1フレームに含ま
れる全ブロックについてではなく、あらかじめ設定され
た特定の範囲、たとえば画面の中央部を構成するブロッ
クについてのみ行うこととしてもよい。
Furthermore, the counting of the number of blocks for which intra-frame prediction has been selected by the counter 11 and the determination of each block by the code book switching signal generator 13 are performed not for all blocks included in one frame, but for a specific preset block. The process may be performed only for a range, for example, blocks forming the center of the screen.

[発明の効果] 以上の説明から明らかなように、本発明によるならば、
ファースト・シーンやシーン・チェンジがあった場合の
画像の状況の変化を効率よく的確に判断し、その変化に
対処するために最適に設計された専用のコード・ブック
を用いて画像信号のベクトル量子化を行うので、ファー
スト・シーンやシーン・チェンジにおける画質の劣化を
防止することができる。しかも、予測誤差を用いた画像
符号化に本来的に必要な予測種別信号を利用してコード
・ブックの切換え制御を行っているために、新たな情報
が発生することもない。したがって、本発明による効果
は極めて大きい。
[Effect of the invention] As is clear from the above explanation, according to the present invention,
Vector quantization of image signals using a dedicated code book that is optimally designed to efficiently and accurately judge changes in the image situation when there is a first scene or a scene change, and to deal with such changes. , it is possible to prevent deterioration of image quality in the first scene or scene change. Moreover, since the code book switching control is performed using the prediction type signal originally required for image encoding using prediction errors, no new information is generated. Therefore, the effects of the present invention are extremely large.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の回路構成図、第2A図およ
び第2B図は第1図に示した回路の動作の流れを示すた
めのフローチャートである。 11・・・計数器     12・・・判別器21・・
・減算器     22・・・直交変換器23・・・量
子化器    24・・・動ベクトル検出器25・・・
予測器     26・・・切換器27・・・動画像用
コード・ブック 28・・・静止画像用コード・ブック 29・・・逆量子化器   30・・・逆直交変換器3
1・・・加算器 40・・・入力端子 41・・・量子化出力信号端子 42・・・動ベクトル信号端子 43・・・予測種別信号端子 50・・・画像信号    51・・・予測誤差52・
・・直交変換係数  53・・・量子化出力信号54・
・・動ベクトル信号 55A・・・予測値558.55
C・・・予測種別信号 61・・・カウント値   64・・・選択信号72・
・・画像信号。 32・・・フレーム・メモリ
FIG. 1 is a circuit configuration diagram of an embodiment of the present invention, and FIGS. 2A and 2B are flowcharts showing the flow of operation of the circuit shown in FIG. 1. 11...Counter 12...Discriminator 21...
- Subtractor 22... Orthogonal transformer 23... Quantizer 24... Motion vector detector 25...
Predictor 26...Switcher 27...Moving image code book 28...Still image code book 29...Inverse quantizer 30...Inverse orthogonal transformer 3
1... Adder 40... Input terminal 41... Quantization output signal terminal 42... Motion vector signal terminal 43... Prediction type signal terminal 50... Image signal 51... Prediction error 52・
・Orthogonal transform coefficient 53 ・Quantized output signal 54 ・
...Motion vector signal 55A...Predicted value 558.55
C... Prediction type signal 61... Count value 64... Selection signal 72...
...Image signal. 32...Frame memory

Claims (1)

【特許請求の範囲】 多くのフレームを含む画像信号と1つ前のフレームの画
像出力を入力されて、各フレームを複数のブロックに区
分して、各ブロッックの動ベクトルを得るための動ベク
トル検出手段(24)と、前記動ベクトル検出手段から
の出力と1つ前のフレームの画像出力を受けて、フレー
ム内予測方法とフレーム間予測方法を用いて前記入力さ
れた画像信号の現時点のフレームの予測値を得るための
予測手段(25)と、 前記予測手段において各ブロックごとに選択された予測
方法を示す予測種別信号を受けて、その予測種別信号の
数を計数する計数手段(11)と、前記計数手段の計数
値が所定値に達したか否かを判別し、前記フレーム内予
測方法および前記フレーム間予測方法にそれぞれ最適に
構成されたコード・ブックより、前記選択された予測方
法に最適のコード・ブックを判別するための判別信号を
発生する判別手段(12)と、 前記判別手段からの判別信号を受けて、各ブロックごと
の前記最適のコード・ブックを判別するための判別信号
を発生するコード・ブック切換信号発生手段(13)と
、 前記判別手段からの出力と前記コード・ブック切換信号
発生手段からの出力とのオアをとるためのオア・ゲート
手段(14)と、 前記オア・ゲート手段からの判別信号を受けて前記選択
された予測方法に最適のコード・ブックに切換える切換
手段(26)と、 前記切換え手段により切換えて用いられる前記フレーム
内予測方法と前記フレーム間予測方法にそれぞれ最適の
コード・ブックを格納しているコード・ブック手段(2
7、28)と、 前記予測手段により得られた予測値と前記入力された画
像信号との予測誤差を得るための減算手段(21)と、 前記減算手段により得られた予測誤差を前記判別信号に
従つて選択された前記コード・ブックを用いて量子化す
るための量子化手段(23)と、前記量子化手段からの
出力を逆量子化するための逆量子化手段(29)と、 前記逆量子化手段からの出力と前記予測手段により得ら
れた予測値とを加算するための加算手段(31)と、 前記加算手段により得られた加算値を記憶して前記動ベ
クトル検出手段および前記予測手段へ前記1つ前のフレ
ームの画像出力を送出するためのフレーム・メモリ手段
(32)と を含む画像符号化装置。
[Claims] Motion vector detection for obtaining a motion vector of each block by inputting an image signal including many frames and the image output of the previous frame, and dividing each frame into a plurality of blocks. means (24) receives the output from the motion vector detection means and the image output of the previous frame, and calculates the current frame of the input image signal using an intra-frame prediction method and an inter-frame prediction method. a prediction means (25) for obtaining a predicted value; a counting means (11) for receiving a prediction type signal indicating a prediction method selected for each block in the prediction means and counting the number of prediction type signals; , determine whether or not the count value of the counting means has reached a predetermined value, and apply the selected prediction method to the selected prediction method from code books optimally configured for the intra-frame prediction method and the inter-frame prediction method, respectively. a discriminating means (12) for generating a discriminating signal for discriminating the optimum code book; and a discriminating signal for discriminating the optimum code book for each block in response to the discriminating signal from the discriminating means. a code book switching signal generating means (13) for generating a code book switching signal; an OR gate means (14) for ORing the output from the discriminating means and the output from the code book switching signal generating means; switching means (26) for receiving a discrimination signal from the OR gate means and switching to a code book most suitable for the selected prediction method; and the intra-frame prediction method and the inter-frame prediction that are switched and used by the switching means. Code book means (2) storing the optimal code book for each method
7, 28); subtraction means (21) for obtaining a prediction error between the predicted value obtained by the prediction means and the input image signal; quantization means (23) for quantizing using the code book selected according to the above; and dequantization means (29) for dequantizing the output from the quantization means; an addition means (31) for adding the output from the dequantization means and the predicted value obtained by the prediction means; An image encoding device comprising frame memory means (32) for sending the image output of the previous frame to the prediction means.
JP63328662A 1988-12-26 1988-12-26 Picture encoder Granted JPH02174388A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63328662A JPH02174388A (en) 1988-12-26 1988-12-26 Picture encoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63328662A JPH02174388A (en) 1988-12-26 1988-12-26 Picture encoder

Publications (2)

Publication Number Publication Date
JPH02174388A true JPH02174388A (en) 1990-07-05
JPH0512914B2 JPH0512914B2 (en) 1993-02-19

Family

ID=18212767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63328662A Granted JPH02174388A (en) 1988-12-26 1988-12-26 Picture encoder

Country Status (1)

Country Link
JP (1) JPH02174388A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815217A (en) * 1992-03-06 1998-09-29 Mitsubishi Denki Kabushiki Kaisha Scene-change detector for a moving image composed of a plurality of frames
WO2001050339A3 (en) * 1999-12-30 2002-08-15 Koninkl Philips Electronics Nv Method and apparatus for detecting fast motion scenes
JP2006191642A (en) * 2005-01-06 2006-07-20 Qualcomm Inc Residual coding in compliance with video standard using non-standardized vector quantization coder
US7336708B2 (en) 1992-01-29 2008-02-26 Mitsubishi Denki Kabushiki Kaisha High-efficiency encoder and video information recording/reproducing apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7336708B2 (en) 1992-01-29 2008-02-26 Mitsubishi Denki Kabushiki Kaisha High-efficiency encoder and video information recording/reproducing apparatus
US7362805B2 (en) 1992-01-29 2008-04-22 Mitsubishi Denki Kabushiki Kaisha High efficiency encoder and video information recording/reproducing apparatus
US7376184B2 (en) 1992-01-29 2008-05-20 Mitsubishi Denki Kabushiki Kaisha High-efficiency encoder and video information recording/reproducing apparatus
US7688892B2 (en) 1992-01-29 2010-03-30 Mitsubishi Denki Kabushiki Kaisha High efficiency encoder and video information recording/reproducing apparatus
US7756202B2 (en) 1992-01-29 2010-07-13 Mitsubishi Denki Kabushiki Kaisha High-efficiency encoder and video information recording/reproducing apparatus
US7936817B2 (en) 1992-01-29 2011-05-03 Mitsubishi Denki Kabushiki Kaisha High-efficiency encoder and video information recording/reproducing apparatus
US5815217A (en) * 1992-03-06 1998-09-29 Mitsubishi Denki Kabushiki Kaisha Scene-change detector for a moving image composed of a plurality of frames
WO2001050339A3 (en) * 1999-12-30 2002-08-15 Koninkl Philips Electronics Nv Method and apparatus for detecting fast motion scenes
JP2006191642A (en) * 2005-01-06 2006-07-20 Qualcomm Inc Residual coding in compliance with video standard using non-standardized vector quantization coder

Also Published As

Publication number Publication date
JPH0512914B2 (en) 1993-02-19

Similar Documents

Publication Publication Date Title
JP4339680B2 (en) Video compression frame interpolation
US9258567B2 (en) Method and system for using motion prediction to equalize video quality across intra-coded frames
KR100317412B1 (en) Video Signal Compressor Using Noise Reduction
EP1944974A1 (en) Position dependent post-filter hints
JPH04196976A (en) Image encoding device
JPH0714209B2 (en) Video coding device
JPH05137130A (en) Encoder and decoder for moving image
GB2262858A (en) Television intra/inter-frame encoding apparatus
JPH07112284B2 (en) Predictive encoding device and decoding device
US6697430B1 (en) MPEG encoder
JP2892783B2 (en) Video signal encoding device
KR0166727B1 (en) The encoding method and apparatus for quantization control with the information of image motion
WO2003056838A1 (en) Moving picture compression/coding apparatus and motion vector detection method
JPH02174388A (en) Picture encoder
KR20050085730A (en) Elastic storage
JPH01228384A (en) Moving image coding system using area division
JPH02174387A (en) Picture encoder
Yan Noise reduction for MPEG type of codec
JPH04176290A (en) Picture encoder
JPH0984024A (en) Coder for moving image signal
JP2897082B2 (en) Motion compensation variable length coding
EP1553781A2 (en) Method and apparatus for processing digital motion pictures by predicting motion compensation error using previous block.
JP3223043B2 (en) Video encoding device
JPH10210480A (en) Dynamic image coding system
JPH05236462A (en) Image data processor