JPS6212287A - Adaptive predictive encoding device for moving image signal - Google Patents

Adaptive predictive encoding device for moving image signal

Info

Publication number
JPS6212287A
JPS6212287A JP60152022A JP15202285A JPS6212287A JP S6212287 A JPS6212287 A JP S6212287A JP 60152022 A JP60152022 A JP 60152022A JP 15202285 A JP15202285 A JP 15202285A JP S6212287 A JPS6212287 A JP S6212287A
Authority
JP
Japan
Prior art keywords
background
signal
frame
predicted
interframe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60152022A
Other languages
Japanese (ja)
Inventor
Akihiro Furukawa
古川 章浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP60152022A priority Critical patent/JPS6212287A/en
Priority to CA000512489A priority patent/CA1282490C/en
Priority to US06/878,753 priority patent/US4689671A/en
Publication of JPS6212287A publication Critical patent/JPS6212287A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To eliminate a decrease in the efficiency of an interframe predictive encoding system by selecting predictive encoding which uses a background memory for an uncovered background and predictive encoding which uses interframe correlation for other case. CONSTITUTION:The uncovered background is area-separated from an input signal by an uncovered background separating circuit 30 and a selector 32 selects a predicted background value. The input signal is delayed through a delay circuit 36 by a time required for the area separation and outputted to a subtracter 31, which subtracts the predicted value to generate a predicted error signal, which is outputted to an output terminal 300 and an adder 35. The adder 35 adds a predicted error signal to a predicted signal to generate a local decoded signal and an interframe predicting circuit 33 generates and outputs the predicted signal which uses the interframe correlation to the selector 32. A background predicting circuit 34 generates a predicted signal for a background including the uncovered background and outputs it to the selector 32.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明はテレビジョン信号のデジタル圧縮伝送技術に係
わり、特に移動物体の背後から新たに表われるアンカバ
ードバックグラウンドに対しても、高い符号化能率を保
持する動画像信号の適応予測符号化技術に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Application Field) The present invention relates to digital compression transmission technology for television signals. The present invention relates to an adaptive predictive coding technique for video signals that maintains efficiency.

(従来の技t#) 従来テレビジョン信号等を高能率に圧縮し伝送するには
、動き補償を用いたフレーム間符号化方式などが用いら
れていた。これは、二宮等により[動き補正フレーム間
符号化方式](電子通信学会論文誌(B)、J63−B
、11.pp、1140−1147(昭5l−11))
として発表されてい゛るように、動画像信号には高いフ
レーム間相関があることを利用して効率良く帯域圧縮す
る技術である。
(Conventional Technique t#) Conventionally, in order to highly efficiently compress and transmit television signals, etc., an interframe coding method using motion compensation has been used. This is described by Ninomiya et al. [Motion Compensated Interframe Coding Method] (Transactions of the Institute of Electronics and Communication Engineers (B), J63-B
, 11. pp, 1140-1147 (Sho 5l-11))
As announced in 2007, this is a technology that efficiently compresses bandwidth by utilizing the fact that video signals have a high interframe correlation.

(発明が解決しようとする問題点) 動画像信号には、背景などの静止領域や動物体の作る動
領域の他に、動物体の背後から新たに表われるアンカバ
ードバックグラウンドがある。この領域においてはフレ
ーム間相関が全くないため、上述の動き補正符号化方式
のようなフレーム間相関を利用した予測符号化方式では
効率著しく低下するという欠点があった。
(Problems to be Solved by the Invention) A moving image signal includes, in addition to a static region such as a background and a moving region created by a moving object, an uncovered background that newly appears from behind the moving object. In this region, there is no interframe correlation at all, so a predictive coding method that uses interframe correlation, such as the above-mentioned motion compensation coding method, has the drawback of significantly lowering efficiency.

本発明は、アンカバードバックグラウンドにおけるフレ
ーム間予測符号化方式の効率低下を解消することを目的
とするものである。
An object of the present invention is to eliminate the decrease in efficiency of an interframe predictive coding method in an uncovered background.

(問題点を解決するための手段) 本発明によれば、テレビジョン信号等動画像信号にたい
して、動き補償予測を行ないその予測誤差を算出する手
段、該動き補償予測誤差を評価する第1の評価手段、同
じ(動画像信号に対してフレーム間予測を行ない予測誤
差を算出する手段、該フレーム間予測誤差を評価する第
2の評価手段、前記第1の評価結果及び前記第2の評価
結果を記憶する手段、該記憶された第1、第2の評価結
果を評価する第3の評価手段、フレーム間相関を用いる
予測符号化を行なう手段、背景メモリを用いる背景予測
符号化を行なう手段、前記第3の評価結果に従い、アン
カバードバックグラウンドに対しては背景メモリを用い
た予測符号化を選択する手段、とを有することを特徴と
する動画像信号の適応予測符号化装置が得られる。
(Means for Solving the Problems) According to the present invention, there is provided a means for performing motion compensation prediction on a moving image signal such as a television signal and calculating the prediction error, and a first evaluation for evaluating the motion compensation prediction error. means, the same (means for calculating a prediction error by performing interframe prediction on a video signal, a second evaluation means for evaluating the interframe prediction error, and a means for calculating the first evaluation result and the second evaluation result) means for storing, third evaluation means for evaluating the stored first and second evaluation results, means for performing predictive encoding using inter-frame correlation, means for performing background predictive encoding using background memory; According to the third evaluation result, an adaptive predictive coding device for a moving picture signal is obtained, which is characterized by having means for selecting predictive coding using a background memory for uncovered backgrounds.

(作用) 次に、本発明の動作の原理を説明する。以下の説明では
、テレビジョン信号をもって動画像信号を代表する。
(Operation) Next, the principle of operation of the present invention will be explained. In the following description, a television signal will be used to represent a moving image signal.

まず、本発明において重要なアンカバードバックグラウ
ンドを正確に領域分離する方法を説明する。
First, a method for accurately region-separating the uncovered background, which is important in the present invention, will be explained.

まず動き補償予測誤差値とフレーム差分値(フレーム間
予測誤差)を求める。動き補償予測誤差は、例えば、前
述の二宮らの文献にある動き補正予測符号化方式で算出
される予測誤差をそのまま用いることができる。即ち、
画面をある大きさのブロックに分割し、フレームメモリ
に記憶されている前フレーム信号の中から最も相関の高
いブロックを求め、対応するブロック間で同じ位置にあ
る画素の差分値を動き補償予測誤差値とする。
First, a motion compensation prediction error value and a frame difference value (interframe prediction error) are determined. As the motion-compensated prediction error, for example, the prediction error calculated by the motion-compensated predictive coding method described in the document by Ninomiya et al. mentioned above can be used as is. That is,
Divide the screen into blocks of a certain size, find the block with the highest correlation from the previous frame signal stored in the frame memory, and calculate the difference value of pixels at the same position between corresponding blocks as the motion compensation prediction error. value.

動き補償予測誤差値の求め方は特に説明の方式に限った
ものではなく、他の方式で求められたものでも構わない
。フレーム差分値は、現画素とフレームメモリ内の同じ
位置の画素との差分を求めることにより得られる。
The method of obtaining the motion compensated prediction error value is not limited to the method described above, and may be obtained using other methods. The frame difference value is obtained by calculating the difference between the current pixel and a pixel at the same position in the frame memory.

以下の説明では、動き補償予測誤差値、フレーム差分値
は既に求まっているとして進める。
In the following explanation, it is assumed that the motion compensation prediction error value and the frame difference value have already been determined.

第2図において、■、■、■は、連続する4枚のフレー
ムFl、 F2. F3. F4で、斜めの楕円形の動
物体が右に平行に移動してF3で停止したときの各フレ
ームでの位置を1枚の図上に重ね書きしたものである。
In FIG. 2, ■, ■, ■ are four consecutive frames Fl, F2. F3. The position in each frame when an oblique oval moving object moves in parallel to the right at F4 and stops at F3 is overwritten on a single diagram.

破線、一点鎖線、実線が、それぞれFl、 F2゜F3
での物体の位置■、■、■を表わしている。動物体は、
フレームFl、 F2. F3までは平行に移動してそ
れぞれ■、■、■の位置に来、F3で停止したため、F
4ではF3での位置と同じ■にある。次に第2図中の[
11〜[6]で示された部分が、各フレームで動領域、
静止領域のいずれであるかを分類する。[月はFl、 
F2. F3. F4を通じての背景、すなわち静止領
域であり、[2]はFl、F2間ではアンカバードバッ
クグラウンド、F2以降は背景、[3]はFl、 F2
間では動領域、F2. F3間ではアンカバードバック
グラウンド、F3以降は背景、[4](図中楕円が■と
■の同位置にあるときに重なる、部分)はPi、 F2
. F3. F4通じての動領域、[5](おなじく■
と■の同位置にあるときに重なる部分)はFl、 F2
間で動物体に覆われ(通常はこの場合も動領域と称する
)、F2. F3で動領域、F3以降は静止領域、[6
](位置■において先の[5]を除いた部分)はFl、
F2間では背景、F2. F3間で動物体に覆われた領
域、F3以降は静止領域となる。
The dashed line, dashed-dotted line, and solid line are Fl, F2°F3, respectively.
It represents the position of the object at ■, ■, ■. The animal body is
Frame Fl, F2. It moved parallel to F3 and came to the positions of ■, ■, and ■, respectively, and stopped at F3, so F
In 4, it is in the same position as in F3. Next, in Figure 2, [
The parts indicated by 11 to [6] are the moving areas in each frame,
Classify whether it is a stationary area. [Moon is Fl,
F2. F3. The background through F4 is the static area, [2] is Fl, the uncovered background between F2, the background after F2, [3] is Fl, F2
In between, there is a dynamic region, F2. Between F3 is the uncovered background, after F3 is the background, [4] (the part that overlaps when the ellipses are in the same position as ■ and ■) is Pi, F2
.. F3. Dynamic area through F4, [5] (same as ■
The part that overlaps when and ■ are in the same position) is Fl, F2
F2. F3 is the dynamic area, after F3 is the stationary area, [6
] (the part excluding the previous [5] at position ■) is Fl,
Between F2, background, F2. The area between F3 and F3 is covered with moving objects, and the area after F3 is a stationary area.

第2図の[11〜[6]近傍の画素に対して求められた
動き補償予測誤差値、フレーム差分値を適当な閾値Tと
大小比較し、F1〜F4間での誤差値、差分値の変化を
定性的に調べると、第3図のようになる。第3図でFO
はFlの前の画面である。
The motion compensation prediction error values and frame difference values obtained for pixels in the vicinity of [11 to [6] in Figure 2 are compared in magnitude with an appropriate threshold T, and the error values and difference values between F1 to F4 are calculated. If we examine the changes qualitatively, we can see the results shown in Figure 3. FO in Figure 3
is the screen before Fl.

第2図の動きの場合、第3図かられかるように、分離し
たいアンカバードバックグラウンド([2]および[3
]、第3図中太線でしめず)では、動き補償予測誤差が
小から大に遷移し、そののちにフレーム差分値が大から
小へ遷移する。物体が連続して動いている場合は、フレ
ーム差分値の時間遷移のみでも、他の領域([11,[
4]、[5]、[6] )区別可能であるが、物体が停
止した場合は、[4]、[5]、[6]の領域でもフレ
ーム差分値はアンカバードバックグラウンドのそれと同
様の、大から小への遷移を示し区別できな(なる。この
ような場合に対しても、動き補償予測誤差の時間遷移を
調べればよい。物体が静止した場合には[4]、[5]
、[6]では連続して小であり、実際のアンカバードバ
ックグラウンドにおける動き補償予測値が、前述のよう
にフレーム差分値が大から小に遷移する前に一旦小から
大になるのとは異なる挙動を示すので区別可能である。
In the case of the movement shown in Figure 2, as shown in Figure 3, the uncovered background ([2] and [3]
), the motion compensation prediction error changes from small to large, and then the frame difference value changes from large to small. If the object is moving continuously, even if it is only the time transition of the frame difference value, other regions ([11, [
4], [5], [6]), but if the object stops, the frame difference value will be similar to that of the uncovered background even in the regions [4], [5], [6]. , indicating a transition from large to small (indistinguishable). Even in such cases, it is sufficient to examine the time transition of the motion compensated prediction error. When the object is stationary, [4], [5]
, [6] are continuously small, and the motion compensated predicted value in the actual uncovered background becomes large once before the frame difference value transitions from large to small as described above. They can be distinguished because they exhibit different behavior.

次に第1図を用いてアンカバードバックグラウンドにお
ける本発明の作用について説明を加える。
Next, the operation of the present invention in the uncovered background will be explained using FIG.

第1図は、第2図と同じ物体の動きに対する輝度振幅値
とフレーム差分値を表わす図である。(A)は、第2図
破線の断面のF2における輝度振幅値を横軸を位置(X
座標)として書いたものであり、(B)は同F3におけ
る輝度振幅値である。(C)は、F3におけるフレーム
差分値即ち、(B)−(A)である。[2]は、前出の
第2図の領域[2]に相当し、(B)即ちF3において
新たに表われたアンカバードバックグラウンドである。
FIG. 1 is a diagram showing luminance amplitude values and frame difference values for the same object movement as in FIG. 2. (A) shows the luminance amplitude value at F2 of the cross section indicated by the broken line in Figure 2, with the horizontal axis being the position (X
(B) is the brightness amplitude value at F3. (C) is the frame difference value at F3, that is, (B) - (A). [2] corresponds to the area [2] in FIG. 2 mentioned above, and is the uncovered background newly appearing in (B), that is, F3.

この図かられかるように、アンカバードバックグラウン
ドは、フレーム間の相関は全くない領域であるため、フ
レーム間差分値をとることで、現フレームの画像信号(
(B)の[2]即ちアンカバードバックグラウンド)と
1フレーム以前の画像信号((A)の[2]、動領域)
との両方の情報を含むことになり効率的ではない。従っ
てアンカバードバックグラウンドに対しては、背景メモ
リを用いた背景予測を行なうことでこの領域での符号化
能率を向上させることができる。背景メモリの構成、そ
れを用いた予測の方法としては、例えば、黒田らにより
「動き補償・背景予測を用いたフレーム間符号化方式」
(電子通信学会論文誌、昭和60年1月、J68−B巻
、第1号、77ページ〜84ページ)として発表された
方式を用いることができる。
As can be seen from this figure, the uncovered background is an area where there is no correlation between frames, so by taking the interframe difference value, the image signal of the current frame (
(B) [2], uncovered background) and the image signal from one frame before ((A) [2], moving area)
This is not efficient as it includes both information. Therefore, for the uncovered background, by performing background prediction using the background memory, it is possible to improve the encoding efficiency in this area. As for the structure of the background memory and the prediction method using it, for example, "Interframe coding method using motion compensation/background prediction" by Kuroda et al.
(The Journal of the Institute of Electronics and Communication Engineers, January 1985, Volume J68-B, No. 1, Pages 77 to 84) can be used.

(実施例) 次に、本発明の詳細な説明する。(Example) Next, the present invention will be explained in detail.

第4図は、アンカバードバックグラウンド分離回路を説
明する図である。
FIG. 4 is a diagram illustrating the uncovered background separation circuit.

入力端100には、動画像信号が入力され、遅延回路1
3と16、フレームメモリ10と11、動ベクトル検出
器12へ供給される。遅延回路13.16は、フレーム
メモリ10と遅延回路14を介してフレーム間予測値と
、同フレームメモリ10と可変遅延回路15を介して動
き補償予測値とが算出されるのに必要な時間だけ入力信
号を遅延させ、線1317.1618を介して、おのお
の減算517.18へ供給する。フレームメモリ10は
、動画像信号をおよそ1フレ一ム分記憶できるものであ
る。遅延回路14は、フレームメモリ10とあわせて入
力信号が1フレ一ム時間遅延されるだけの遅延量をもち
、1フレーム遅延された入力信号が、線1417を介し
て減算器17へ出力される。減算器17は、線1317
から供給される入力信号と線1417から入力される1
フレ一ム遅延信号とでフレーム差分値を算出して比較器
19へ出力する。比較器19は、フレーム差分値と閾値
Tを比較し、例えばフレーム差分値の絶対値の方が大で
あれば符号1を、小であれば符号0をメモリ21へ出力
する。
A moving image signal is input to the input terminal 100, and the delay circuit 1
3 and 16, frame memories 10 and 11, and a motion vector detector 12. The delay circuits 13 and 16 operate only for the time necessary to calculate the interframe predicted value via the frame memory 10 and the delay circuit 14, and the motion compensated predicted value via the frame memory 10 and the variable delay circuit 15. The input signals are delayed and provided to each subtractor 517.18 via lines 1317.1618. The frame memory 10 is capable of storing approximately one frame of moving image signals. The delay circuit 14, together with the frame memory 10, has enough delay to delay the input signal by one frame, and the input signal delayed by one frame is output to the subtracter 17 via a line 1417. . The subtractor 17 is the line 1317
1 input from line 1417 and 1 input from line 1417.
A frame difference value is calculated using the frame delay signal and outputted to the comparator 19. The comparator 19 compares the frame difference value and the threshold T, and outputs a code 1 to the memory 21 if the absolute value of the frame difference value is larger, and a code 0 if it is smaller.

フレームメモリ11は、動ベクトルの検出用のメモリで
あり、入力信号を1フレ一ム分記憶する。動ベクトル検
出512は、前述の二宮らの文献にある動ベクトル検出
回路を用いることができる。即ち、線100から供給さ
れる入力信号と、線1112を介して供給されるおよそ
1フレーム前の信号とを用いて、ブロックマツチング法
で動ベクトル(最適予測方式)を算出し、これを線12
15を介して可変遅延回路15へ出力する。可変遅延回
路15は、最適予測方式に従って、線1015を介して
供給されるフレームメモリ出力を遅延し、動き補償予測
値として減算器18へ出力する。減算器18は、線16
18を介して供給される入力信号と、線1518を介し
て供給される動き補償予測値とを減算して、動き補償予
測誤差値を算出し、比較器20へ出力する。比較器20
は、動き補償予測誤差と閾値Tとで大小比較を行ない、
例えば動き補償予測誤差値の絶対値の方が大であれば符
号1を、小であれば符号0をメモリ22へ出力する。
The frame memory 11 is a memory for detecting motion vectors, and stores input signals for one frame. For the motion vector detection 512, the motion vector detection circuit described in the above-mentioned document by Ninomiya et al. can be used. That is, a motion vector (optimal prediction method) is calculated using the block matching method using an input signal supplied from the line 100 and a signal from approximately one frame before supplied via the line 1112, and this is calculated by the line 1112. 12
15 to the variable delay circuit 15. Variable delay circuit 15 delays the frame memory output supplied via line 1015 according to the optimal prediction scheme and outputs it to subtracter 18 as a motion compensated predicted value. The subtractor 18 is connected to the line 16
The motion compensated prediction error value is calculated by subtracting the input signal provided via line 18 and the motion compensated prediction value provided via line 1518 and output to comparator 20 . Comparator 20
compares the motion compensation prediction error and the threshold T,
For example, if the absolute value of the motion compensation prediction error value is larger, a code 1 is output to the memory 22, and if it is smaller, a code 0 is output to the memory 22.

メモリ21と22は、それぞれ、フレーム差分値と閾値
の比較結果、動き補償予測誤差値と閾値の比較結果、を
数フレーム分記憶できるものである。
The memories 21 and 22 are capable of storing several frames of the comparison results between the frame difference value and the threshold value, and the comparison result between the motion compensation prediction error value and the threshold value, respectively.

判定回路23は、メモリ21に記憶されたフレーム差分
値と閾値との大小比較結果、メモリ22に記憶された動
き補償予測誤差値と閾値との大小比較結果を読み出して
、予め定められた論理に従って、該当画素(あるいはブ
ロック)がアンカバードバックグラウンドにあるものか
どうか判定しアンカバードバックグラウンドであるとき
は符号1を、そうでないときは符号Oを出力端200へ
出力する。これは、各比較結果をアドレス入力とするリ
ードオンリメモリ(ROM)により容易に実現できる。
The determination circuit 23 reads out the comparison result between the frame difference value stored in the memory 21 and the threshold value, and the comparison result between the motion compensation prediction error value stored in the memory 22 and the threshold value, and reads out the comparison result between the frame difference value stored in the memory 21 and the threshold value, and reads out the result of the comparison result between the motion compensation prediction error value stored in the memory 22 and the threshold value, and reads out the result of the comparison between the frame difference value stored in the memory 21 and the threshold value, and reads out the comparison result between the motion compensation prediction error value stored in the memory 22 and the threshold value, and reads out the comparison result between the frame difference value stored in the memory 21 and the threshold value, and reads out the comparison result of the magnitude difference between the frame difference value stored in the memory 21 and the threshold value, and reads out the comparison result of the magnitude difference between the motion compensation prediction error value stored in the memory 22 and the threshold value. , it is determined whether the corresponding pixel (or block) is in the uncovered background, and if it is in the uncovered background, a code 1 is output to the output terminal 200, and if not, a code O is output to the output terminal 200. This can be easily realized using a read-only memory (ROM) that uses each comparison result as an address input.

第5図に判定論理の一例を示す。第5図の場合、アドレ
ス人力A3に現在の動き補償予測誤差の比較結果を、A
2に1画面、A1に2画面、AOに3画面時間以前の動
き補償予測誤差の比較結果を閾値より大であれば1で、
小であれば0で表わして入力している。フレーム差分値
の比較結果も同様に、A7からA4に現在から3画面時
間以前のフレーム差分値の比較結果を入力している。ア
ンカバードバックグラウンドは、フレーム差分値が大が
ち小に変わる1フレーム以前に、動き補償予測誤差が小
がら大に変化して現在は小である場合であるので、10
進表記したアドレスで116のときにアンカバードバッ
クグラウンドであるとして出力1となっている。
FIG. 5 shows an example of the determination logic. In the case of Fig. 5, the comparison result of the current motion compensation prediction error is input to address A3.
If the comparison result of the motion compensation prediction error before 1 screen time for 2, 2 screens for A1, and 3 screen times for AO is greater than the threshold, set it to 1.
If it is small, it is expressed as 0 and input. Similarly, the comparison results of frame difference values are inputted into A7 to A4 from the current time three screen times ago. Uncovered background is a case where the motion compensation prediction error changes from small to large and is currently small one frame before the frame difference value changes from large to small.
When the address is 116 in decimal notation, the output is 1 because it is an uncovered background.

第6図は、第4図のアンカバードバックグラウンド分離
回路を用いたフレーム間適応予測符号化装置の実施例で
ある。
FIG. 6 shows an embodiment of an interframe adaptive predictive coding device using the uncovered background separation circuit shown in FIG. 4.

入力端100から入力された入力動画像信号は、アンカ
バードバックグラウンド分離回路30と遅延回路36供
給される。アンカバードバックグラウンド分離回路30
は、入力信号からアンカバードバックグラウンドを領域
分離し、アンカバードバックグラウンドであるときは符
号1を、そうでないときは符号Oをセレクタ32へ出力
する。セレクタ32は、線200を介して符号1が入力
されるときは、線3432を介して供給される背景予測
値を選択し、符号0が供給されるときは、線3分離回路
30と遅延回路36供給される。アンカバードバックグ
ラウンド分離回路30は、入力信号からアンカバードバ
ックグラウンドを領域分離し、アンカバードバックグラ
ウンドであるときは符号1を、そうでないときは符号0
をセレクタ32へ出力する。セレクタ32は、線200
を介して符号1が入力されるときは、線3432を介し
て供給される背景予測値を選択し、符号Oが供給される
ときは、線3332を介して供給されるフレーム間相関
を用いた予測値を選択し、線3235を介して加算器3
5と減算器31へ出力する。遅延回路36は、アンカバ
ードバックグラウンド分離回路30において、アンカバ
ードバックグラウンドが領域分離されるのに必要な時間
だけ入力信号を遅延させ、これを減算器31へ出力する
。減算器31は、遅延された入力動画像信号から線32
35を介して供給される予測値を減じて予測誤差信号を
作り、線3130を介して出力端300と加算器35へ
出力する。加算器35は、予測誤差信号と線3235を
介して供給される予測信号を加算して局部復号信号を作
り、これを線3530を介してフレーム間予測回路33
と背景予測回路34へ出力する。フレーム間予測回路3
3は、フレーム間相関を用いた予測信号を発生するもの
であり、例えば前述の二宮の文献にある動き補正フレー
ム間予測回路を用いることができ、動き補正されたフレ
ーム間予測信号を線3332を介してセレクタ32へ出
力する。背景予測回路34は、アンカバードバックグラ
ウンドを含む背景に対する予測信号を作るものであり、
例えば前述の黒山らの文献にある背景予測回路を用いる
ことができ、背景予測信号を線3432を介してセレク
タ32へ出力する。
An input moving image signal input from the input terminal 100 is supplied to an uncovered background separation circuit 30 and a delay circuit 36. Uncovered background separation circuit 30
separates the uncovered background from the input signal, and outputs code 1 to the selector 32 if the background is uncovered, and outputs code O if not. Selector 32 selects the background predicted value supplied via line 3432 when code 1 is input via line 200, and selects the background predicted value supplied via line 3432 when code 0 is input. 36 supplied. The uncovered background separation circuit 30 separates the uncovered background from the input signal, and gives a code of 1 when the background is uncovered, and a code of 0 otherwise.
is output to the selector 32. The selector 32 is connected to the line 200
When code 1 is input via line 3432, select the background predicted value provided via line 3432, and when code O is provided, use the interframe correlation provided via line 3332. Select the predicted value and send it to adder 3 via line 3235.
5 and output to the subtracter 31. The delay circuit 36 delays the input signal by the time necessary for the uncovered background to be separated into regions in the uncovered background separation circuit 30 and outputs this to the subtracter 31 . The subtracter 31 extracts a line 32 from the delayed input video signal.
The predicted value provided via 35 is subtracted to produce a prediction error signal which is output via line 3130 to output 300 and adder 35. Adder 35 adds the prediction error signal and the prediction signal supplied via line 3235 to create a locally decoded signal, which is sent to interframe prediction circuit 33 via line 3530.
is output to the background prediction circuit 34. Interframe prediction circuit 3
3 generates a prediction signal using inter-frame correlation; for example, the motion-compensated inter-frame prediction circuit described in Ninomiya's literature mentioned above can be used, and the motion-compensated inter-frame prediction signal is generated by line 3332. The output signal is output to the selector 32 via the input signal. The background prediction circuit 34 generates a prediction signal for the background including the uncovered background.
For example, the background prediction circuit described in the aforementioned Kuroyama et al. paper can be used and outputs a background prediction signal to the selector 32 via line 3432.

(発明の効果) 以上本発明によれば、移動物体の背後より新たに現われ
るアンカバードバックグラウンドに対してより効率の高
いフレーム間適応予測符号化装置が実現され、本発明を
実用に供する意義は大である。
(Effects of the Invention) As described above, according to the present invention, an inter-frame adaptive predictive coding device with higher efficiency for the uncovered background that newly appears from behind a moving object is realized, and the significance of putting the present invention into practical use is It's large.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、物体が画面内を平行に移動したときの輝度振
幅値の変化とフレーム差分値を示す図、第2図は、物体
が画面内を平行に移動したのち停止する場合の位置を示
す図、第3図は、第2図の各領域の動き補償予測誤差値
とフレーム差分値のしきい値との大小比較結果を示す図
、第4図は、アンカバードバックグラウンド分離回路の
実施例を表わす図、第5図は第4図判定回路の論理を表
わす図、第6図は本発明を用いたフレーム間適応符号化
装置の実施例を表わす図、である。 1m中、10.11フレームメモリ、12は動ベクトル
検出器、13.14.16.36は遅延回路、15は可
変遅延回路、17.18.31は減算器、19.20は
比較器、21.22はメモリ、23は判定回路、30は
アンカバードバックグラウンド分離回路、32はセレク
タ、33はフレーム間予測回路、34は背景予測回路、
35は加算器、100は入力端、300は出力端、をそ
れぞれ表わす。 オ 1 図 オ 2 図
Figure 1 shows the change in luminance amplitude and frame difference values when an object moves parallel to the screen, and Figure 2 shows the position when the object moves parallel to the screen and then stops. Figure 3 is a diagram showing the results of a comparison between the motion compensation prediction error value of each region in Figure 2 and the threshold value of the frame difference value, and Figure 4 is a diagram showing the implementation of the uncovered background separation circuit. FIG. 5 is a diagram showing an example; FIG. 5 is a diagram showing the logic of the determination circuit shown in FIG. 4; and FIG. 6 is a diagram showing an embodiment of an interframe adaptive coding apparatus using the present invention. In 1m, 10.11 frame memory, 12 motion vector detector, 13.14.16.36 delay circuit, 15 variable delay circuit, 17.18.31 subtractor, 19.20 comparator, 21 .22 is a memory, 23 is a determination circuit, 30 is an uncovered background separation circuit, 32 is a selector, 33 is an interframe prediction circuit, 34 is a background prediction circuit,
35 represents an adder, 100 an input end, and 300 an output end. O 1 Figure O 2 Figure

Claims (1)

【特許請求の範囲】[Claims] テレビジョン信号等動画像信号にたいして、動き補償予
測を行ないその予測誤差を算出する手段、該動き補償予
測誤差を評価する第1の評価手段、同じく動画像信号に
対してフレーム間予測を行ないその予測誤差を算出する
手段、該フレーム間予測誤差を評価する第2の評価手段
、前記第1の評価結果及び前記第2の評価結果を記憶す
る手段、該記憶された第1、第2の評価結果を比較する
ことにより動物体の移動後に新たに現われた背景(アン
カバードバックグラウンド)を検出する第3の評価手段
、フレーム間相関を用いる予測符号化を行なう手段、背
景メモリを用いる背景予測符号化を行なう手段、前記第
3の評価結果に従い、アンカバードバックグラウンドに
対しては背景メモリを用いた予測符号化を選択し、それ
以外に対してはフレーム間相関を用いた予測符号化を選
択する手段、とを有することを特徴とする動画像信号の
適応予測符号化装置。
Means for performing motion compensation prediction on a moving image signal such as a television signal and calculating a prediction error thereof; first evaluation means for evaluating the motion compensation prediction error; means for calculating an error; second evaluation means for evaluating the inter-frame prediction error; means for storing the first evaluation result and the second evaluation result; and the stored first and second evaluation results. A third evaluation means for detecting a newly appearing background (uncovered background) after the movement of a moving object by comparing the images, means for predictive coding using inter-frame correlation, and background predictive coding using background memory. According to the third evaluation result, predictive coding using background memory is selected for the uncovered background, and predictive coding using interframe correlation is selected for other cases. An adaptive predictive encoding device for a moving picture signal, characterized in that it has means.
JP60152022A 1985-06-27 1985-07-09 Adaptive predictive encoding device for moving image signal Pending JPS6212287A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP60152022A JPS6212287A (en) 1985-07-09 1985-07-09 Adaptive predictive encoding device for moving image signal
CA000512489A CA1282490C (en) 1985-06-27 1986-06-26 Coding apparatus for moving object image
US06/878,753 US4689671A (en) 1985-06-27 1986-06-26 Coding apparatus for moving object image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60152022A JPS6212287A (en) 1985-07-09 1985-07-09 Adaptive predictive encoding device for moving image signal

Publications (1)

Publication Number Publication Date
JPS6212287A true JPS6212287A (en) 1987-01-21

Family

ID=15531347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60152022A Pending JPS6212287A (en) 1985-06-27 1985-07-09 Adaptive predictive encoding device for moving image signal

Country Status (1)

Country Link
JP (1) JPS6212287A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045494A (en) * 2000-01-01 2001-02-16 Mitsubishi Electric Corp Image encoding device
US6798834B1 (en) 1996-08-15 2004-09-28 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
JP2008092301A (en) * 2006-10-02 2008-04-17 Toshiba Corp Image encoding apparatus, image decoding apparatus and image decoding method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6798834B1 (en) 1996-08-15 2004-09-28 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
US8295350B2 (en) 1996-08-15 2012-10-23 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
JP2001045494A (en) * 2000-01-01 2001-02-16 Mitsubishi Electric Corp Image encoding device
JP2008092301A (en) * 2006-10-02 2008-04-17 Toshiba Corp Image encoding apparatus, image decoding apparatus and image decoding method
US8320691B2 (en) 2006-10-02 2012-11-27 Kabushiki Kaisha Toshiba Image coding apparatus, image decoding apparatus, and image decoding method

Similar Documents

Publication Publication Date Title
US5387947A (en) Motion vector detecting method of a video signal
JP2005318620A (en) Motion vector detection employing adaptive temporal prediction
JPS61114677A (en) Adaptability prediction coding decoding system and device for animation signal
JPH0373076A (en) Method and device for detecting change of image
JPH0918782A (en) Video signal processing method and device
JPS6075184A (en) System and apparatus for coding dynamic picture signal
JPH06351001A (en) Motion vector detecting method and movement compensation predicting method and device therefor
JPS6212287A (en) Adaptive predictive encoding device for moving image signal
JPH02217088A (en) Prediction coding circuit among movement compensation frames
JPH1084499A (en) Adaptive filter
JP3490142B2 (en) Moving image encoding method and apparatus
JPS58107785A (en) Encoder between movement compensation frames
JPH02119486A (en) Coding control method for moving picture signal and coding controller
JPH065954B2 (en) Interframe and intraframe adaptive predictive coding device for moving image signal
JP2923875B2 (en) Video encoding device
JPH06165164A (en) Dynamic picture processor
JPH047152B2 (en)
JPH1013836A (en) Motion vector detector
JPH08149481A (en) Device and method for encoding/decoding video signal
JP3549175B2 (en) Motion vector detection method and apparatus
JPS63292888A (en) Action part detecting signal processing circuit
JPH08205171A (en) Dynamic image encoding device
JPS63121374A (en) Motion compensation interframe coding system
JP3597271B2 (en) Video cut point image detection device
JPH0715654A (en) Still picture synthesis method