JPS6295084A - Highly efficient encoding device for television signal - Google Patents

Highly efficient encoding device for television signal

Info

Publication number
JPS6295084A
JPS6295084A JP60236161A JP23616185A JPS6295084A JP S6295084 A JPS6295084 A JP S6295084A JP 60236161 A JP60236161 A JP 60236161A JP 23616185 A JP23616185 A JP 23616185A JP S6295084 A JPS6295084 A JP S6295084A
Authority
JP
Japan
Prior art keywords
data
field
fields
supplied
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60236161A
Other languages
Japanese (ja)
Other versions
JPH0746865B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP60236161A priority Critical patent/JPH0746865B2/en
Publication of JPS6295084A publication Critical patent/JPS6295084A/en
Publication of JPH0746865B2 publication Critical patent/JPH0746865B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

PURPOSE:To stably identify a parameter by using a data by obtained by superimposing a random noise on the picture element data of a past field as a reference data. CONSTITUTION:To a parametr identification part 1, the picture data of a present field (k) is inputted and the reference data of the past three fields are supplied from respective adding circuits 6, 7, 8. To the adding circuits 6, 7, 8, white noises from a white noise generating circuit 9 are commonly supplied, and to the adding circuit 6, the picture data of a preceding field (k-1) is supplied. To the adding circuit 7, the picture data of a further preceding field (k-2) is supplied. To the adding circuit 8, the picture data of still further preceding field (k-3) is supplied. The picture data of these part fields are the prediction data and by using the picture data obtained by superimposing the white noise on this prediction data and the data of the present field, the parameter identification pat 1 identifies 35 parameters having 8 bits at every parameter w1-W35, for instance, at every one field by a least square method.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、テレビジョン信号の高能率符号化装置に関
する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a high-efficiency encoding device for television signals.

〔発明のIl’r建:・ この発明已よ、ディジタルテレビジョン信壮の1画素の
ビア1−散を少な(する高能率符は化方法において、過
去の数フィールドの画素データから現在のフィールドの
画素データを予測符号化する時に、F /!lll誤差
が最も小となるパラメータを同定するもので、この同定
のために参照する過去の故フィールドのデータにランダ
ム雑音を重畳することにより、パラメータを安定に求め
ることができるようにしたものである。
[Il'r Construction of the Invention:- This invention is based on a high-efficiency coding method that reduces the number of vias per pixel in digital television, and converts pixel data from several past fields into the current field. When predictively encoding pixel data of This makes it possible to stably obtain .

(従来の技術〕 1画素当たりのビン1数を低、Iヤする高能窒符号化と
して3次元的な即ち時空間な処理を行うフレーム間符号
化方式が知られている。フレーム間符号化方式としては
、動き検出によるものと、動き補正によるものとがある
。前者は、フレーム差の有無で動き検出を行い、フレー
ム差の無い所(即ち、動きの無い所)だ+fを前フレー
ムのデータで置き喚えるものである。
(Prior Art) An interframe encoding method that performs three-dimensional, ie, spatiotemporal processing is known as a high-performance encoding method that reduces the number of bins per pixel.Interframe encoding method There are two methods: one based on motion detection and the other based on motion compensation.The former detects motion based on whether or not there is a frame difference, and uses +f as the data of the previous frame where there is no frame difference (that is, where there is no movement). It is something that can be called out.

後者”の方式は、ブロックマツチング法等により現在と
前フレーム間の位置関係情報(動き補正量)を求め、こ
の動き補正量に基づいて前フレーム画像を操作してフレ
ーム間の対応を取るものである。ブロックマツチング法
は、画面を複数のブロックに分割し、各ブロック毎に動
きの量及びその方向を求め、この動きの量及びその方向
を伝送するものである。
The latter method uses a block matching method to obtain positional relationship information (motion correction amount) between the current and previous frames, and then manipulates the previous frame image based on this motion correction amount to create correspondence between frames. The block matching method divides the screen into a plurality of blocks, determines the amount of movement and its direction for each block, and transmits the amount and direction of movement.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

動き検出によるフレーム間符号化方式は、一般の動画像
では、動き部分が多く、圧縮率が低い問題点があった。
The interframe coding method using motion detection has the problem that general moving images have many moving parts and a low compression rate.

また、動き補正によるフレーム間符号化方式は、ブロッ
ク分けによる歪が発生し、各ブロック毎の動き量を伝送
するために、圧縮率が充分りこ低いといえない欠点があ
った。
Furthermore, the interframe coding method using motion compensation has the disadvantage that the compression ratio is not sufficiently low because distortion occurs due to block division and the amount of motion is transmitted for each block.

更に、何れの方式でも、動き物体が動いた時に、元の領
域の画素データがなくなる所謂アンカバードバックグラ
ウンドの問題を生じる欠点があった。
Furthermore, both methods have the drawback of causing a so-called uncovered background problem in which pixel data in the original area disappears when a moving object moves.

従って、この発明は、従来の装置に比して極めて大きい
圧縮率を実現できる高能率符号化装置の提供を目的とす
るものである。
Therefore, it is an object of the present invention to provide a highly efficient encoding device that can achieve an extremely high compression ratio compared to conventional devices.

この発明の他の目的は、時間方向の各種補正を施すこと
により、複数の動き物体による各種の動きに対応できる
高能率符号化装置を提供することにある。
Another object of the present invention is to provide a highly efficient encoding device that can cope with various movements caused by a plurality of moving objects by performing various corrections in the time direction.

この発明の更に他の目的は、空間方向の各種補正を施す
ことにより、エツジ部のボケや、アンカハードハソクグ
ラウント等の問題が生じない高能率符号化装置を提供す
ることにある。
Still another object of the present invention is to provide a highly efficient encoding device that eliminates problems such as edge blurring and anchor-hard grout by performing various corrections in the spatial direction.

また、本IN出願人は、先に圧縮率を極めて高くできる
テレビジョン信号の高能率符号化装置く特願昭59−1
74412号)を堤案じている。この発明は、この高能
率符号化装置の改良を目的とするものである。
In addition, the present IN applicant previously filed a patent application No. 59-1 for a highly efficient encoding device for television signals that can achieve an extremely high compression rate.
74412). The object of the present invention is to improve this high-efficiency encoding device.

即ち、上記用1+iに示されるものは、現フィールドの
画素に対する予測値を、最も相関が強い近傍の画素を代
表値として取り出し、この代表値に時空間方向の補正を
施して求めるもので、補正のためのパラメータは、予i
!III誤差の自乗和を最小にするように同定される。
In other words, what is shown in 1+i above is to obtain a predicted value for a pixel in the current field by extracting a nearby pixel with the strongest correlation as a representative value, and applying correction in the spatiotemporal direction to this representative value. The parameters for
! III is identified to minimize the sum of squared errors.

この自乗和を最小にするパラメータを求める際の演算に
おいて、逆行列を解く7シ・要がある。
In calculating the parameters that minimize this sum of squares, it is necessary to solve the inverse matrix.

しかし、静止画成いは語長の制限によって静止画と区別
できない動きの殆どない動画のシーンでは、逆行列が求
まるための条件が満足されず、不定となる問題点が認め
られた。
However, due to limitations on the word length of still images, there was a problem in that the conditions for finding the inverse matrix were not satisfied in video scenes with almost no movement that could not be distinguished from still images, resulting in indeterminacy.

従って、この発明の目的は、ハラメータを安定に求める
ことができるテレビジョン信号の高能率符号化装置を提
供することにある。
Therefore, an object of the present invention is to provide a highly efficient encoding device for television signals that can stably obtain a harameter.

C問題点を解決するだめの手段〕 この発明は、過去の数フィールドの画素データを貯える
メモ1)と、現在のフィールドの画素データとメモリに
貯えられている過去の数フィールドの画素データであっ
て、ランダム雑音が重畳された画素データから線形1吹
精合で規定される時空間な関係式を規定するパラメータ
を例えば最小自乗法により同定する手段1と、同定した
パラメータに基づいて、過去の数フィールドの画素デー
タから現在のフィールドの画素データの予測を行う手段
とを備え、同定されたパラメータを伝送するようにしだ
高能率符号化装置である。
Solution to Problem C] This invention uses a memo 1) for storing pixel data of several past fields, pixel data of the current field, and pixel data of several past fields stored in memory. Means 1 identifies parameters that define a spatio-temporal relational expression defined by linear precision from pixel data on which random noise is superimposed, for example, by the method of least squares, and based on the identified parameters, and means for predicting pixel data of a current field from pixel data of several fields, and transmits the identified parameters.

〔作用〕[Effect]

この発明は、過去数フィールドの画素データから、現在
の動きを予測するものである。この発明では、複数の動
き物体の各々の動き情(υは上記の画素データに含まれ
ているので、つまり、各種の方向や速度を持つ動きベク
トルも時間的には強い相関を有するので、動き量を伝送
する必要がなく、1フイールド毎のパラメータ(予測の
ための係数)のみを伝送すれば良く、1画素当たJツの
平均ビット数を極めて少なくできる。また、この発明で
は、動き補正を各画素のレベルの時間的変化として捕ら
えるので、動きベクトルの方向や速度に1衣らない定速
度vrg動(過去2フイールドのデータで表現される)
 !!32いは定加速度連動(過去3フイールドのデー
タで表現される)といった運動モデルとして統一的に(
及えるので、単イ屯に動きモデルからのずれを補正する
だけですむ。従って、この発明によれば、圧縮率を晶め
ることができる。更に、時間的及び空間的の3次元的に
補正がなされるので、ブロック歪やアンカバードハック
グラウンドの問題を何等生しない。更に、この発明では
、パラメータ同定の参莫データがランダム雑音を重畳さ
れたものであるため、静1ト画や、動きの殆どない画1
象の場合にも、安定にパラメータを同定できる。
This invention predicts current motion from pixel data of several past fields. In this invention, since the motion information (υ) of each of a plurality of moving objects is included in the above pixel data, in other words, motion vectors with various directions and speeds also have a strong temporal correlation, There is no need to transmit the amount of motion correction, and only the parameters (coefficients for prediction) for each field need to be transmitted, and the average number of bits per pixel can be extremely reduced. is captured as a temporal change in the level of each pixel, so it is a constant velocity VRG motion that is independent of the direction and speed of the motion vector (represented by the data of the past two fields).
! ! (
Therefore, it is only necessary to correct the deviation from the motion model in a single step. Therefore, according to the present invention, the compression ratio can be increased. Furthermore, since the correction is performed three-dimensionally (temporally and spatially), problems such as block distortion and uncovered hackground do not occur. Furthermore, in this invention, since the reference data for parameter identification is superimposed with random noise, it is difficult to use static images or images with almost no movement.
Parameters can be stably identified even in the case of an elephant.

〔実施1グ1〕 以下、この発明の一実施例について、図面を参q@ し
て説明する。この一実施例の説明は、下記の111a序
でなされる。
[Embodiment 1 G1] Hereinafter, an embodiment of the present invention will be described with reference to the drawings. A description of this embodiment is given below in section 111a.

a、符号化装置 す、復号化装置 C,パラメータの同定 a、符号化装置 第1図は、この発明の一実施例1?IIち送信flll
l Qこ設けらnる符号化装置の構成を示す。
a. Encoding device C. Decoding device C. Identification of parameters a. Encoding device FIG. 1 shows an embodiment 1 of the present invention. II send fullll
The configuration of an encoding device is shown below.

第1図に8いて、1は、パラメータ同定部を示す。この
パラメータ同定部1には、所定の1士ンプリング周波数
でディジタル化されたディジタルテレビジョン信号即ち
現フィールドにの画像データが入力されると共に、過去
の3フイール)の参照データが加算回路6.7.8の夫
々から供給される。加算回路6.7.8には、白色雑音
発生回路9からの白色雑音が共通に供給され、力n算回
路6には、前フィールドに−1の画像データがイ1(給
される。加算回路6乙こは、更に前のフィールドに−2
の画像データが供給される。力n算回路8には、より更
に前のフィールドに−3の画像データがイj(給される
In FIG. 1, 8 and 1 indicate a parameter identification section. A digital television signal digitized at a predetermined sampling frequency, that is, image data of the current field, is input to the parameter identification section 1, and reference data of three past fields are input to the addition circuit 6.7. .8. The adder circuits 6, 7, and 8 are commonly supplied with white noise from the white noise generation circuit 9, and the power n calculation circuit 6 is supplied with the image data of -1 in the previous field. Circuit 6 is -2 in the previous field.
image data is supplied. The image data of -3 is supplied to the power n calculation circuit 8 in the field further before.

これらの過去のフィールドの画像データは千71)1デ
ータで、この予測データに白色雑音を重畳した画像デー
タと現フイールドデータを用いてパラメータ同定部1は
、最小口乗法により例えば各々が8ビツトの35個のパ
ラメータW1〜W3.4をlフィールドごとに同定する
。パラメータ同定部1には、空間的位置関係を調整する
ためのライン連接回路またびサンプル遅延回路が含まれ
ている。パラメータ同定部1で同定されたパラメータW
1〜w35が送信データとされる。このパラメータW1
〜w 35は、入力データに対して1フィールド遅れ1
こフィールドに−1のものである。
The image data of these past fields is 1,71) 1 data, and using the image data obtained by superimposing white noise on this predicted data and the current field data, the parameter identification unit 1 calculates, for example, 8 bits each using the least multiplicative method. Thirty-five parameters W1 to W3.4 are identified for each l field. The parameter identification section 1 includes a line connection circuit and a sample delay circuit for adjusting spatial positional relationships. Parameter W identified by parameter identification unit 1
1 to w35 are sent data. This parameter W1
~w 35 is 1 field behind the input data 1
This field is -1.

2は、予測部を示し、3.4.5は、夫々フィールドメ
モリを示す。フィールドメモリ3.4.5には、予測部
2からの予測データが害き込まれ、フィールドに−1よ
り過去の3フイールドに−1゜k−2,に−3の画像デ
ータ(予迎1データ)が貯えられる。予測部2は、予測
しようとする画素の近傍に位置し、且つ過去3フイール
ド内に含まれる35(因の予測データとパラメータW1
〜w35とを用いて現画素に対する予測値を求めるもの
である。このため、予測部2にも、空間的位置関係を調
整するだめの複数のライン遅延回路及び複数のサンプル
遅延回路が含まれている。
2 indicates a prediction unit, and 3.4.5 indicates a field memory, respectively. The field memory 3.4.5 is loaded with the prediction data from the prediction unit 2, and the image data of -1°k-2, -3 in the past three fields from -1 in the field (pre-prediction 1 data) can be stored. The prediction unit 2 uses 35 (cause prediction data and parameter W1) located in the vicinity of the pixel to be predicted and included in the past three fields.
~ w35 is used to obtain a predicted value for the current pixel. For this reason, the prediction unit 2 also includes a plurality of line delay circuits and a plurality of sample delay circuits for adjusting the spatial positional relationship.

現フィール)Sl(の画素データ(第3図A)に対する
予(則(直は、その前フィールリドに−1の近(脅の1
0画素のデータ(第3図B)、その前々フィールドに−
2の近傍の15画素のデータ(第3図C)、その前々々
フィールドに、 −3の近傍の10画素のデータ(第3
図D)の計351囚の画素データ(白色雑音が重畳され
ている。)の線形1漢語合として求められる。
For the pixel data (Fig. 3A) of the current field) Sl
0 pixel data (Figure 3B), in the field two before that -
Data of 15 pixels near 2 (Fig. 3C), data of 10 pixels near -3 (3rd
It is obtained as a linear combination of a total of 351 pixel data (white noise is superimposed) in Figure D).

第3図A〜第3図りにおいて水平方向の実線がフィール
ドk及びフィールF’k  24こaいて走査されるラ
インを表し、水平方向の破線がフィールドに−1及びフ
ィールドに−3において走査さね。
In Figures 3A to 3, the solid horizontal lines represent the lines scanned in field k and field F'k24, and the dashed horizontal lines represent the lines scanned in field -1 and field -3. .

るラインを表す。現フィールドにの画素データが含まれ
る位置のラインをyとして、その上側に位置するライン
をy+1とし、史にう・インy1−1の−F側に位置す
るラインをy+2としている。ラインyの下側に位置す
るラインは、夫々y−1、y−2としている。
represents a line. The line at the position where the pixel data in the current field is included is designated as y, the line located above it is designated as y+1, and the line located on the -F side of the historical input y1-1 is designated as y+2. The lines located below line y are designated as y-1 and y-2, respectively.

第3図A−第3図り己こおいて垂直方向の実線が各フィ
ールドにおける装ンプリング1ヴ置を示し、現フィール
ドにの画素データのサンプリング位置Xより1サンプル
前のサンプリング位置及びこ3tより2サンプル前のサ
ンプリング位置を夫々x −1、X−2としている。ま
た、サンプリング位置Xの後のサンプリング位i9及び
より後のサンプリング位置を夫々x+l、X−1−2と
している。
Figure 3A - In the third diagram, the vertical solid line indicates the sampling position in each field, and the sampling position 1 sample before the sampling position X of pixel data in the current field and the sampling position 2 from this 3t. The sampling positions before the sample are x-1 and x-2, respectively. Further, the sampling position i9 after the sampling position X and the sampling position after the sampling position are x+l and X-1-2, respectively.

現画素に対ずろ予測データ↑b (x、y)は、次式の
′+星形−次結合で表される。イリし、以下の説明に8
1、、する過去のフィールドの画素データは、白色雑音
が重畳されているものである。
The predicted data ↑b (x, y) with respect to the current pixel is expressed by the + star-order combination of the following equation. 8.
The pixel data of the past fields 1, . . . are those on which white noise is superimposed.

↑ y  (x、y)   =           
wl   x  ↑ k−+   (x−2,y+1)
−w2×↑に−I(x−1,yll)  I−w3 x
↑、−、(x、y+1)”w4   × im−+  
 (x+Lytl)   4− w5   x  ’L
−+   (x+2.y+1)−W6 ×了に−+  
(x−2,y−1)  −i−w7  X↑に−1(x
−1,y−1)=w3 X fk−+ (x、y−1)
  + w9 X 7 h−+ (x+1.y−1)”
 wlQX f k−+ (x’r2.v−1)+−w
ll×↑h−z (x−2,y□2)  ”w12X 
Th−z (x−Lv+2)’−w13X ’i’に−
2(x、y+2)  ’w14X:了h−z  (x+
Ly+2)= w15X T k−z (x;2.y+
2)  −w15X↑に−z (x−2,y)” w1
7x T k−z (x−1,y)  −W18X T
 k−z (x、y)−=w19X了b−z  (x4
Ly)  ′−W20X↑w−z  (x+2.yJ+
w21X丁に−2(x−2,y−2)  t W 22
 X丁に−2(x−1,y−2)+w23X ↑v−z
  (X、y−2)  ’−w24x Tk−z  (
x+1.y−2)! W25X T k−z  (x+
2、y −2)↓W26×↑w−3(X−2+ν4) 
 + w27 X T k、+  (x4.y±1)+
w28x↑y−*  (x、yll)  + w29X
↑に−t  (x*1+’y+4)” w3QX T 
h−*  (x+2.シー1)  t w31 X T
 k−:t  (x−2,y−1)+W32X了h−y
  (X−1,y−1)  ↓W33×↑に、、□1(
x、y−1)t w34X T k−1(x*Ly4)
  +w3;)X↑w−z  (x+2.y−1)−)
−述の予測式は、現フィール[・の画素に対する予測値
を、最も相関が強い近傍の画素を代表値として取り出し
、この代表値に時空間方向の補正を施L/て求めること
を意味する。
↑ y (x, y) =
wl x ↑ k-+ (x-2, y+1)
−w2×↑−I(x−1,yll) I−w3 x
↑, −, (x, y+1)”w4 × im−+
(x+Lytl) 4- w5 x 'L
-+ (x+2.y+1)-W6 × end-+
(x-2,y-1) -i-w7 -1(x
-1, y-1) = w3 X fk-+ (x, y-1)
+ w9 X 7 h-+ (x+1.y-1)"
wlQX f k-+ (x'r2.v-1)+-w
ll×↑h−z (x−2, y□2) “w12X
Th-z (x-Lv+2)'-w13X 'i'-
2(x, y+2) 'w14X: completeh-z (x+
Ly+2)=w15X Tk-z(x;2.y+
2) −w15X↑−z (x−2,y)” w1
7x T k-z (x-1,y) -W18X T
k−z (x, y)−=w19X了b−z (x4
Ly) ′-W20X↑w-z (x+2.yJ+
w21X-2 (x-2, y-2) t W 22
-2 (x-1, y-2) + w23X ↑v-z to X block
(X, y-2) '-w24x Tk-z (
x+1. y-2)! W25X T k-z (x+
2,y-2)↓W26×↑w-3(X-2+ν4)
+ w27 X T k, + (x4.y±1)+
w28x↑y-* (x, yll) + w29X
↑-t (x*1+'y+4)" w3QX T
h-* (x+2.c1) t w31 X T
k-:t (x-2, y-1)+W32X completed h-y
(X-1, y-1) ↓W33×↑,,□1(
x, y-1)t w34X T k-1(x*Ly4)
+w3;)X↑w-z (x+2.y-1)-)
- The above prediction formula means that the predicted value for the pixel in the current field is obtained by extracting the neighboring pixel with the strongest correlation as a representative value, and applying correction in the spatiotemporal direction to this representative value. .

パラメータ同定部1は、加算回路6.7.8からの参照
データを用いて、最小自乗法によりパラメータを同定す
る。つまり、現フィールドの成る画素の真値Ikは、−
L式で求められたこ孔と対応する画素の予測値↑、に誤
差eが重畳されたものであるから、(e−↑v   I
+=)となり、この誤差の自乗用を所定数の画素に関し
て最小にするパラメータW1〜w35が計算される。
The parameter identification unit 1 identifies parameters by the least squares method using the reference data from the addition circuit 6.7.8. In other words, the true value Ik of the pixel in the current field is -
Since the error e is superimposed on the predicted value ↑ of the pixel corresponding to the hole obtained using the L formula, (e−↑v I
+=), and parameters W1 to w35 that minimize the square of this error for a predetermined number of pixels are calculated.

二の場合、1フイールドに含まn、る全ての予測画素(
例えばlライン内に800画素、1フイールドが255
ラインの場合では、800x2551171I)を用い
てパラメータW1〜w35を最小自乗法により計算すれ
ば、最高の精度が得られるが、回路規模が大きくなるの
で、複数サンプル毎の間引きにより得られた所定数の例
えば300個の代表の画素を用いてバうメータW1〜w
35の同定がなされる。
In case 2, all predicted pixels (n) included in one field (
For example, 800 pixels in l line, 1 field is 255
In the case of a line, the highest accuracy can be obtained by calculating the parameters W1 to w35 by the least squares method using 800x2551171I). For example, using 300 representative pixels, the power meter W1~w
35 identifications are made.

また、画面の周辺部でデータが存在しない所では、第4
図に示すように1、画面内のデータ、]〜hと同一のデ
ータが画面外にあるものとして代用すね、ば良い。或い
は、第4図において破線図示のように、1ライン内側で
且つ2サンプル内側に寄った領域内で同定を行うように
しても良い。
Also, in areas where there is no data at the periphery of the screen, the fourth
As shown in the figure, the same data as 1, data on the screen, ] to h can be substituted for data outside the screen. Alternatively, as shown by the broken line in FIG. 4, identification may be performed within a region that is one line inside and two samples inside.

尚、現在のフィールドに対して過大の2フイール)′の
画素データを用いても良く、そのときには、3次元11
i1!動モデルとして、定速度運動モデルを表現するこ
とになる。
Note that it is also possible to use pixel data of 2 fields)', which is too large for the current field, and in that case, 3-dimensional 11
i1! As a dynamic model, a constant velocity motion model will be expressed.

また、白色雑音の代わりに、0〜4程度の小さいレベル
の乱数を使用しても良い。
Further, instead of white noise, random numbers at a small level of about 0 to 4 may be used.

b、復号化装置 上述の符号化がなされた送信データを受信する復号化装
置は、第2図に示すように、フィールドメモリ12.1
3.14と、受信されたパラメータW1〜W35が供給
されると共に、フィールドメモリ12.13.14から
過去3フイールドのデータが供給される予測部11とで
構成される。
b. Decoding device The decoding device that receives the encoded transmission data described above has a field memory 12.1 as shown in FIG.
3.14, and a prediction unit 11 which is supplied with the received parameters W1 to W35 and is supplied with data of the past three fields from the field memory 12.13.14.

このt測部11により復元データ即ちディジタルテレビ
ジョン信号が形成される。受信側で、ディジタルテレビ
ジョン信号を復元するために、パラメータW1〜W35
の送信に先行して3フイ一ルド分の初期値が送信され、
この初期値がフィールドメモリ12.13.14の夫々
に書き込まれる。
This t-measuring section 11 forms restored data, that is, a digital television signal. On the receiving side, parameters W1 to W35 are used to restore the digital television signal.
Prior to the transmission of , the initial values for 3 fields are transmitted,
This initial value is written into each of the field memories 12, 13, and 14.

C,パラメータの同定 一ヒ述のパラメータ同定部1乙こよりなされるバラメー
クW1〜w35の同定について、最小自乗法を用いた一
例について以下に説明する。
C. Identification of Parameters An example of the identification of the parameters W1 to w35 performed by the parameter identification unit 1B described above using the method of least squares will be described below.

前述の予測データ↑y  (x、  y)を算出する線
形1成語合の式は、現フイールド全体に関して予測を行
う場合、下記の行列式により表現できる。
The linear one-component combination equation for calculating the prediction data ↑y (x, y) described above can be expressed by the following determinant when prediction is performed for the entire current field.

1       ゛ 上式を行列とベクトルとによりまとめて表現すると、 T −了  ・ へり (旦し、↑は、(mxn)次のへクトル、Tは、(mX
n、35)の行列、Wは、35次のベクトルである。
1 ゛If the above equation is expressed collectively using a matrix and a vector, T
The matrix W of n, 35) is a 35th order vector.

一方、現フィールドのデータ(頁値)を並べてなるベク
トルIは、(mXn)次のヘク[・ルであり、eを(m
Xn)次の予ill 2%差ベクトルとすると、 ■−4+e=↑中W + e となる。上式は、 e−丁一丁・W となる。この予測誤差ベクトルeの自乗用を最小にする
パラメータ曹が求められる。上式は、下記のように変形
される。屯し、Tは、転置行列を示す。
On the other hand, the vector I formed by arranging the data (page values) of the current field is (m
Xn) Next pre-ill 2% difference vector, then -4+e=↑middleW+e. The above formula becomes e-cho1cho・W. A parameter ca that minimizes the square of this prediction error vector e is determined. The above formula is transformed as follows. Then, T indicates a transposed matrix.

e” e=CI−TWビ(■−↑W) =zT l−1T TW−W、”  ↑1 ■本W”T
”TW上式で、e”  eを最小にするパラメータWは
、次式を満足するものとなる。この式の導出は、例えば
文献1システム同定5(発行所二社団法人計測自動制御
学会1発行日:昭和56年2月10日(初版))の第4
章第4節2項に記載されている。
e" e=CI-TW Bi(■-↑W) =zT l-1T TW-W," ↑1 ■Book W"T
"TW in the above equation, e" The parameter W that minimizes e satisfies the following equation. The derivation of this formula can be found, for example, in Reference 1, System Identification 5 (Publisher 2, Society of Instrument and Control Engineers 1, Publication date: February 10, 1980 (first edition)).
It is described in Chapter 4, Section 4, Item 2.

w 、’、  w=(↑T T )−↑1■上弐により、パ
ラメータWが安定に求まるには、逆行列(i”  Y 
)−’が安定に求まることが必要である。この一実施例
では、静W画成いは動きの殆どない動画の場合でも、白
色雑音が重畳されているので、この逆行列が安定に求ま
る。
w ,', w=(↑T T )−↑1■ According to the above, in order to stably find the parameter W,
)−' must be stably determined. In this embodiment, even in the case of a static W image or a moving image with almost no movement, white noise is superimposed, so the inverse matrix can be stably determined.

このままでは、1フイールドの(mxn)個の全画素の
場合、(y)1 x n 、 25)と言う非常に大き
な行列を扱うことになり、実際的でない。従って、上式
を小さい次数の行列及びベクトルに直して処理する。即
ち、(P=↑1 ・↑)の(35,35)の行列と、 
(Q−↑1 ・丁)の35次のヘクI・ルとを用いる。
If this continues, in the case of all (mxn) pixels in one field, a very large matrix of (y)1xn, 25) will be handled, which is not practical. Therefore, the above equations are processed by converting them into matrices and vectors of small order. That is, the (35, 35) matrix of (P=↑1 ・↑),
(Q-↑1 ・D)'s 35th order Hek I ・ Le is used.

x l Tk−、(x、−2+y; +1)  ↑h−
+(Xl−1+y、+l)] ・ ・、・ T k−:I  (Xi  千2.yj−
1)  ニー」 X ? y  (x、+y= ) 上述のP及びQがバラン〜り同定部1に供給される過去
の3フイールドの予測データから形成される。そして、
(P−’Q)によりパラメータWが計算される。
x l Tk-, (x, -2+y; +1) ↑h-
+ (Xl-1+y, +l)] ・ ・ ・ T k-:I (Xi 1,000 2.yj-
1) Knee”X? y (x, +y=) The above-mentioned P and Q are formed from the past three fields of prediction data supplied to the balun identification unit 1. and,
Parameter W is calculated by (P-'Q).

〔発明の効果〕〔Effect of the invention〕

この発明は、過去数フィールドのriIii素データか
ら現在の動きを予測するものであり、従って、複数の動
き物体の各々の動き情報は、上記の画素データに含まれ
ているので、動き量を伝送する必要がなく、1フイール
ド毎のパラメータ(予測のための係数)のみを伝送すれ
ば良く、■画素当たりの平均ビットE1を極めて少なく
できる。
This invention predicts the current motion from the past several fields of riIII elementary data. Therefore, since the motion information of each of a plurality of moving objects is included in the above pixel data, the amount of motion is transmitted. There is no need to do this, and it is sufficient to transmit only the parameters (coefficients for prediction) for each field. (2) The average bits E1 per pixel can be extremely reduced.

また、この発明では、動き補正を各画素のレヘルの時間
的変化として捉えるので、動きベクトルの方向や速度に
依らない定速度運動(過去2フイールドのデータで表現
される)或いは定加速度運動(過去3フイールドのデー
タで表現される)といった運動モデルとして統一的に汲
えるので、華1屯に牛肉きモデル力・らのずれを’4m
正するだけですむ。
In addition, in this invention, since motion correction is regarded as a temporal change in the level of each pixel, constant velocity motion (expressed by data of the past two fields) or constant acceleration motion (expressed by data of the past two fields) is independent of the direction and speed of the motion vector. Since it can be uniformly obtained as a motion model such as (expressed by 3 field data), the force of the beef model and the deviation of 4 m can be calculated by 1 ton of flowers.
All you have to do is correct it.

従って、この発明に依れば、圧縮率を高めることができ
る。
Therefore, according to the present invention, the compression ratio can be increased.

ま1こ、3次元的に補正がなされるので、ブロック歪や
アンカハードバックグランドの問題を何ら生しない。
First, since the correction is performed three-dimensionally, there are no problems with block distortion or anchored background.

更に、この発明は、予測係数としてのパラメータを同定
する時の参照データとして、過去のフィールドの画素デ
ータにランダム雑音を重畳したものを使用するので、逆
行列が求められな(なる状態を回避でき、安定にパラメ
ータを同定することができる。
Furthermore, since this invention uses pixel data of past fields with random noise superimposed as reference data when identifying parameters as prediction coefficients, it is possible to avoid the situation where an inverse matrix cannot be obtained. , parameters can be stably identified.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例のブロック図、第2図はこ
の発明の一実施例により符号化された伝送データを受信
するための構成を示すブロック図、第3ド1及び第4図
はこの発明の一実施例の説明に用いる路線図である。 図面における主要な符号の説明 1;パラメータ同定部、2:予測部、3.4゜5:フィ
ールトメモリ5 つ二白色雑音発生回路。 代理人   弁理士 杉 浦 正 知 l忘イUイ@11 のオ肩=底゛ aabcd
FIG. 1 is a block diagram of an embodiment of the present invention, FIG. 2 is a block diagram showing a configuration for receiving encoded transmission data according to an embodiment of the present invention, and FIGS. is a route map used to explain one embodiment of the present invention. Explanation of main symbols in the drawings 1: Parameter identification section, 2: Prediction section, 3.4° 5: 5 field memories Two white noise generation circuits. Agent Patent Attorney Tadashi Sugiura Knowledgeable @11 Shoulder = bottom ゛aabcd

Claims (1)

【特許請求の範囲】[Claims] 過去の数フィールドの画素データを貯えるメモリと、現
在のフィールドの画素データと上記メモリに貯えられて
いる過去の数フィールドの画素データであって、ランダ
ム雑音が重畳されたデータとから線形1次結合で規定さ
れる時空間な関係式を規定するパラメータを同定する手
段と、上記同定したパラメータに基づいて、上記過去の
数フィールドの画素データから上記現在のフィールドの
画素データの予測を行う手段とを備え、上記同定された
パラメータを伝送するようにしたことを特徴とするテレ
ビジョン信号の高能率符号化装置。
A memory that stores pixel data of several past fields, a linear linear combination of pixel data of the current field, and pixel data of the past several fields stored in the memory with random noise superimposed on it. and means for predicting pixel data of the current field from pixel data of the past several fields based on the identified parameters. 1. A high-efficiency encoding device for a television signal, characterized in that the above-mentioned identified parameters are transmitted.
JP60236161A 1985-10-22 1985-10-22 Highly efficient coding and decoding method for television signals Expired - Lifetime JPH0746865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60236161A JPH0746865B2 (en) 1985-10-22 1985-10-22 Highly efficient coding and decoding method for television signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60236161A JPH0746865B2 (en) 1985-10-22 1985-10-22 Highly efficient coding and decoding method for television signals

Publications (2)

Publication Number Publication Date
JPS6295084A true JPS6295084A (en) 1987-05-01
JPH0746865B2 JPH0746865B2 (en) 1995-05-17

Family

ID=16996671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60236161A Expired - Lifetime JPH0746865B2 (en) 1985-10-22 1985-10-22 Highly efficient coding and decoding method for television signals

Country Status (1)

Country Link
JP (1) JPH0746865B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011064944A1 (en) * 2009-11-30 2011-06-03 日本電気株式会社 Video coding device and video decoding device
CN104836499A (en) * 2014-02-12 2015-08-12 珠海格力电器股份有限公司 Permanent magnet synchronous motor d-axis and q-axis induction parameter on-line identification method and system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011064944A1 (en) * 2009-11-30 2011-06-03 日本電気株式会社 Video coding device and video decoding device
JPWO2011064944A1 (en) * 2009-11-30 2013-04-11 日本電気株式会社 Video encoding device and video decoding device
CN104836499A (en) * 2014-02-12 2015-08-12 珠海格力电器股份有限公司 Permanent magnet synchronous motor d-axis and q-axis induction parameter on-line identification method and system
CN104836499B (en) * 2014-02-12 2018-02-09 珠海格力电器股份有限公司 The cross, straight axle inductance on-line parameter identification method and system of permagnetic synchronous motor

Also Published As

Publication number Publication date
JPH0746865B2 (en) 1995-05-17

Similar Documents

Publication Publication Date Title
JPS6152084A (en) Highly efficient encoder
JPH0644815B2 (en) Moving body interpolation device
JPH0325119B2 (en)
CN100438609C (en) Image processing unit with fall-back
JPH03502628A (en) motion estimation circuit
JPH0262180A (en) Compensating/predicting/encoding system for moving image
JPH0795591A (en) Digital picture signal processing unit
JPS6295084A (en) Highly efficient encoding device for television signal
JPH09182077A (en) Image encoding method and device
US6433828B1 (en) Picture conversion using field-by-field vertical inversion dependent upon the type of picture signal to be outputted
JP2002199349A (en) Device and method for processing picture
US6885706B2 (en) Method for promoting temporal resolution of sequential images
JP2647165B2 (en) Image motion detection device and image motion correction device
JPS62102685A (en) High-efficiency encoder
JPS62104387A (en) High-efficiency encoding device
JP3107917B2 (en) Method and apparatus for frame interpolation of moving image using three-dimensional shape model
JP3271387B2 (en) Motion amount detection device and motion amount detection method
JPS6298991A (en) Highly efficient encoder for television signal
JP3078140B2 (en) Motion vector detection circuit
JP3653287B2 (en) Image information conversion apparatus and image information conversion method
JPS62101187A (en) Efficient encoder
US7202909B2 (en) Video signal processing with two stage motion compensation
JP4042121B2 (en) Image information processing apparatus and image information processing method
JPH0422073B2 (en)
JP2002237942A (en) Digital image signal processing unit and processing method

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term