JP3465316B2 - Video signal encoding method - Google Patents

Video signal encoding method

Info

Publication number
JP3465316B2
JP3465316B2 JP25834293A JP25834293A JP3465316B2 JP 3465316 B2 JP3465316 B2 JP 3465316B2 JP 25834293 A JP25834293 A JP 25834293A JP 25834293 A JP25834293 A JP 25834293A JP 3465316 B2 JP3465316 B2 JP 3465316B2
Authority
JP
Japan
Prior art keywords
picture
complexity
input
quantization
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25834293A
Other languages
Japanese (ja)
Other versions
JPH07115645A (en
Inventor
喜子 幡野
正 加瀬沢
隆 篠原
隆洋 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP25834293A priority Critical patent/JP3465316B2/en
Publication of JPH07115645A publication Critical patent/JPH07115645A/en
Application granted granted Critical
Publication of JP3465316B2 publication Critical patent/JP3465316B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、映像信号の符号化方式
に関し、特に映像信号の量子化制御方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video signal coding system, and more particularly to a video signal quantization control system.

【0002】[0002]

【従来の技術】図6は例えばISO-IEC/JTC1/SC29/WG11 M
PEG 92/N0245 Test Model 2 に示された従来の映像信号
符号化方式を示す概略ブロック図である。図において、
入力端子101aから入力されたディジタル化された映
像信号1101は、減算器9の第1の入力,動き補償予
測回路16の第1の入力および量子化回路11の第2の
入力に与えられる。減算器9の出力1102は、DCT
回路10を介して量子化回路11の第1の入力に与えら
れる。量子化回路11の出力1104は、可変長符号化
回路18を介して送信バッファ19の入力に与えられる
とともに、逆量子化回路12およびIDCT回路13を
介して加算器14の第1の入力に与えられる。加算器1
4の出力1107は、メモリ回路15の第1の入力に与
えられ、メモリ回路15の出力1108は、動き補償予
測回路16の第2の入力および切り替え回路17の第1
の入力に与えられる。メモリ回路15の第二の入力に
は、動き補償予測回路16の第1の出力1111が与え
られる。一方、切り替え回路17の第2の入力には、ゼ
ロ信号が与えられ、切り替え回路17の第3の入力に
は、動き補償予測回路16の第2の出力1110が与え
られる。切り替え回路17の出力1109は、減算器9
の第2の入力および加算器14の第2の入力に与えられ
る。一方、送信バッファ19の第2の出力1113は量
子化回路11の第3の入力に与えられ、送信バッファ1
9の第一の出力1114は、出力端子2dより出力され
る。
2. Description of the Related Art FIG. 6 shows, for example, ISO-IEC / JTC1 / SC29 / WG11 M.
FIG. 9 is a schematic block diagram showing a conventional video signal encoding system shown in PEG 92 / N0245 Test Model 2. In the figure,
The digitized video signal 1101 input from the input terminal 101a is supplied to the first input of the subtractor 9, the first input of the motion compensation prediction circuit 16 and the second input of the quantization circuit 11. The output 1102 of the subtractor 9 is the DCT
It is supplied to the first input of the quantizing circuit 11 via the circuit 10. The output 1104 of the quantization circuit 11 is given to the input of the transmission buffer 19 via the variable length coding circuit 18, and is given to the first input of the adder 14 via the dequantization circuit 12 and the IDCT circuit 13. To be Adder 1
4 is provided to a first input of the memory circuit 15, and an output 1108 of the memory circuit 15 is provided to a second input of the motion compensation prediction circuit 16 and a first input of the switching circuit 17.
Given to the input of. The second output of the memory circuit 15 is provided with the first output 1111 of the motion compensation prediction circuit 16. On the other hand, the zero signal is given to the second input of the switching circuit 17, and the second output 1110 of the motion compensation prediction circuit 16 is given to the third input of the switching circuit 17. The output 1109 of the switching circuit 17 is the subtractor 9
And the second input of adder 14. On the other hand, the second output 1113 of the transmission buffer 19 is supplied to the third input of the quantization circuit 11, and the transmission buffer 1
The first output 1114 of 9 is output from the output terminal 2d.

【0003】図7は例えばISO-IEC/JTC1/SC29/WG11 MPE
G 92/N0245 Test Model 2 に示された従来の映像信号符
号化方式における量子化制御方式の一例を示す概略ブロ
ック図である。図において、入力端子101dから入力
された第1の発生符号量1201は、複雑度算出回路2
0aの第1の入力に与えられ、入力端子101eから入
力された第1の平均量子化ステップパラメータ1202
は複雑度算出回路20aの第2の入力に与えられる。複
雑度算出回路20aの出力である第1の複雑度1203
は、ターゲットビット量算出回路4eの第1の入力に与
えられる。入力端子101fから入力された第2の発生
符号量1204は、複雑度算出回路20bの第1の入力
に与えられ、入力端子101gから入力された第2の平
均量子化ステップパラメータ1205は複雑度算出回路
20bの第2の入力に与えられる。複雑度算出回路20
bの出力である第2の複雑度1206は、ターゲットビ
ット量算出回路4eの第2の入力に与えられる。入力端
子101hから入力された第3の発生符号量1207
は、複雑度算出回路20cの第1の入力に与えられ、入
力端子101iから入力された前Bピクチャにおける平
均量子化ステップパラメータ1208は複雑度算出回路
20cの第2の入力に与えられる。複雑度算出回路20
cの出力である第3の複雑度1209は、ターゲットビ
ット量算出回路4eの第3の入力に与えられる。
FIG. 7 shows, for example, ISO-IEC / JTC1 / SC29 / WG11 MPE.
FIG. 9 is a schematic block diagram showing an example of a quantization control method in the conventional video signal coding method shown in G 92 / N0245 Test Model 2. In the figure, the first generated code amount 1201 input from the input terminal 101d is the complexity calculation circuit 2
0a of the first average quantization step parameter 1202 given to the first input of the input terminal 101e.
Is given to the second input of the complexity calculation circuit 20a. The first complexity 1203, which is the output of the complexity calculation circuit 20a
Is supplied to the first input of the target bit amount calculation circuit 4e. The second generated code amount 1204 input from the input terminal 101f is given to the first input of the complexity calculation circuit 20b, and the second average quantization step parameter 1205 input from the input terminal 101g is the complexity calculation. It is applied to the second input of the circuit 20b. Complexity calculation circuit 20
The second complexity 1206 which is the output of b is given to the second input of the target bit amount calculation circuit 4e. Third generated code amount 1207 input from input terminal 101h
Is given to the first input of the complexity calculating circuit 20c, and the average quantization step parameter 1208 in the previous B picture inputted from the input terminal 101i is given to the second input of the complexity calculating circuit 20c. Complexity calculation circuit 20
The third complexity 1209, which is the output of c, is given to the third input of the target bit amount calculation circuit 4e.

【0004】また、ターゲットビット量算出回路4eの
第4の入力には、入力端子101jより第1の残枚数1
210が、第5の入力には、入力端子101kより第2
の残枚数1211が入力される。また、第6の入力に
は、定数発生回路21aの出力である定数Kp1212
が、第7の入力には、定数発生回路21bの出力である
定数Kb1213が入力される。また、第8の入力に
は、入力端子101lより、残符号量1214が入力さ
れる。第9の入力には、入力端子101mよりピクチャ
タイプ1215が入力される。
The fourth input of the target bit amount calculation circuit 4e is the first remaining number 1 from the input terminal 101j.
210 has a second input from the input terminal 101k for the fifth input.
1211 is input. The sixth input has a constant Kp1212, which is the output of the constant generating circuit 21a.
However, the constant Kb1213, which is the output of the constant generation circuit 21b, is input to the seventh input. Further, the remaining code amount 1214 is input to the eighth input from the input terminal 101l. A picture type 1215 is input to the ninth input from the input terminal 101m.

【0005】ターゲットビット量算出回路4eの出力で
あるターゲットビット量1217は、仮想バッファ選択
回路22aの第1の入力に与えられる。仮想バッファ選
択回路22aの第2の入力には、入力端子101cより
入力された発生符号量が入力される。また、第3の入力
には、入力端子101mよりピクチャタイプ1215が
入力される。仮想バッファ選択回路22aの第1の出力
であるターゲットビット量1218は、第1の仮想バッ
ファ残量算出回路5eの第1の入力に、第2の出力であ
る現マクロブロックまでの発生符号量1219は、第1
の仮想バッファ残量算出回路5eの第2の入力に入力さ
れる。仮想バッファ選択回路22aの第3の出力である
ターゲットビット量1220は、第2の仮想バッファ残
量算出回路5fの第1の入力に、第4の出力である現ピ
クチャにおける現マクロブロックまでの発生符号量12
21は、第2の仮想バッファ残量算出回路5fの第2の
入力に入力される。仮想バッファ選択回路22aの第5
の出力であるターゲットビット量1222は、第3の仮
想バッファ残量算出回路5gの第1の入力に、第6の出
力である発生符号量1223は、第3の仮想バッファ残
量算出回路5gの第2の入力に入力される。
The target bit amount 1217, which is the output of the target bit amount calculation circuit 4e, is given to the first input of the virtual buffer selection circuit 22a. The generated code amount input from the input terminal 101c is input to the second input of the virtual buffer selection circuit 22a. A picture type 1215 is input to the third input from the input terminal 101m. The target bit amount 1218, which is the first output of the virtual buffer selection circuit 22a, is input to the first input of the first virtual buffer remaining amount calculation circuit 5e, and the generated code amount 1219 up to the current macroblock which is the second output. Is the first
Is input to the second input of the virtual buffer remaining amount calculation circuit 5e. The target bit amount 1220 that is the third output of the virtual buffer selection circuit 22a is generated at the first input of the second virtual buffer remaining amount calculation circuit 5f up to the current macroblock in the current picture that is the fourth output. Code amount 12
21 is input to the second input of the second virtual buffer remaining amount calculation circuit 5f. The fifth of the virtual buffer selection circuit 22a
The target bit amount 1222, which is the output of the third virtual buffer remaining amount calculation circuit 5g, is input to the first input of the third virtual buffer remaining amount calculation circuit 5g, and the generated code amount 1223, which is the sixth output, It is input to the second input.

【0006】第1の仮想バッファ残量算出回路5eの出
力1224は、仮想バッファ選択回路22bの第1の入
力に、第2の仮想バッファ残量算出回路5fの出力12
25は、仮想バッファ選択回路22bの第二の入力に、
第3の仮想バッファ残量算出回路5gの出力1226
は、仮想バッファ選択回路22bの第3の入力に与えら
れる。仮想バッファ選択回路22bの第4の入力には、
入力端子101mよりピクチャタイプ1215が入力さ
れる。仮想バッファ選択回路22bの出力1227は、
量子化ステップパラメータ算出回路6eに与えられ、量
子化ステップパラメータ算出回路6eの出力である参照
量子化ステップパラメータ1228は、適応量子化回路
7eの第1の入力に与えられる。適応量子化回路7eの
第2の入力には、入力端子101nより、適応量子化係
数1229が与えられる。適応量子化回路7eの出力で
ある量子化ステップパラメータ1230は、出力端子2
eより出力される。
The output 1224 of the first virtual buffer remaining amount calculating circuit 5e is supplied to the first input of the virtual buffer selecting circuit 22b and the output 1224 of the second virtual buffer remaining amount calculating circuit 5f.
25 is a second input of the virtual buffer selection circuit 22b,
Output 1226 of the third virtual buffer remaining amount calculation circuit 5g
Is applied to the third input of the virtual buffer selection circuit 22b. For the fourth input of the virtual buffer selection circuit 22b,
The picture type 1215 is input from the input terminal 101m. The output 1227 of the virtual buffer selection circuit 22b is
The reference quantization step parameter 1228 that is given to the quantization step parameter calculation circuit 6e and is the output of the quantization step parameter calculation circuit 6e is given to the first input of the adaptive quantization circuit 7e. The adaptive quantization coefficient 1229 is applied to the second input of the adaptive quantization circuit 7e from the input terminal 101n. The quantization step parameter 1230 output from the adaptive quantization circuit 7e is output to the output terminal 2
It is output from e.

【0007】図8はハイブリッド符号化方式における著
名な性質の一つであるリフレッシュ方式の概念図であ
る。
FIG. 8 is a conceptual diagram of the refresh system which is one of the prominent properties of the hybrid coding system.

【0008】次に動作について説明する。映像信号を符
号化する場合の高能率符号化方式の一つとして、動き補
償予測を用いた画像間予測符号化と画像内変換符号化を
組み合わせたハイブリッド符号化方式がある。本従来例
も、上記ハイブリッド符号化方式を採用している。この
場合、ディジタル化された入力信号は、時間軸方向の冗
長度を落とすために動き補償予測を用いて画像間の差分
がとられ、空間軸方向にDCTが施される。変換された
係数は量子化され、可変長符号化された後に、送信バッ
ファを介して伝送される。
Next, the operation will be described. As one of high-efficiency coding schemes for coding a video signal, there is a hybrid coding scheme in which inter-picture predictive coding using motion compensation prediction and intra-picture transform coding are combined. This conventional example also employs the above hybrid coding method. In this case, the digitized input signal is subjected to DCT in the spatial axis direction by taking the difference between the images using motion compensation prediction in order to reduce the redundancy in the time axis direction. The transformed coefficients are quantized, variable-length coded, and then transmitted through a transmission buffer.

【0009】以下、量子化制御の基本概念について述べ
る。一般に、映像信号符号化システムにおいて、伝送レ
ートは固定であるため、発生符号量を伝送レートに収束
させる手法が必要となる。上記固定伝送レートへの発生
符号量の収束手法の概念を以下に示す。一般に、変換さ
れた係数は、必ずしも有限な桁数での表現が可能ではな
い。この係数を有限な桁数にて表現することを量子化と
言い、量子化による離散値を量子化レベル、量子化レベ
ルの間隔を量子化ステップと言う。また、量子化前の係
数と量子化後の量子化レベルとの差を量子化雑音と言
う。量子化ステップを小さくすれば、量子化雑音は減少
するが、発生符号量は増加することになり、量子化ステ
ップを大きくすれば、量子化雑音は増加するが、発生符
号量は減少することになる。このように、量子化ステッ
プを制御することを量子化制御と言う。すなわち、量子
化制御により、発生符号量を伝送レートに収束させるこ
とが可能となる。このとき、良好な画質を維持しつつ固
定レートに収束させることが重要な課題となる。本従来
例では、量子化ステップに類する指標として量子化ステ
ップパラメータが用いられる。量子化ステップパラメー
タの機能は、量子化ステップと同等であると考えてよ
い。
The basic concept of quantization control will be described below. Generally, in a video signal encoding system, the transmission rate is fixed, so that a method for converging the generated code amount to the transmission rate is required. The concept of the method of converging the generated code amount to the fixed transmission rate is shown below. In general, the converted coefficient cannot always be expressed with a finite number of digits. Representing this coefficient with a finite number of digits is called quantization, a discrete value by quantization is called a quantization level, and an interval between quantization levels is called a quantization step. Also, the difference between the coefficient before quantization and the quantization level after quantization is called quantization noise. If the quantization step is made smaller, the quantization noise will be reduced, but the generated code amount will be increased.If the quantization step is made larger, the quantization noise will be increased, but the generated code amount will be reduced. Become. Controlling the quantization step in this way is called quantization control. That is, the quantization control makes it possible to converge the generated code amount to the transmission rate. At this time, it is an important subject to converge to a fixed rate while maintaining good image quality. In this conventional example, a quantization step parameter is used as an index similar to the quantization step. The function of the quantization step parameter may be considered to be equivalent to the quantization step.

【0010】量子化制御を行う単位として以下の2者を
定義する。 基準固定レート期間 基準制御期間
The following two are defined as units for performing quantization control. Standard fixed rate period Standard control period

【0011】基準固定レート期間とは、発生符号量が固
定レートであると判断する単位あるいは期間を意味す
る。たとえば、ある枚数の画面における発生符号量の総
和が固定レートであればよいとか、1画面における発生
符号量が固定レートであればよいとかいうことである。
この固定レート期間が大きければ、その期間内における
発生符号量の変動の許容性が高まる。たとえば、動画像
においては、画像の動きに伴い1ピクチャ毎に発生符号
量が変動する。そのため、安定した画質を連続して得る
ためには、固定レート期間が大きい方が有効的である。
しかし、発生符号量の変動の許容性を高めるためには、
容量の大きなバッファが必要となる。容量の大きなバッ
ファは、符号化復号化システムにおける遅延時間の増加
を意味する。一方、固定レート期間が小さければ、発生
符号量の許容性が低くなる。たとえば、画面の数分の1
程度を固定レート期間とすると、画面内の発生符号量の
変動を十分に許容できない。たとえば、動画像において
は画面内の1部分のみが動いているような場合が頻繁に
存在するが、このような場合には、画面内において画質
劣化の度合が画面内の場所に応じて大きく異なる可能性
がある。しかしながら、この場合には、バッファ容量は
小さくてよく、これは符号化復号化システムにおける遅
延時間が小さいことを意味する。
The reference fixed rate period means a unit or period in which the generated code amount is determined to be a fixed rate. For example, the sum of the generated code amounts in a certain number of screens may be a fixed rate, or the generated code amount in one screen may be a fixed rate.
If this fixed rate period is large, the tolerance of fluctuations in the generated code amount within that period increases. For example, in a moving image, the generated code amount changes for each picture as the image moves. Therefore, in order to continuously obtain stable image quality, it is effective that the fixed rate period is large.
However, in order to increase the tolerance of fluctuations in the generated code amount,
A large capacity buffer is required. A large capacity buffer means an increase in delay time in the encoding / decoding system. On the other hand, if the fixed rate period is small, the admissibility of the generated code amount becomes low. For example, a fraction of the screen
If the degree is set as a fixed rate period, it is not possible to sufficiently allow the fluctuation of the generated code amount in the screen. For example, in a moving image, there is often a case where only one part in the screen is moving. In such a case, the degree of image quality deterioration in the screen varies greatly depending on the position in the screen. there is a possibility. However, in this case, the buffer capacity may be small, which means that the delay time in the coding / decoding system is small.

【0012】基準制御期間とは、以下のように定義され
る。基本的に、量子化制御とは、ある期間毎に発生符号
量の状態を調べ、所望の発生符号量に合致しているか否
かを検証し、合致していなければ量子化ステップパラメ
ータを変更するという作業である。上記期間を基準制御
期間と定める。この基準制御期間が大きければ、符号量
の過大発生や過小発生を招き、バッファのオーバーフロ
ーやアンダーフローを引き起こす原因となり易い。この
基準期間が小さければ、オーバーフローやアンダーフロ
ーは生じにくいが、所望発生符号量の予測に高度な正確
性が要求される。不確かな所望発生符号量の予測は、不
必要な量子化ステップパラメータの変動を引き起こし、
局所的な画質劣化の原因となる。
The reference control period is defined as follows. Basically, the quantization control is to check the state of the generated code amount every certain period, verify whether or not it matches the desired generated code amount, and change the quantization step parameter if it does not match. That is the work. The above period is defined as the standard control period. If this reference control period is large, the code amount becomes excessively large or small, which easily causes a buffer overflow or underflow. If this reference period is short, overflow or underflow is unlikely to occur, but a high degree of accuracy is required to predict the desired generated code amount. Uncertain prediction of the desired amount of generated code causes unnecessary fluctuation of the quantization step parameter,
This causes local deterioration of image quality.

【0013】本従来例における量子化制御方式を述べる
にあたり、本従来例における映像信号の階層構造を定義
しておくとともに、階層構造と関係を持つハイブリッド
符号化の1つの性質を以下に記述する。
In describing the quantization control method in this conventional example, the hierarchical structure of the video signal in this conventional example will be defined, and one property of the hybrid coding related to the hierarchical structure will be described below.

【0014】本従来例における映像信号の階層構造は以
下のように概略される。 シーケンス:1つかそれ以上の連続したGOPから構成
される。 GOP:複数の連続したピクチャ(画面)から構成され
る。 ピクチャ:1つの画面であり、複数のスライスで構成さ
れる。 スライス:1つまたは複数のマクロブロックで構成され
る。 マクロブロック:4つの輝度ブロックと画面上で同位置
の色差ブロックからなる。 ブロック;1ブロックは8×8の画素から構成される。 なお、本従来例では、ピクチャとして3つのタイプが定
義される。画像間予測符号化を行わず画面内変換符号化
のみを行うIピクチャ、片方向のみから予測するPピク
チャ、両方向から予測するBピクチャの3タイプであ
る。
The hierarchical structure of the video signal in this conventional example is outlined as follows. Sequence: Consists of one or more consecutive GOPs. GOP: Composed of a plurality of consecutive pictures (screens). Picture: One screen, which is composed of multiple slices. Slice: It consists of one or more macroblocks. Macro block: It consists of four luminance blocks and a color difference block at the same position on the screen. Block: One block is composed of 8 × 8 pixels. In this conventional example, three types of pictures are defined. There are three types: I picture that does not perform inter-picture predictive coding but only intra-picture conversion coding, P picture that predicts from only one direction, and B picture that predicts from both directions.

【0015】次に、ハイブリッド符号化方式における著
名な性質の一つを以下に掲げる。本従来例は、動き補償
予測を用いた画像間予測符号化を行っている。これは、
基本的には時間領域の予測符号化であるため、初期値を
設定する必要がある。また、符号化後に偶発的に発生し
たエラーの伝播を防ぐために、適当な周期で初期値に設
定する必要がある。この周期的な初期値設定の作業を一
般に周期的リフレッシュと称している。動き補償予測を
用いた画像間予測符号化と画像内変換符号化を用いたハ
イブリッド方式の場合の周期的リフレッシュは、具体的
には動き補償予測を行わない画像内変換符号化となる。
一般に、リフレッシュ方式としては、画面を一括して行
う方式と画面を分割して行う方式とがある。従来の実施
例で参照した方式はこの前者にあたり、そのリフレッシ
ュ画面はIピクチャと呼ばれている。画面分割リフレッ
シュ方式の場合には、たとえば画面をいくつかの領域に
分割し、1画面に対し1領域ずつリフレッシュを行うこ
とになる。図8にリフレッシュ方式の概念図を示す。一
般に、画像内変換符号化は、画像間予測符号化に比べて
発生符号量が大きいため、画面単位で周期的リフレッシ
ュを行う場合には、数ピクチャ程度の大きな基準固定レ
ート期間が採用される。これは、符号化復号化システム
における遅延時間が大きいことを意味する。
Next, one of the prominent properties of the hybrid coding system is listed below. In this conventional example, inter-picture predictive coding using motion compensation prediction is performed. this is,
Since it is basically time-domain predictive coding, it is necessary to set an initial value. Further, in order to prevent the propagation of an error that occurs accidentally after encoding, it is necessary to set the initial value at an appropriate cycle. This periodic initial value setting operation is generally called periodic refresh. The periodic refresh in the case of the hybrid method using inter-picture predictive coding using motion compensation prediction and intra-picture transform coding is specifically intra-picture transform coding without motion-compensated prediction.
Generally, as a refresh method, there are a method of collectively performing screens and a method of performing divided screens. The system referred to in the conventional embodiment is the former, and its refresh screen is called an I picture. In the case of the screen division refresh method, for example, the screen is divided into several areas, and one area is refreshed for each screen. FIG. 8 shows a conceptual diagram of the refresh method. In general, intra-picture transform coding has a larger amount of generated code than inter-picture predictive coding, and therefore, when performing periodic refresh in screen units, a large reference fixed rate period of about several pictures is adopted. This means that the delay time in the encoding / decoding system is large.

【0016】次に、従来例における量子化制御方式につ
いて説明する。図7は従来例における量子化制御方式の
一例を説明するための図であり、本従来例は、基本的に
は基準固定レート期間として1GOP期間を、基準制御
期間として1マクロブロック期間を採用しており、量子
化制御は以下の手順にて行われる。 次のピクチャの符号化で使用可能なビット量(ターゲ
ットビット量)を推定する。 上記推定されたターゲットビット量と実際に発生した
符号量をもとにマクロブロック毎の量子化ステップパラ
メータの参照値を設定する。 マクロブロック毎の画像の特徴に応じて、上記量子化
ステップパラメータの参照値を変化させ、最終的なマク
ロブロック毎の量子化ステップパラメータを決定する。
Next, the quantization control method in the conventional example will be described. FIG. 7 is a diagram for explaining an example of the quantization control method in the conventional example. In this conventional example, basically, 1 GOP period is adopted as the reference fixed rate period and 1 macroblock period is adopted as the reference control period. The quantization control is performed in the following procedure. Estimate the bit amount (target bit amount) that can be used in the encoding of the next picture. The reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actually generated code amount. The reference value of the quantization step parameter is changed according to the feature of the image for each macroblock, and the final quantization step parameter for each macroblock is determined.

【0017】以下、詳細に述べる。前記第1の手順とし
て、次のピクチャの符号化で使用可能なビット量を推定
する。この作業にあたり複雑度という概念を導入する。
本従来例において、複雑度は各ピクチャタイプに対して
定義される。また、複雑度は1つのピクチャを符号化す
るたびに更新される。実際には、該符号化されるピクチ
ャはある特定のピクチャタイプを持つため、1つのピク
チャが符号化されるたびに1つの複雑度が更新されるこ
とになる。第gGOPの第fピクチャを符号化する直前
のIピクチャの複雑度Xi(g,f),Pピクチャの複雑度Xp
(g,f),Bピクチャの複雑度Xb(g,f)は以下のように定義
される。 Xi(g,f) = Si(s,x) × Qi(s,x) Xp(g,f) = Sp(t,y) × Qp(t,y) Xb(g,f) = Sb(u,z) × Qb(u,z)
The details will be described below. As the first procedure, the amount of bits that can be used in encoding the next picture is estimated. Introducing the concept of complexity in this work.
In this conventional example, complexity is defined for each picture type. Also, the complexity is updated every time one picture is encoded. In reality, since the coded picture has a certain picture type, one complexity will be updated each time one picture is coded. Immediately before encoding the f-th picture of the g-th GOP, the complexity Xi (g, f) of the I picture and the complexity Xp of the P picture
The complexity Xb (g, f) of (g, f) and B picture is defined as follows. Xi (g, f) = Si (s, x) × Qi (s, x) Xp (g, f) = Sp (t, y) × Qp (t, y) Xb (g, f) = Sb (u , z) × Qb (u, z)

【0018】このとき、Si(s,x) は、最も近い過去に存
在したIピクチャである第sGOPの第xピクチャにお
ける実際の発生符号量、Sp(t,y) は、最も近い過去に存
在したPピクチャである第tGOPの第yピクチャにお
ける実際の発生符号量、Sb(u,z) は、最も近い過去に存
在したBピクチャである第uGOPの第zピクチャにお
ける実際の発生符号量である。(このとき、上記3つの
ピクチャのいずれかは第gGOPの第f−1ピクチャに
該当しているはずである。)また、Qi(s,x),Qp(t,y),Qb
(u,z) は、上記3つのピクチャにおける実際の量子化ス
テップパラメータの平均値である。
At this time, Si (s, x) is the actual amount of generated code in the xth picture of the sGOP, which is the I picture that existed in the closest past, and Sp (t, y) is in the closest past. Sb (u, z) is the actual amount of generated code in the y-th picture of the t-th GOP, which is the P-picture, and is the actual amount of generated code in the z-th picture of the u-th GOP, which is the closest B picture that existed in the past. . (At this time, one of the above three pictures should correspond to the f-1th picture of the gGOP.) Also, Qi (s, x), Qp (t, y), Qb
(u, z) is the average value of the actual quantization step parameters in the above three pictures.

【0019】上記複雑度をもとに、第gGOPの第fピ
クチャのターゲットビット量T(g,f)は以下のように推定
される。
Based on the complexity, the target bit amount T (g, f) of the f-th picture of the g-th GOP is estimated as follows.

【0020】[0020]

【数1】 [Equation 1]

【0021】である。また、R(g,f)は、第gGOPの第
fピクチャを符号化する直前の第gGOPに割り当てら
れた残りのトータルビット数であり、各ピクチャの符号
化後に以下のように更新される。 R(g,f) = R(g,1) - { S(g,1) + S(g,2) + … + S(g,f-
1) } ここで、S(g,f-1)は第gGOPの第f−1ピクチャにお
ける実際の発生符号量を表わす。また、GOPの先頭ピ
クチャを符号化する前に以下の計算を行う。 R(g+1,1) = G + R(g,f+1) G = BIT_RATE × ( F / PICTURE_RATE ) このとき、 F : GOPあたりのピクチャ数 であり、シーケンスの先頭では、R(1,1)=G とする。ま
た、Fp(g,f) およびFb(g,f)は、第gGOPの第fピク
チャを符号化する直前における現GOPにて符号化され
ずに残っているPピクチャとBピクチャのピクチャ数を
示す。
[0021] R (g, f) is the total number of remaining bits allocated to the g-th GOP immediately before the f-th picture of the g-th GOP is coded, and is updated as follows after the coding of each picture. R (g, f) = R (g, 1)-{S (g, 1) + S (g, 2) +… + S (g, f-
1)} Here, S (g, f-1) represents the actual generated code amount in the (f-1) th picture of the gth GOP. Further, the following calculation is performed before the head picture of the GOP is encoded. R (g + 1,1) = G + R (g, f + 1) G = BIT_RATE × (F / PICTURE_RATE) At this time, F is the number of pictures per GOP, and R (1, 1) = G Further, Fp (g, f) and Fb (g, f) are the number of pictures of the P picture and the B picture that remain unencoded in the current GOP immediately before encoding the fth picture of the gth GOP. Show.

【0022】次に、前記第2の手順として、推定された
ターゲットビット量と実際の発生符号量に基づき、マク
ロブロック毎の量子化ステップパラメータの参照値を設
定する。参照値設定にあたり仮想バッファを想定する。
仮想バッファは、概略的には、上記ターゲットビット量
と実際の発生符号量の差を蓄積するバッファである。仮
想バッファは、各ピクチャに対して想定される。すなわ
ち、該ピクチャがIピクチャならば、対応するIピクチ
ャ用の仮想バッファが、該ピクチャがPピクチャなら
ば、対応するPピクチャ用の仮想バッファが、該ピクチ
ャがBピクチャならば、対応するBピクチャ用の仮想バ
ッファが使用され、該仮想バッファのバッファ占有率が
変更される。たとえば、第gGOPの第fピクチャのピ
クチャタイプがIピクチャならば、Iピクチャ用の仮想
バッファの第gGOPの第fピクチャの第mマクロブロ
ックを符号化する直前の占有率di(g,f,m) は、以下のよ
うに定義される。 di(g,f,m) = di(g,f,1)+ B(g,f,1) + B(g,f,2) + …
+ B(g,f,m-1)- { T(g,f) × ( (m-1) / MB_cnt ) } このとき、 MB_cnt : ピクチャあたりのマクロブロック数 であり、また、B(g,f,m-1)は、第gGOPの第fピクチ
ャの第m−1マクロブロックでの実際の発生符号量であ
る。di(g,f,1) は、最も近い過去に存在した同タイプの
ピクチャである第aGOPの第bピクチャにおけるバッ
ファ占有率di(a,b,MB_cnt+1)が採用される。また、Pピ
クチャ用の仮想バッファの占有率dp(g,f,m) 、Bピクチ
ャ用の仮想バッファ占有率db(g,f,m) も同様に、ピクチ
ャタイプに応じ更新される。
Next, as the second procedure, the reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actual generated code amount. A virtual buffer is assumed when setting the reference value.
The virtual buffer is a buffer that roughly stores the difference between the target bit amount and the actual generated code amount. A virtual buffer is assumed for each picture. That is, if the picture is an I picture, the virtual buffer for the corresponding I picture is, if the picture is a P picture, the virtual buffer for the corresponding P picture is, and if the picture is a B picture, the corresponding B picture is Is used, and the buffer occupancy of the virtual buffer is changed. For example, if the picture type of the f-th picture of the g-th GOP is an I-picture, the occupation ratio di (g, f, m immediately before encoding the m-th macroblock of the f-th picture of the g-th GOP of the virtual buffer for I-pictures. ) Is defined as follows. di (g, f, m) = di (g, f, 1) + B (g, f, 1) + B (g, f, 2) +…
+ B (g, f, m-1)-{T (g, f) × ((m-1) / MB_cnt)} where MB_cnt is the number of macroblocks per picture, and B (g, f, m-1) f, m-1) is the actual generated code amount in the m-1th macroblock of the fth picture of the gth GOP. For di (g, f, 1), the buffer occupancy ratio di (a, b, MB_cnt + 1) in the b-th picture of the a-th GOP, which is the picture of the same type that existed in the closest past, is adopted. Further, the occupancy rate dp (g, f, m) of the virtual buffer for the P picture and the occupancy rate db (g, f, m) of the virtual buffer for the B picture are similarly updated according to the picture type.

【0023】上記仮想バッファ占有率di(g,f,m),dp(g,
f,m),db(g,f,m) に基づき、第gGOPの第fピクチャ
の第mマクロブロックの量子化ステップパラメータの参
照値Qr(g,f,m)は以下のように算出される。 If (第gGOPの第fピクチャがIピクチャ) Then Qr(g,f,m) = ( di(g,f,m) / VB ) × 31 If (第gGOPの第fピクチャがPピクチャ) Then Qr(g,f,m) = ( dp(g,f,m) / VB ) × 31 If (第gGOPの第fピクチャがBピクチャ) Then Qr(g,f,m) = ( db(g,f,m) / VB ) × 31 このとき、 VB:仮想バッファ容量 である。
The virtual buffer occupancy ratios di (g, f, m), dp (g,
Based on f, m) and db (g, f, m), the reference value Qr (g, f, m) of the quantization step parameter of the m-th macroblock of the f-th picture of the g-th GOP is calculated as follows. It If (the f-th picture of the g-th GOP is an I-picture) Then Qr (g, f, m) = (di (g, f, m) / VB) × 31 If (the f-th picture of the g-th GOP is a P-picture) Then Qr (g, f, m) = (dp (g, f, m) / VB) × 31 If (the f-th picture of the g-th GOP is a B-picture) Then Qr (g, f, m) = (db (g, f , m) / VB) × 31 At this time, VB: virtual buffer capacity.

【0024】次に前記第3の手順として、上記Qr(g,f,
m) に基づき、最終的なマクロブロック毎の量子化ステ
ップパラメータを決定する。本実施例では、マクロブロ
ック毎の原信号のパワーに基づき適応量子化係数K(g,f,
m)を求め、以下のように最終的なマクロブロック毎の量
子化ステップパラメータQ(g,f,m)を算出する。 Q(g,f,m) = Qr(g,f,m) × K(g,f,m)
Next, as the third procedure, the above Qr (g, f,
Based on m), the final quantization step parameter for each macroblock is determined. In the present embodiment, the adaptive quantization coefficient K (g, f,
m) is obtained, and the final quantization step parameter Q (g, f, m) for each macroblock is calculated as follows. Q (g, f, m) = Qr (g, f, m) × K (g, f, m)

【0025】[0025]

【発明が解決しようとする課題】従来の映像信号符号化
方式における量子化制御方式は、基本的に画面を一括し
て周期的リフレッシュを行う場合を主対象としており、
画面を分割して周期的リフレッシュを行う場合を対象と
して最適化されていない。また、複雑度および量子化ス
テップパラメータの算出手法も定量的に最適ではない。
The quantization control method in the conventional video signal coding method is mainly intended for the case where the screen is collectively refreshed periodically.
It is not optimized for the case of dividing the screen and performing periodic refresh. Moreover, the calculation method of the complexity and the quantization step parameter is not quantitatively optimal.

【0026】本発明は上記のような問題点を解消するた
めになされたもので、画面分割リフレッシュ方式に適し
た量子化制御方式、定量的性質に基づく量子化制御方式
を得ることを目的とする。
The present invention has been made to solve the above problems, and an object thereof is to obtain a quantization control method suitable for the screen division refresh method and a quantization control method based on quantitative properties. .

【0027】[0027]

【課題を解決するための手段】本発明の請求項1に係わ
る映像信号符号化方法は、複数のブロックからなる画像
を、前記ブロック毎に画像内変換符号化または画像間予
測符号化のいずれかの符号化方法を適用して符号化する
映像信号符号化方法であって、画像の絵柄の複雑度を表
す画像内信号パワー、および動きの複雑度を表す画像間
信号パワーの両方を前記ブロック毎に求め、現フレーム
画像内変換符号化を適用する前記ブロックについては
当該ブロックについて1フレーム以前に求めた前記画像
内信号パワーを用いて複雑度を予測し、現フレームの画
像間予測符号化を適用するブロックについては当該ブロ
ックについて1フレーム以前に求めた前記画像間信号パ
ワーを用いて複雑度を予測し、予測された複雑度の一画
面分の総和と、単一のまたは複数の前記ブロックからな
る一画面内の各領域における予測された複雑度との比に
基づいて、現フレームの前記各領域において使用可能な
ビット量を推定し、推定されたビット量と実際に発生し
た符号量との差に基づいて現フレームの前記各領域にお
ける量子化ステップを設定するものである。
According to a first aspect of the present invention, there is provided a video signal coding method, wherein an image composed of a plurality of blocks is subjected to either intra-picture transform coding or inter-picture predictive coding for each block. of a video signal encoding method for encoding by applying an encoding method, image signal power represent the complexity of the image of the picture, and pre-Symbol both inter-image signal power representing the complexity of the motion block For each of the blocks to which the intra-picture transform coding of the current frame is applied,
The image obtained one frame before for the block
The complexity is predicted using the internal signal power, and the
For blocks to which inter-picture predictive coding is applied,
The inter-image signal pattern obtained one frame before
Using word to predict the complexity of predicted complexity Ichikaku
The sum of face areas and the single or multiple blocks
On the basis of the ratio of the predicted complexity of each region within one screen that, with the estimated amount of bits available in each area, the estimated amount of bits actually generated code amount of the current frame it is for setting the quantization step in each region of the current frame based on the difference.

【0028】また、画像内変換符号化および画像間予測
符号化を適用するブロックが混在する領域については、
当該領域に含まれる各ブロックの複雑度、ならびに当該
領域において画像内変換符号化、および画像間変換符号
化を適用するブロックの数に基づいて複雑度を予測する
ものである。
Further, the area where the block are mixed to apply image transform coding and inter-picture predictive coding,
The complexity of each block included in the area, and
Intra-picture transform coding and inter-picture transform coding in the domain
The complexity is predicted based on the number of blocks to which the optimization is applied .

【0029】[0029]

【0030】[0030]

【作用】本発明の請求項1における映像信号符号化方法
は、前の画像に基づいて領域毎に予測される複雑度か
ら、各領域において使用可能なビット量を推定し、推定
されたビット量と実際に発生した符号量との差に基づい
て、各領域の量子化ステップを設定する。
The video signal coding method according to claim 1 of the present invention is the complexity predicted for each region based on the previous image.
The amount of bits available in each region
Based on the difference between the amount of bits generated and the amount of codes actually generated
Then, the quantization step of each area is set.

【0031】本発明の請求項2における映像信号符号化
方法は、画像内変換符号化および画像間予測符号化を適
用するブロックが混在する領域については、当該領域に
含まれる各ブロックの複雑度、ならびに当該領域におい
て画像内変換符号化、および画像間変換符号化を適用す
るブロックの数に基づいて複雑度を予測する。
In the video signal coding method according to the second aspect of the present invention, an area in which blocks to which intra-picture transform coding and inter-picture predictive coding are applied coexist is set in the area.
The complexity of each included block, and the area
To apply intra-picture transform coding and inter-picture transform coding.
Predict complexity based on the number of blocks

【0032】[0032]

【0033】[0033]

【実施例】【Example】

実施例1.以下、本発明の第1の実施例について説明す
る。図2は本発明の第1の実施例における量子化制御方
式の一例を説明するための概略ブロック図である。図に
おいて、入力端子1aから入力された平均画像間信号パ
ワー201は、ターゲット複雑度算出回路3aの第1の
入力に、入力端子1bから入力された平均画像内信号パ
ワー202は、ターゲット複雑度算出回路3aの第2の
入力に、入力端子1cから入力された参照量子化ステッ
プパラメータ203は、ターゲット複雑度算出回路3a
の第3の入力に、入力端子1dから入力されたタイプ識
別信号204は、ターゲット複雑度算出回路3aの第4
の入力に、入力端子1eから入力された量子化に依存し
ない発生符号量205は、ターゲット複雑度算出回路3
aの第5の入力に与えられる。ターゲット複雑度算出回
路3aの出力206は、ターゲットビット量算出回路4
aの第1の入力に、入力端子1fから入力されたバッフ
ァ残量207は、ターゲットビット量算出回路4aの第
2の入力に与えられる。ターゲットビット量算出回路4
aの出力であるターゲットビット量208は、仮想バッ
ファ残量算出回路5aの第1の入力に、入力端子1gか
ら入力された発生符号量209は、仮想バッファ残量算
出回路5aの第2の入力に与えられる。仮想バッファ残
量算出回路5aの出力210は、量子化ステップパラメ
ータ算出回路6aの入力に与えられる。量子化ステップ
パラメータ算出回路6aの出力である参照量子化ステッ
プパラメータ211は、適応量子化回路7aの第1の入
力に与えられる。適応量子化回路7aの第2の入力に
は、入力端子1hより、適応量子化係数212が与えら
れる。適応量子化回路7aの出力であるマクロブロック
単位の量子化ステップパラメータ213は、出力端子2
aより出力される。
Example 1. The first embodiment of the present invention will be described below. FIG. 2 is a schematic block diagram for explaining an example of the quantization control system in the first embodiment of the present invention. In the figure, the average inter-image signal power 201 input from the input terminal 1a is the first input of the target complexity calculation circuit 3a, and the average intra-image signal power 202 input from the input terminal 1b is the target complexity calculation The reference quantization step parameter 203 input from the input terminal 1c to the second input of the circuit 3a is the target complexity calculation circuit 3a.
The type identification signal 204 input from the input terminal 1d is input to the third input of the target complexity calculation circuit 3a.
The generated code amount 205 independent of the quantization input from the input terminal 1e is input to the target complexity calculation circuit 3
provided to the fifth input of a. The output 206 of the target complexity calculation circuit 3a is the target bit amount calculation circuit 4
The buffer remaining amount 207 input from the input terminal 1f to the first input of a is supplied to the second input of the target bit amount calculation circuit 4a. Target bit amount calculation circuit 4
The target bit amount 208 that is the output of a is the first input of the virtual buffer remaining amount calculation circuit 5a, and the generated code amount 209 that is input from the input terminal 1g is the second input of the virtual buffer remaining amount calculation circuit 5a. Given to. The output 210 of the virtual buffer remaining amount calculation circuit 5a is given to the input of the quantization step parameter calculation circuit 6a. The reference quantization step parameter 211, which is the output of the quantization step parameter calculation circuit 6a, is given to the first input of the adaptive quantization circuit 7a. The adaptive quantization coefficient 212 is given to the second input of the adaptive quantization circuit 7a from the input terminal 1h. The quantization step parameter 213 for each macroblock, which is the output of the adaptive quantization circuit 7a, is output to the output terminal 2
It is output from a.

【0034】図3は本発明の第1の実施例における量子
化制御方式で参照される複雑度と発生符号量の概略関係
を示す図である。
FIG. 3 is a diagram showing a schematic relationship between the complexity referred to in the quantization control method and the generated code amount in the first embodiment of the present invention.

【0035】以下、動作について説明する。近年、映像
信号の高能率符号化装置の開発は、HDTV信号を始め
とする高解像度なシステムの開発に移行しつつある。こ
のとき、高解像度システムは、必然的に高速な処理を要
求することになる。一般には、並列処理を採用すること
により、高速性を補うことになる。
The operation will be described below. In recent years, the development of high-efficiency coding apparatus for video signals has been shifting to the development of high-resolution systems including HDTV signals. At this time, the high-resolution system inevitably requires high-speed processing. Generally, by adopting parallel processing, high speed performance is supplemented.

【0036】図1は第1の実施例における映像信号の主
要階層構造を示す図である。図1(b)は、図1(a)
におけるピクチャを縦にS個に分割している図である。
このとき、分割されたS個の領域を各々サブピクチャと
呼び、各サブピクチャが並列処理を行う単位となる。
尚、サブピクチャの分割領域はこの例のみに従うもので
はない。図1(c)は、各サブピクチャを更に各々L個
に分割している図である。このとき、各サブピクチャ内
において、分割されたL個の領域を各々GOB(Gro
up of Block)と呼ぶ。尚、GOBの分割領
域はこの例にのみ従うものではない。また、図1(d)
のように、各サブピクチャの同じ位置に存在するGOB
を総括してスライスと呼ぶ。尚、GOBの下位の階層と
して、従来例と同様に、マクロブロックおよびブロック
が存在する。
FIG. 1 is a diagram showing a main hierarchical structure of a video signal in the first embodiment. FIG. 1B is the same as FIG.
FIG. 7 is a diagram in which a picture in is vertically divided into S pieces.
At this time, each of the S divided areas is called a sub-picture, and each sub-picture becomes a unit for performing parallel processing.
It should be noted that the divided area of the sub-picture is not limited to this example. FIG. 1C is a diagram in which each sub-picture is further divided into L pieces. At this time, in each sub-picture, each of the L divided areas is GOB (Gro).
Up of Block). It should be noted that the GOB division area does not follow only this example. Also, FIG. 1 (d)
Such as GOB that exists in the same position in each sub-picture
Are collectively called a slice. As in the conventional example, there are macroblocks and blocks as lower layers of GOB.

【0037】並列処理の場合においても、画面内の位置
に依存する画質劣化を生じさせないために、量子化制御
は、各サブピクチャを一括して、すなわちピクチャとし
て扱う必要がある。このとき、基本的に、各サブピクチ
ャの同じ位置に存在するGOBが、同時刻に処理される
場合には、量子化制御は、スライス単位で処理されるこ
とになる。尚、スライスは、同時刻に処理される領域を
一括することが目的であり、分割領域はこの例にのみ従
うものではない。
Even in the case of parallel processing, in order to prevent deterioration of image quality depending on the position on the screen, the quantization control needs to treat all sub-pictures collectively, that is, as a picture. At this time, basically, when GOBs existing at the same position in each sub-picture are processed at the same time, the quantization control is processed in slice units. It should be noted that the slice is for the purpose of collectively processing the regions processed at the same time, and the divided regions do not follow only this example.

【0038】図2は本発明の第1の実施例における量子
化制御方式の一例を説明するための図であり、本実施例
は、基本的には基準固定レート期間として1ピクチャ期
間を、基準制御期間として1スライス期間を採用してお
り、量子化制御は上記主要階層構造に基づき、以下の手
順にて行われる。 次のピクチャの各スライスの符号化で使用可能なビッ
ト量(ターゲットビット量)を推定する。 上記推定されたターゲットビット量と実際に発生した
符号量をもとにマクロブロック毎の量子化ステップパラ
メータの参照値を設定する。 マクロブロック毎の画像の特徴に応じて、上記量子化
ステップパラメータの参照値を変化させ、最終的なマク
ロブロック毎の量子化ステップパラメータを決定する。
FIG. 2 is a diagram for explaining an example of the quantization control method in the first embodiment of the present invention. In this embodiment, basically, one picture period is used as a reference fixed rate period, One slice period is adopted as the control period, and the quantization control is performed according to the following procedure based on the main hierarchical structure. Estimate the bit amount (target bit amount) that can be used for encoding each slice of the next picture. The reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actually generated code amount. The reference value of the quantization step parameter is changed according to the feature of the image for each macroblock, and the final quantization step parameter for each macroblock is determined.

【0039】本実施例では、並列処理を行う場合、ある
いは画面を分割して周期的リフレッシュを行う場合をも
考慮する。そのため、本実施例においては、GOBを基
本単位として説明する。
In this embodiment, the case of performing parallel processing or the case of dividing a screen and performing periodic refreshing is also considered. Therefore, in this embodiment, GOB will be described as a basic unit.

【0040】以下、詳細に述べる。前記第1の手順とし
て、次のピクチャの各スライスの符号化で使用可能なビ
ット量を推定する。この作業にあたり、本実施例では、
各GOBに対し、絵柄ターゲット複雑度と動きターゲッ
ト複雑度の二者を定義する。絵柄ターゲット複雑度は、
画像内信号パワーに基づき定義されるターゲット複雑度
であり、動きターゲット複雑度は、画像間信号パワーに
基づき定義される複雑度である。
The details will be described below. As the first procedure, the amount of bits that can be used for encoding each slice of the next picture is estimated. For this work, in this embodiment,
For each GOB, a pattern target complexity and a motion target complexity are defined. The pattern target complexity is
The target complexity is defined based on the intra-image signal power, and the motion target complexity is the complexity defined based on the inter-image signal power.

【0041】画像内信号パワーEintは、たとえば、マク
ロブロック単位に以下のように定義される。該マクロブ
ロックサイズをP(画素)×Q(ライン)とし、該マク
ロブロックの(p,q)成分の信号値をV(p,q)と
したとき、 P,Q:マクロブロックのサイズを表わす定数 p,q:マクロブロック内の位置を表わす変数
The image signal power Eint is defined as follows, for example, in macroblock units. When the macroblock size is P (pixels) × Q (lines) and the signal value of the (p, q) component of the macroblock is V (p, q), P, Q: represents the size of the macroblock Constants p and q: variables that represent positions within the macroblock

【0042】[0042]

【数2】 [Equation 2]

【0043】とする。尚、画像内信号パワーEintは、入
力画像の絵柄の複雑度を表わす指標であれば、特に上記
定義に従わなくてもよい。たとえば、入力信号を変換符
号化し、変換係数毎に特定の量子化を施した後の直流成
分を除く変換係数の絶対値和あるいは絶対値二乗和等で
もよい。
It is assumed that The in-image signal power Eint does not have to comply with the above definition as long as it is an index indicating the complexity of the pattern of the input image. For example, the absolute value sum or the absolute value sum of squares of the conversion coefficients excluding the DC component after the input signal is subjected to the conversion coding and the specific quantization is performed for each conversion coefficient may be used.

【0044】画像間信号パワーEmc は、たとえば、マク
ロブロック単位に以下のように定義される。該マクロブ
ロックサイズをP×Qとし、該マクロブロックの(p,
q)成分の信号値をV(p,q)とし、該マクロブロッ
クの動き補償予測ブロックの(p,q)成分の信号値を
R(p,q)としたとき、
The inter-picture signal power Emc is defined as follows, for example, in macroblock units. The macroblock size is P × Q, and (p,
When the signal value of the q) component is V (p, q) and the signal value of the (p, q) component of the motion compensation prediction block of the macroblock is R (p, q),

【0045】[0045]

【数3】 [Equation 3]

【0046】とする。尚、画像間信号パワーEmc は、入
力画像の動きの複雑度を表わす指標であれば、特に上記
定義に従わなくてもよい。たとえば、動き補償予測後の
信号を変換符号化し、変換係数毎に特定の量子化を施し
た後の絶対値和あるいは絶対値二乗和等でもよい。
It is assumed that The inter-image signal power Emc does not have to comply with the above definition as long as it is an index representing the complexity of the movement of the input image. For example, the sum of absolute values or the sum of absolute values squared after transform-encoding the signal after motion compensation prediction and performing specific quantization for each transform coefficient may be used.

【0047】第fピクチャの第スライスの第sサブピ
クチャの絵柄ターゲット複雑度Yint(f,h,s)および動き
ターゲット複雑度Ymc(f,h,s)は、関数fintおよび関数fm
cを用いて、以下のように定義される。 Yint(f,h,s) = fint( GOBaverage_Eint(f-1,h,s), Q(f,
h,s) ) Ymc (f,h,s) = fmc( GOBaverage_Emc (f-1,h,s), Q(f,
h,s), Sv(fー1,h,s) ) このとき、GOBaverage_Eint(f-1,h,s)およびGOBaverage
_Emc(f-1,h,s) は、第f−1ピクチャの第スライスの
第sサブピクチャの平均Eintおよび平均Emc であり、Q
(f,h,s)は、第fピクチャの第スライスの第sサブピ
クチャで実際に使用された量子化ステップパラメータの
平均値であり、Sv(fー1,h,s) は、第fー1ピクチャの第
スライスの第sサブピクチャで実際に発生した符号量
のうち量子化に依存しない符号量である。Sv(f,h,s)
は、たとえば、マクロブロックのアドレスや量子化ステ
ップパラメータや動き補償における動きベクトルの情報
など、量子化を行わない情報の符号量を示す。なお、Sv
(f,h,s) の概算値として、動き補償における動きベクト
ルの符号量のみを用いてもよい。また、ハードウェア構
成による遅延により、GOBaverage_Eint(f-1,h,s)あるい
はGOBaverage_Emc (f-1,h,s)、またはSv(f-1,h,s) が使
用できない場合には、以下のように定義される。 Yint(f,h,s) = fint( GOBaverage_Eint(f-2,h,s), Q(f,
h,s) ) Ymc (f,h,s) = fmc( GOBaverage_Emc (f-2,h,s), Q(f,
h,s), Sv(f-2,h,s) )
[0047] The s sub-picture of the picture target complexity Yint of the h slice of the f picture (f, h, s) and the motion target complexity Ymc (f, h, s) is a function fint and functions fm
It is defined as follows using c. Yint (f, h, s) = fint (GOBaverage_Eint (f-1, h, s), Q (f,
h, s)) Ymc (f, h, s) = fmc (GOBaverage_Emc (f-1, h, s), Q (f,
h, s), Sv (f-1, h, s)) At this time, GOBaverage_Eint (f-1, h, s) and GOBaverage
_Emc (f-1, h, s) is the average Eint and the average Emc of the s-th sub-picture of the h-th slice of the (f-1) -th picture, and Q
(f, h, s) is the average value of the quantization step parameters actually used in the s-th sub-picture of the h-th slice of the f-th picture, and Sv (f-1, h, s) is the f-1 picture number
This is a code amount that does not depend on quantization among the code amounts actually generated in the s-th sub-picture of the h slice. Sv (f, h, s)
Indicates the code amount of information that is not quantized, such as the address of a macroblock, the quantization step parameter, and the information of a motion vector in motion compensation. In addition, Sv
As the approximate value of (f, h, s), only the code amount of the motion vector in motion compensation may be used. If GOBaverage_Eint (f-1, h, s) or GOBaverage_Emc (f-1, h, s) or Sv (f-1, h, s) cannot be used due to the delay due to the hardware configuration, Is defined as Yint (f, h, s) = fint (GOBaverage_Eint (f-2, h, s), Q (f,
h, s)) Ymc (f, h, s) = fmc (GOBaverage_Emc (f-2, h, s), Q (f,
h, s), Sv (f-2, h, s))

【0048】上記定義において、関数fint及びfmc は、
以下のように定められる。図3(a)は、第fピクチャ
の第スライスの第sサブピクチャのGOBaverage_Eint
(f,h,s) と上記GOBを画像内符号化した場合の発生符
号量Sint(f,h,s)の概略関係を示す図である。図より明
らかなように、GOBaverage_Eint(f,h,s)とQ(f,h,s)から
Sint(f,h,s) を推定することが可能である。この推定発
生符号量が絵柄ターゲット複雑度Yintである。また、図
3(b)と図3(c)は、第fピクチャの第スライス
の第sサブピクチャのGOBaverage_Emc(f,h,s) と上記G
OBを画像間符号化した場合の発生符号量Smc(f,h,s)の
概略関係を示す図である。図3(b)は、発生符号量Sm
c(f,h,s)のうち、動き補償における動きベクトルの符号
量など量子化ステップパラメータQ(f,h,s)に依存しない
符号量Sv(f,h,s) の占める割合が少ない場合を示し、図
3(c)は、発生符号量Smc(f,h,s)のうち、量子化に依
存しない符号量Sv(f,h,s)の占める割合が多い場合を示
している。従って、Smc(f,h,s)はGOBaverage_Emc(f,h,
s)とQ(f,h,s)とSv(f,h,s)から推定可能であり、この推
定発生符号量が動きターゲット複雑度Ymcである。関数f
intおよびfmcは、上記定量的性質に基づき定められる。
In the above definition, the functions fint and fmc are
It is defined as follows. 3 (a) shows, GOBaverage_Eint of the s sub-picture of the first h slice of the f picture
It is a figure which shows the schematic relationship of (f, h, s) and the generated code amount Sint (f, h, s) when the said GOB is intra-coded. As is clear from the figure, from GOBaverage_Eint (f, h, s) and Q (f, h, s)
It is possible to estimate Sint (f, h, s). This estimated generated code amount is the pattern target complexity Yint. 3B and 3C show GOBaverage_Emc (f, h, s) of the s-th sub-picture of the h-th slice of the f-th picture and the above G.
It is a figure which shows the schematic relationship of the generation | occurrence | production code amount Smc (f, h, s) at the time of encoding OB between images. FIG. 3B shows the generated code amount Sm.
Of c (f, h, s), the proportion of the code amount Sv (f, h, s) that does not depend on the quantization step parameter Q (f, h, s) such as the motion vector code amount in motion compensation is small. FIG. 3C shows a case where the code amount Sv (f, h, s) independent of the quantization occupies a large proportion of the generated code amount Smc (f, h, s). . Therefore, Smc (f, h, s) is GOBaverage_Emc (f, h, s
s), Q (f, h, s) and Sv (f, h, s), and the estimated generated code amount is the motion target complexity Ymc. Function f
int and fmc are defined based on the above quantitative properties.

【0049】ところで、本実施例では、周期的リフレシ
ュとして、画面一括リフレシュと画面分割リフレシュの
両者を想定している。また、画面分割リフレシュ領域
は、スライス単位であると仮定する。すなわち、スライ
ス単位で、画像内符号化される場合が存在すると考えて
よい。
By the way, in the present embodiment, both the screen batch refresh and the screen division refresh are assumed as the periodic refresh. Further, it is assumed that the screen division refresh area is a slice unit. That is, it may be considered that there are cases where intra-picture coding is performed in slice units.

【0050】以上を踏まえ、最終的な第fピクチャの第
スライスの第sサブピクチャのターゲット複雑度Y(f,
h,s)は、該GOBの属するスライスが画像内符号化スラ
イスであるか否かにより、以下のように定義される。 If (該GOBの属するスライスタイプが画面内符号化
スライスである) Then Y(f,h,s) = Yint(f,h,s) Else Y(f,h,s) = Ymc (f,h,s)
Based on the above, the final f-th picture
Target Complexity Y (f of the s subpictures h slice,
h, s) is defined as follows depending on whether the slice to which the GOB belongs is an intra-picture encoded slice. If (The slice type to which the GOB belongs is an intra-frame coding slice) Then Y (f, h, s) = Yint (f, h, s) Else Y (f, h, s) = Ymc (f, h , s)

【0051】上記各GOBのターゲット複雑度に基づ
き、各スライスのターゲット複雑度が定義される。第f
フレームの第スライスのターゲット複雑度Y(f,h)は、
以下のように定義される。 Y(f,h) = Y(f,h,1)+Y(f,h,2)+…+Y(f,h,S) (S;サ
ブピクチャ数)
The target complexity of each slice is defined based on the target complexity of each GOB. The f
The target complexity Y (f, h) of the h-th slice of the frame is
It is defined as follows. Y (f, h) = Y (f, h, 1) + Y (f, h, 2) + ... + Y (f, h, S) (S; number of subpictures)

【0052】次に、上記各スライスのターゲット複雑度
およびバッファ残量に基づき、次のピクチャの各スライ
スで使用可能なビット量(ターゲットビット量)を推定
する。第fピクチャの各スライスのターゲットビット量
T(f,h)(1≦l≦L)は、第f−1ピクチャの符号化完
了後、以下のように想定される。 T(f,h) = [ Y(f,h) / { Y(f,1)+Y(f,2)+…+Y(f,L) } ]
× [ BIT_RATE/PICTURE_RATE - { BE(f,1) - BIT_RATE
×TE } ]ただし、Y(f,h,s)を求める過程において、Q(f,
h,s)を用いず、Q(f-1,L,s)を用いることとする。これ
は、第fピクチャの各スライスのターゲットビット量を
求める時点、すなわち、第fピクチャを符号化する直前
においては、まだQ(f,h,s)の値が定まっていないからで
ある。また、上式において、 BIT_RATE:伝送レート PICTURE_RATE:1秒あたりのピクチャ数 TE:基準蓄積時間定数 であり、BE(f,h) は、第fピクチャの第スライスを符
号化する直前の送信バッファ残量を示す。
Next, the bit amount (target bit amount) usable in each slice of the next picture is estimated based on the target complexity of each slice and the remaining buffer capacity. Target bit amount of each slice of f-th picture
T (f, h) (1 ≦ l ≦ L) is assumed as follows after the encoding of the f−1th picture is completed. T (f, h) = [Y (f, h) / {Y (f, 1) + Y (f, 2) +… + Y (f, L)}]
× [BIT_RATE / PICTURE_RATE-{BE (f, 1)-BIT_RATE
× TE}] However, in the process of obtaining Y (f, h, s), Q (f,
Q (f-1, L, s) is used instead of h, s). This is because the value of Q (f, h, s) is not yet determined at the time when the target bit amount of each slice of the f-th picture is obtained, that is, immediately before the f-th picture is encoded. In the above equation, BIT_RATE: transmission rate PICTURE_RATE: number of pictures per second TE: reference accumulation time constant, BE (f, h) is the transmission buffer immediately before encoding the h-th slice of the f-th picture. Indicates the remaining amount.

【0053】また、符号化開始直後の初期状態におい
て、すべてのY(f,h)が定義できない場合には、T(f,h)は
以下のように定義される。 T(f,h) = [ 1/L ]× [ BIT_RATE/PICTURE_RATE - { BE
(f,1) - BIT_RATE×TE } ] また、初期状態におけるBE(f,1)は、たとえば、以下の
ように定義する。 BE(f,h) = BIT_RATE/PICTURE_RATE また、ハードウェア構成による遅延により、BE(f,1) が
使用できない場合には、たとえば、使用可能な最新のバ
ッファ残量を使用する。
If all Y (f, h) cannot be defined in the initial state immediately after the start of encoding, T (f, h) is defined as follows. T (f, h) = [1 / L] × [BIT_RATE / PICTURE_RATE-(BE
(f, 1) -BIT_RATE x TE}] Further, BE (f, 1) in the initial state is defined as follows, for example. BE (f, h) = BIT_RATE / PICTURE_RATE When BE (f, 1) cannot be used due to the delay due to the hardware configuration, for example, the latest available buffer remaining capacity is used.

【0054】次に、前記第2の手順として、上記推定さ
れたターゲットビット量と実際に発生した符号量をもと
にマクロブロック毎の量子化ステップパラメータの参照
値を設定する。参照値設定にあたり、仮想バッファを想
定する。仮想バッファは、概略的には、上記ターゲット
ビット量と実際の発生符号量の差を蓄積するバッファで
ある。本実施例では、1つの仮想バッファが想定され
る。第fフレームの第スライスを符号化する直前の仮
想バッファの占有率d(f,h)は、以下のように定義され
る。 d(f,h) = { S(1,1)+S(1,2)+…+S(1,L) +S(2,1)+S(2,2)+…+S(2,L) … +S(f-1,1)+S(f-1,2)+…+S(f-1,L) +S(f,1)+S(f,2)+…+S(f,h-1) } -{ T(1,1)+T(1,2)+…+T(1,L) +T(2,1)+T(2,2)+…+T(2,L) … +T(f-1,1)+T(f-1,2)+…+T(f-1,L) +T(f,1)+T(f,2)+…+T(f,h-1) } このとき、S(f-1,h)は、第fピクチャの第スライスに
おける実際の発生符号量である。
Next, as the second procedure, the reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actually generated code amount. A virtual buffer is assumed when setting the reference value. The virtual buffer is a buffer that roughly stores the difference between the target bit amount and the actual generated code amount. In this embodiment, one virtual buffer is assumed. The occupancy rate d (f, h) of the virtual buffer immediately before encoding the h-th slice of the f-th frame is defined as follows. d (f, h) = {S (1,1) + S (1,2) +… + S (1, L) + S (2,1) + S (2,2) +… + S (2 , L)… + S (f-1,1) + S (f-1,2) +… + S (f-1, L) + S (f, 1) + S (f, 2) +… + S (f, h-1)}-{T (1,1) + T (1,2) +… + T (1, L) + T (2,1) + T (2,2) +… + T (2, L)… + T (f-1,1) + T (f-1,2) +… + T (f-1, L) + T (f, 1) + T (f, 2) + ... + T (f, h-1)} At this time, S (f-1, h) is the actual generated code amount in the h-th slice of the f-th picture.

【0055】また、ハードウェア構成によりS(x,y)が使
用できない場合には、S(x,y)は、たとえば以下のように
定義される。 S(x,y) = Y(x,y) 尚、S(x,y)は使用可能になり次第、本来の値を適用す
る。
When S (x, y) cannot be used due to the hardware configuration, S (x, y) is defined as follows, for example. S (x, y) = Y (x, y) The original value of S (x, y) will be applied as soon as it becomes available.

【0056】上記仮想バッファの占有率を量子化ステッ
プパラメータに対応させることにより量子化ステップパ
ラメータの変更を行う。たとえば、スライス単位に設定
されたターゲットビット量と実際の発生量の差がなけれ
ば、仮想バッファ占有率は変動せず、量子化ステップパ
ラメータは変動しない。仮に、上記二者に差があれば、
仮想バッファ占有率の変動を生じさせ、その変動に応じ
量子化ステップパラメータの修正が施される。たとえ
ば、発生符号量がターゲットビット量を上回った場合、
その差分が仮想バッファ占有率の増加量となる。仮想バ
ッファ占有率は量子化ステップパラメータに対応してお
り、仮想バッファ占有率の増加は、量子化ステップパラ
メータの増加につながる。量子化ステップパラメータの
増加は、以降の発生符号量を減少させることになる。
The quantization step parameter is changed by associating the occupation rate of the virtual buffer with the quantization step parameter. For example, if there is no difference between the target bit amount set for each slice and the actual generation amount, the virtual buffer occupancy does not change and the quantization step parameter does not change. If there is a difference between the above two,
The virtual buffer occupancy changes, and the quantization step parameter is modified according to the change. For example, when the generated code amount exceeds the target bit amount,
The difference is the increase amount of the virtual buffer occupation rate. The virtual buffer occupancy corresponds to the quantization step parameter, and an increase in the virtual buffer occupancy leads to an increase in the quantization step parameter. Increasing the quantization step parameter will reduce the subsequent generated code amount.

【0057】上記仮想バッファ占有率d(f,h)に基づき、
第fピクチャの第スライスの量子化ステップパラメー
タの参照値Qr(f,h) は、関数fqを用いて以下のように算
出される。 Qr(f,h) = fq( d(f,h) ) 関数fqは、たとえば、 Qr(f,h) = 31×{ d(f,h)/r } ただし、 r = BIT_RA
TE/PICTURE_RATE あるいは、Qr(f,h) = 31 d(f,h)/r ただし、 r = BIT_RAT
E/PICTURE_RATE が考えられる。あるいは、発生符号量と量子化ステップ
パラメータの定量的性質に基づき定められる。
Based on the virtual buffer occupancy ratio d (f, h),
The reference value Qr (f, h) of the quantization step parameter of the h-th slice of the f-th picture is calculated as follows using the function fq. Qr (f, h) = fq (d (f, h)) function fq is, for example, Qr (f, h) = 31 × {d (f, h) / r}, where r = BIT_RA
TE / PICTURE_RATE or Qr (f, h) = 31 d (f, h) / r where r = BIT_RAT
E / PICTURE_RATE is possible. Alternatively, it is determined based on the generated code amount and the quantitative property of the quantization step parameter.

【0058】次に前記第3の手順として、上記Qr(f,h)
に基づき、最終的なマクロブロック毎の量子化ステップ
パラメータを決定する。本実施例では、マクロブロック
毎の原信号のパワーに基づき適応量子化係数K(f,h,m)
求め、以下のように最終的なマクロブロック毎の量子化
ステップパラメータQ(f,h,m)を算出する。Q(f,h,m) = Qr(f,h) × K(f,h,m)
Next, as the third procedure, the above Qr (f, h)
Based on, the final quantization step parameter for each macroblock is determined. In this embodiment, the adaptive quantization coefficient K (f, h, m) is calculated based on the power of the original signal for each macroblock, and the final quantization step parameter Q (f, h ) for each macroblock is obtained as follows. , m) is calculated. Q (f, h, m) = Qr (f, h) × K (f, h, m)

【0059】実施例2. 以下、本発明の第2の実施例について説明する。第2の
実施例は、ターゲット複雑度の算出過程が第1の実施例
と異なる。第1の実施例では、暗黙のうちに該GOBを
画像内符号化あるいは画像間符号化の2者に分類し、タ
ーゲット複雑度を算出していた。(このとき、正確には
後者は、画像間符号化と画像内符号化のハイブリッド符
号化である。)しかしながら、実際には、1つのGOB
内に画像内符号化を行うマクロブロックと画像間符号化
を行うマクロブロックが混在する場合もある。これを踏
まえ、第fピクチャの第スライスの第sサブピクチャ
のターゲット複雑度Y(f,h,s) は、関数fintandmcを用い
て、以下のように定義される。 Y(f,h,s) = fintandmc( GOBaverage_Eint(f-1,h,s), Ei
nt_num(f-1,h,s),GOBaverage_Emc (f-1,h,s), Emc_num
(f-1,h,s),Q(f,h,s), Sv(f,h,s) ) このとき、 Eint_num(f-1,h,s):該GOBにおける画像内符号化マ
クロブロック数 Emc_num(f-1,h,s) :該GOBにおける画像間符号化マ
クロブロック数 である。たとえば、関数fintandmc は、第1の実施例の
ように定量的性質に基づき定められる。
Example 2. The second embodiment of the present invention will be described below. The second embodiment differs from the first embodiment in the target complexity calculation process. In the first embodiment, the GOB is implicitly classified into the two types of intra-picture coding and inter-picture coding, and the target complexity is calculated. (At this time, to be exact, the latter is a hybrid coding of inter-picture coding and intra-picture coding.) However, in reality, one GOB is used.
In some cases, macroblocks for intra-picture coding and macroblocks for inter-picture coding may coexist inside. Based on this, the s sub-picture <br/> target complexity Y of the h slice of the f picture (f, h, s), using function Fintandmc, is defined as follows. Y (f, h, s) = fintandmc (GOBaverage_Eint (f-1, h, s), Ei
nt_num (f-1, h, s), GOBaverage_Emc (f-1, h, s), Emc_num
(f-1, h, s), Q (f, h, s), Sv (f, h, s)) At this time, Eint_num (f-1, h, s): intra-picture coding macro in the GOB Number of blocks Emc_num (f-1, h, s): The number of inter-picture coding macroblocks in the GOB. For example, the function fintandmc is defined based on the quantitative property as in the first embodiment.

【0060】実施例3.以下、本発明の第3の実施例に
ついて説明する。この実施例は、ターゲット複雑度算出
の過程が第1の実施例と異なる。
Example 3. The third embodiment of the present invention will be described below. This embodiment differs from the first embodiment in the process of calculating the target complexity.

【0061】図4は本発明の第3の実施例における量子
化制御方式の一例を説明するための概略ブロック図であ
る。図において、入力端子1iから入力された参照量子
化ステップパラメータ401は、ターゲット複雑度算出
回路3bの第1の入力に、入力端子1jから入力された
発生符号量402は、ターゲット複雑度算出回路3bの
第2の入力に、入力端子1kから入力されたタイプ識別
信号403は、ターゲット複雑度算出回路3bの第3の
入力に、入力端子1lから入力された量子化に依存しな
い発生符号量404は、ターゲット複雑度算出回路3b
の第4の入力に与えられる。ターゲット複雑度算出回路
3bの出力405は、ターゲットビット量算出回路4b
の第1の入力に与えられ、入力端子1mから入力された
バッファ残量406は、ターゲットビット量算出回路4
bの第2の入力に与えられる。ターゲットビット量算出
回路4bの出力であるターゲットビット量407は仮想
バッファ残量算出回路5bの第1の入力に、入力端子1
nから入力された発生符号量408は仮想バッファ残量
算出回路5bの第2の入力に与えられる。仮想バッファ
残量算出回路5bの出力409は量子化ステップパラメ
ータ算出回路6bの入力に与えられる。量子化ステップ
パラメータ算出回路6bの出力である参照量子化ステッ
プパラメータ410は、適応量子化回路7bの第1の入
力に与えられる。適応量子化回路7bの第2の入力に
は、入力端子1oより適応量子化回路7bの出力である
マクロブロック単位の量子化ステップパラメータ412
は、出力端子2bより出力される。
FIG. 4 is a schematic block diagram for explaining an example of the quantization control system in the third embodiment of the present invention. In the figure, the reference quantization step parameter 401 input from the input terminal 1i is the first input of the target complexity calculation circuit 3b, and the generated code amount 402 input from the input terminal 1j is the target complexity calculation circuit 3b. The type identification signal 403 input to the second input of the input terminal 1k from the input terminal 1k is generated by the third input of the target complexity calculation circuit 3b. , Target complexity calculation circuit 3b
Given to the fourth input of. The output 405 of the target complexity calculation circuit 3b is the target bit amount calculation circuit 4b.
The remaining buffer capacity 406 given to the first input of the input terminal 1m of the target bit amount calculation circuit 4
applied to the second input of b. The target bit amount 407 output from the target bit amount calculation circuit 4b is input to the first input of the virtual buffer remaining amount calculation circuit 5b at the input terminal 1
The generated code amount 408 input from n is supplied to the second input of the virtual buffer remaining amount calculation circuit 5b. The output 409 of the virtual buffer remaining amount calculation circuit 5b is given to the input of the quantization step parameter calculation circuit 6b. The reference quantization step parameter 410, which is the output of the quantization step parameter calculation circuit 6b, is given to the first input of the adaptive quantization circuit 7b. The second input of the adaptive quantization circuit 7b is a macroblock-based quantization step parameter 412 output from the adaptive quantization circuit 7b from the input terminal 1o.
Is output from the output terminal 2b.

【0062】以下、動作について説明する。第3の実施
例は、ターゲット複雑度算出の過程が第1の実施例と異
なる。第1の実施例と同様に、第1の手順として、次の
ピクチャの各スライスで使用可能なビット量を推定す
る。図5はこの発明の第3の実施例における量子化制御
方式のスライスのタイプの概念図であり、図5(a)は
画面分割周期的リフレッシュの一例を示している。一般
に、ターゲット複雑度の算出は、該GOBと画面上にお
いて同じ位置に存在した過去のピクチャにおけるGOB
の情報を参照して行われる。このとき、画面分割周期的
リフレッシュの場合には、必ずしも上記参照GOBの情
報をそのまま用いることはできない。なぜならば、該G
OBおよび上記参照GOBの属するスライスのタイプ
(たとえば、画像内符号化スライスか否か)によって、
たとえば発生符号量は大きく異なってくる。図5(b)
のように、第3の実施例では、たとえば、3種類のスラ
イスタイプの組合せが考えられる。
The operation will be described below. The third embodiment differs from the first embodiment in the process of calculating the target complexity. Similar to the first embodiment, as the first procedure, the bit amount usable in each slice of the next picture is estimated. FIG. 5 is a conceptual diagram of the slice type of the quantization control method in the third embodiment of the present invention, and FIG. 5A shows an example of screen division periodic refresh. In general, the calculation of the target complexity is performed by the GOB in the past picture existing at the same position on the screen as the GOB.
Refer to the information in. At this time, in the case of the screen division periodic refresh, the information of the reference GOB cannot be used as it is. Because G
Depending on the type of slice to which the OB and the reference GOB belong (for example, whether it is an intra-coded slice or not),
For example, the amount of generated code varies greatly. Figure 5 (b)
As described above, in the third embodiment, for example, a combination of three slice types can be considered.

【0063】以上を踏まえ、第3の実施例では、たとえ
ば以下のように3種類のターゲット複雑度が定義され
る。第fピクチャの第スライスの第sサブピクチャ
イントラ/ノンイントラターゲット複雑度Yint/mc(f,h,
s),ノンイントラ/イントラターゲット複雑度Ymc/int
(f,h,s)およびノンイントラ/ノンイントラターゲット
複雑度Ymc/mc(f,h,s) は、関数fint/mc,関数fmc/intお
よび関数fmc/mcを用いて、以下のように定義される。 Yint/mc(f,h,s) = fint/mc( S(f-1,h,s),Q(f-1,h,s),Q
(f,h,s),Sv(f-1,h,s) ) Ymc/int(f,h,s) = fmc/int( S(f-1,h,s),Q(f-1,h,s),Q
(f,h,s),Sv(f-1,h,s) ) Ymc/mc (f,h,s) = fmc/mc ( S(f-1,h,s),Q(f-1,h,s),Q
(f,h,s),Sv(f-1,h,s) ) このとき、S(f-1,h,s) は、第f−1ピクチャの第
ライスの第sサブピクチャにおける発生符号量であり、
Q(f-1,h,s)は、第f−1ピクチャの第スライスの第s
サブピクチャで実際に使用された量子化ステップパラメ
ータであり、Sv(f-1,h,s) は、第f−1ピクチャの第
スライスの第sサブピクチャにおける量子化に依存しな
い発生符号量である。
Based on the above, in the third embodiment, for example, three types of target complexity are defined as follows. Intra / non-intra target complexity Yint / mc of the s sub-picture of the first h slice of the f picture (f, h,
s), non-intra / intra target complexity Ymc / int
(f, h, s) and non-intra / non-intra target complexity Ymc / mc (f, h, s) can be calculated as follows using function fint / mc, function fmc / int and function fmc / mc. Is defined. Yint / mc (f, h, s) = fint / mc (S (f-1, h, s), Q (f-1, h, s), Q
(f, h, s), Sv (f-1, h, s)) Ymc / int (f, h, s) = fmc / int (S (f-1, h, s), Q (f-1 , h, s), Q
(f, h, s), Sv (f-1, h, s)) Ymc / mc (f, h, s) = fmc / mc (S (f-1, h, s), Q (f-1 , h, s), Q
(f, h, s), Sv (f-1, h, s)) At this time, S (f-1, h, s) is generated in the sth subpicture of the hth slice of the f-1th picture . Is the code amount,
Q (f-1, h, s) is the s-th slice of the h-th slice of the f-1th picture
The quantization step parameter actually used in the sub-picture, Sv (f-1, h, s) is the h -th picture of the f-1th picture.
The generated code amount does not depend on the quantization in the s-th sub- picture of the slice.

【0064】また、ハードウェア構成による遅延によ
り、S(f-1,h,s) あるいはSv(f-1,h,s)が使用できない場
合には、以下のように定義される。 Yint/mc(f,h,s) = fint/mc( S(f-2,h,s),Q(f-2,h,s),Q
(f,h,s),Sv(f-2,h,s) ) Ymc/int(f,h,s) = fmc/int( S(f-2,h,s),Q(f-2,h,s),Q
(f,h,s),Sv(f-2,h,s) ) Ymc/mc (f,h,s) = fmc/mc ( S(f-2,h,s),Q(f-2,h,s),Q
(f,h,s),Sv(f-2,h,s) ) 以上を踏まえ、最終的な第fピクチャの第スライスの
第sサブピクチャのターゲット複雑度Y(f,h,s)は、第f
ピクチャの第スライスの第sサブピクチャのスライス
タイプSliceType(f,h,s)および第f−1ピクチャの第
スライスの第sサブピクチャのスライスタイプSliceTyp
e(f-1,h,s)に応じ、以下のように定義される。 if (SliceType(f-1,h,s)が画像内符号化スライス) &(SliceType(f,h,s)が画像間符号化スライス) then Y(f,h,s) = Yint/mc(f,h,s) if (SliceType(f-1,h,s)が画像間符号化スライス) &(SliceType(f,h,s)が画像内符号化スライス) then Y(f,h,s) = Ymc/int(f,h,s) if (SliceType(f-1,h,s)が画像内符号化スライス) &(SliceType(f,h,s)が画像内符号化スライス) then Y(f,h,s) = Ymc/mc(f,h,s)
If S (f-1, h, s) or Sv (f-1, h, s) cannot be used due to the delay due to the hardware configuration, the following definition is made. Yint / mc (f, h, s) = fint / mc (S (f-2, h, s), Q (f-2, h, s), Q
(f, h, s), Sv (f-2, h, s)) Ymc / int (f, h, s) = fmc / int (S (f-2, h, s), Q (f-2 , h, s), Q
(f, h, s), Sv (f-2, h, s)) Ymc / mc (f, h, s) = fmc / mc (S (f-2, h, s), Q (f-2 , h, s), Q
(f, h, s), Sv (f-2, h, s)) Based on the above, the target complexity Y (f, h, s) of the sth sub-picture of the h-th slice of the final f-th picture Is the f
Slice type SliceType (f, h, s) of the s-th sub-picture of the h-th slice of the picture and the h -th of the f-1th picture
Slice type of slice s sub-picture SliceTyp
It is defined as follows according to e (f-1, h, s). if (SliceType (f-1, h, s) is the intra-picture coding slice) & (SliceType (f, h, s) is the inter-picture coding slice) then Y (f, h, s) = Yint / mc ( f, h, s) if (SliceType (f-1, h, s) is the inter-picture coding slice) & (SliceType (f, h, s) is the intra-picture coding slice) then Y (f, h, s ) = Ymc / int (f, h, s) if (SliceType (f-1, h, s) is the intra-picture coding slice) & (SliceType (f, h, s) is the intra-picture coding slice) then Y (f, h, s) = Ymc / mc (f, h, s)

【0065】上記定義において、関数fint/mc,関数fmc
/intおよび関数fmc/mcは、第1の実施例のように定量的
性質に基づき定められる。
In the above definition, the function fint / mc, the function fmc
/ int and the function fmc / mc are defined based on the quantitative property as in the first embodiment.

【0066】[0066]

【発明の効果】本発明の請求項1に記載の映像信号符号
化方法によれば、前の画像に基づいて領域毎に予測され
る複雑度から、各領域において使用可能なビット量を推
定し、推定されたビット量と実際に発生した符号量との
差に基づいて、各領域の量子化ステップを設定するの
で、領域毎に異なる符号化方法を用いる場合の量子化制
御を適切に行うことができる。また、画像の各領域に適
用される符号化方法に基づいて複雑度を予測するので、
現在の画像と前の画像とで、各領域における符号化方法
が異なる場合であっても、適切な量子化ステップを設定
することができる。
According to the video signal coding method of the first aspect of the present invention, the bit amount usable in each area is estimated from the complexity predicted for each area based on the previous image. , Since the quantization step of each area is set based on the difference between the estimated bit amount and the actually generated code amount, it is necessary to appropriately perform the quantization control when different encoding methods are used for each region. You can Moreover, since the predicted complexity based on the encoding side to be performed on each region of the image,
Even if the current image and the previous image have different encoding methods in each region, an appropriate quantization step can be set.

【0067】また、請求項2に記載の映像信号符号化方
によれば、画像内変換符号化を適用する領域に対して
は画像内信号パワーに基づいて複雑度を予測し、画像間
変換符号化を適用する領域については画像間信号パワー
を用いて前記複雑度を推定するので、ビット量をより正
確に推定することにより、各領域に対して適切な量子化
ステップを設定することができる。
A video signal encoding method according to claim 2
According to the method , for the area to which intra-picture transform coding is applied,
Predicts the complexity based on the signal power in the image, and
Inter-picture signal power for regions to which transform coding is applied
Since the complexity is estimated by using
Proper estimation ensures proper quantization for each region
Steps can be set.

【0068】また、請求項3に記載の映像信号符号化方
によれば、画像内変換符号化、および画像間変換符号
化を適用するブロックの数に基づいて前記領域における
複雑度を予測するので、各領域に異なる符号化方法で符
号化されたブロックが混在する場合であっても、適切な
量子化ステップを設定することができる。 また、請求項
4に記載の映像信号符号化方法によれば、画像の各領域
に適用される符号化方法、および前の画像の各領域に適
用された符号化方法に基づいて複雑度を予測するので、
現在の画像と前の画像とで、各領域における符号化方法
が異なる場合であっても、適切な量子化ステップを設定
することができる。
A video signal encoding method according to claim 3
According to the law, the image transform coding, and inter-picture transform coding
In the region based on the number of blocks to which
It predicts complexity, so each region is coded with a different coding method.
Even if there are mixed encoded blocks,
The quantization step can be set. Also, the claims
According to the video signal coding method described in 4, each area of the image
The encoding method applied to the, and suitable for each region of the previous image.
It predicts complexity based on the encoding method used, so
Encoding method in each area between the current image and the previous image
Set the appropriate quantization step, even if
can do.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における映像信号の主要
階層構造を示す図である。
FIG. 1 is a diagram showing a main hierarchical structure of a video signal according to a first embodiment of the present invention.

【図2】本発明の第1の実施例における量子化制御方式
の一例を説明するための概略ブロック図である。
FIG. 2 is a schematic block diagram for explaining an example of a quantization control method in the first exemplary embodiment of the present invention.

【図3】本発明の第1の実施例における量子化制御方式
で参照される複雑度と発生符号量の概略関係を示す図で
ある。
FIG. 3 is a diagram showing a schematic relationship between complexity and a generated code amount referred to in the quantization control method in the first exemplary embodiment of the present invention.

【図4】本発明の第3の実施例における量子化制御方式
の一例を説明するための概略ブロック図である。
FIG. 4 is a schematic block diagram for explaining an example of a quantization control method in a third exemplary embodiment of the present invention.

【図5】本発明の第3の実施例における量子化制御方式
のスライスのタイプの概念図である。
FIG. 5 is a conceptual diagram of slice types of a quantization control method according to a third embodiment of the present invention.

【図6】従来の映像信号符号化方式を説明するための概
略ブロック図である。
FIG. 6 is a schematic block diagram for explaining a conventional video signal encoding system.

【図7】従来の映像信号符号化方式における量子化制御
方式の一例を説明するための概略ブロック図である。
FIG. 7 is a schematic block diagram for explaining an example of a quantization control method in a conventional video signal encoding method.

【図8】リフレッシュ方式の概念図である。FIG. 8 is a conceptual diagram of a refresh method.

【符号の説明】[Explanation of symbols]

1 入力端子 2 出力端子 3 ターゲット複雑度算出回路 4 ターゲットビット量算出回路 5 仮想バッファ残量算出回路 6 量子化ステップパラメータ算出回路 7 適応量子化回路 9 減算器 10 DCT回路 11 量子化回路 12 逆量子化回路 13 IDCT回路 14 加算器 15 メモリ回路 16 動き補償予測回路 17 切り換え回路 18 可変長符号化回路 19 送信バッファ 20 複雑度算出回路 21 定数発生回路 22 仮想バッファ選択回路 1 input terminal 2 output terminals 3 Target complexity calculation circuit 4 Target bit amount calculation circuit 5 Virtual buffer remaining amount calculation circuit 6 Quantization step parameter calculation circuit 7 Adaptive quantization circuit 9 subtractor 10 DCT circuit 11 Quantization circuit 12 Inverse quantization circuit 13 IDCT circuit 14 adder 15 memory circuit 16 Motion compensation prediction circuit 17 Switching circuit 18 Variable length coding circuit 19 send buffer 20 Complexity calculation circuit 21 Constant generation circuit 22 Virtual buffer selection circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中井 隆洋 長岡京市馬場図所1番地 三菱電機株式 会社 映像システム開発研究所内 (56)参考文献 特開 平5−167998(JP,A) 特開 平4−51689(JP,A) 特開 平5−95536(JP,A) 特開 平5−103315(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 H04N 1/41 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Takahiro Nakai No. 1 Baba Institute, Nagaokakyo City Video System Development Laboratory, Mitsubishi Electric Corporation (56) Reference JP-A-5-167998 (JP, A) JP-A-4 -51689 (JP, A) JP 5-95536 (JP, A) JP 5-103315 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 7/ 24- 7/68 H04N 1/41

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数のブロックからなる画像を、前記ブ
ロック毎に画像内変換符号化または画像間予測符号化の
いずれかの符号化方法を適用して符号化する映像信号符
号化方法であって、 画像の絵柄の複雑度を表す画像内信号パワー、および動
きの複雑度を表す画像間信号パワーの両方を前記ブロッ
ク毎に求め、 現フレームの画像内変換符号化を適用する前記ブロック
については当該ブロックについて1フレーム以前に求め
た前記画像内信号パワーを用いて複雑度を予測し、現フ
レームの画像間予測符号化を適用するブロックについて
は当該ブロックについて1フレーム以前に求めた前記画
像間信号パワーを用いて複雑度を予測し、予測された複
雑度の一画面分の総和と、単一のまたは複数の前記ブロ
ックからなる1画面内の各領域における予測された複雑
度との比に基づいて、現フレームの前記各領域において
使用可能なビット量を推定し、 推定されたビット量と実際に発生した符号量との差に基
づいて現フレームの前記各領域における量子化ステップ
を設定することを特徴とする映像信号符号化方法。
1. A video signal encoding method for encoding an image composed of a plurality of blocks by applying an encoding method of either intra-picture transform encoding or inter-picture predictive encoding for each block. , before both the inter-picture signal power representing the image signal power represent the complexity of the image of the picture, and the complexity of the motion Symbol block
Found for each click, to apply image transform coding of the current frame the block
For the block, ask for the block one frame before
The signal power in the image is used to predict the complexity, and
On blocks to which Laem inter-picture predictive coding is applied
Is the image obtained for the block one frame before
The inter-image signal power is used to predict the complexity, and a single screen sum of the predicted complexity and one or more of the
On the basis of the ratio of the predicted complexity in each region of Tsu 1 screen consisting click, to estimate the amount of bits available in each region of the current frame, actually occurred and the estimated amount of bits code image signal encoding method characterized by based on the difference between the amount for setting the quantization step in each region of the current frame.
【請求項2】 画像内変換符号化および画像間予測符号
化を適用するブロックが混在する領域については、当該
領域に含まれる各ブロックの複雑度、ならびに当該領域
において画像内変換符号化、および画像間変換符号化を
適用するブロックの数に基づいて複雑度を予測すること
を特徴とする請求項1に記載の映像信号符号化方法。
2. Regarding an area in which blocks to which intra-picture transform coding and inter-picture predictive coding are applied are mixed,
The complexity of each block included in the area and the area
Intra-picture transform coding and inter-picture transform coding in
The video signal encoding method according to claim 1, wherein the complexity is predicted based on the number of applied blocks .
JP25834293A 1993-10-15 1993-10-15 Video signal encoding method Expired - Fee Related JP3465316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25834293A JP3465316B2 (en) 1993-10-15 1993-10-15 Video signal encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25834293A JP3465316B2 (en) 1993-10-15 1993-10-15 Video signal encoding method

Publications (2)

Publication Number Publication Date
JPH07115645A JPH07115645A (en) 1995-05-02
JP3465316B2 true JP3465316B2 (en) 2003-11-10

Family

ID=17318915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25834293A Expired - Fee Related JP3465316B2 (en) 1993-10-15 1993-10-15 Video signal encoding method

Country Status (1)

Country Link
JP (1) JP3465316B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336654A (en) 1997-06-02 1998-12-18 Nec Corp Image encoder

Also Published As

Publication number Publication date
JPH07115645A (en) 1995-05-02

Similar Documents

Publication Publication Date Title
JP4890263B2 (en) Encoding method, decoding method, and encoding apparatus for digital picture sequence
JP4694903B2 (en) ENCODING METHOD AND CIRCUIT DEVICE FOR IMPLEMENTING THE METHOD
US6819714B2 (en) Video encoding apparatus that adjusts code amount by skipping encoding of image data
JP3259702B2 (en) Moving picture variable bit rate coding apparatus and method
JP2003061100A (en) Apparatus and method for encoding multi-channel image
JP3508916B2 (en) Moving image variable bit rate encoding method and apparatus
US6271774B1 (en) Picture data processor, picture data decoder and picture data encoder, and methods thereof
KR100588795B1 (en) Encoder and encoding method
JP3426668B2 (en) Video coding method
JP2006135557A (en) Moving picture encoding device
JP3173369B2 (en) Image compression coding device
JP3465316B2 (en) Video signal encoding method
JPH07115651A (en) Video signal encoding system
JPH07322245A (en) Video signal coding system
JPH07177513A (en) Video signal coding system
JP3812269B2 (en) Video encoding apparatus and method
JP3581382B2 (en) Encoding device and method
JP2002199408A (en) Moving image coding method and moving image coder
JP4193080B2 (en) Encoding apparatus and method
JP2005045736A (en) Method and device for encoding image signal, encoding controller, and program
JPH0775095A (en) Rate control circuit
JPH11205803A (en) Encoding device and encoding method therefor
JP3779066B2 (en) Video encoding device
JP4035747B2 (en) Encoding apparatus and encoding method
JP2000050254A (en) Improved and adaptive video coding method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees