JPH07115651A - Video signal encoding system - Google Patents

Video signal encoding system

Info

Publication number
JPH07115651A
JPH07115651A JP26020893A JP26020893A JPH07115651A JP H07115651 A JPH07115651 A JP H07115651A JP 26020893 A JP26020893 A JP 26020893A JP 26020893 A JP26020893 A JP 26020893A JP H07115651 A JPH07115651 A JP H07115651A
Authority
JP
Japan
Prior art keywords
picture
coding
video signal
circuit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26020893A
Other languages
Japanese (ja)
Inventor
Tadashi Kasezawa
正 加瀬沢
Yoshiko Hatano
喜子 幡野
Takashi Shinohara
隆 篠原
Takahiro Nakai
隆洋 中井
Takahiro Fukuhara
隆浩 福原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP26020893A priority Critical patent/JPH07115651A/en
Publication of JPH07115651A publication Critical patent/JPH07115651A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To maintain satisfactory picture quality and to stabilize the rate even for a high-resolution signal by dividing a picture, parallelly processing the divided pictures and simultaneously quantizing them with in-image encoding and inter-image encoding as components. CONSTITUTION:Signal power 201 between average images inputted from an input terminal 1a, signal power 202 within an average image inputted from an input terminal 1b, reference quantization step parameter 203 inputted from an input terminal 1c and type identification signal 204 inputted from an input terminal 1d are inputted to a target complexity degree calculation circuit 3a. Its output 205 is inputted to a target amount calculation circuit 4a, remaining buffer capacity 206 inputted from an input terminal 1e is inputted to the circuit 4a, the output of the circuit 4a is inputted to a virtual remaining buffer capacity calculation circuit 5a, and a signal generation amount 208 inputted from an input terminal 1f is inputted to the circuit 5a. The output of the circuit 5a is inputted to the calculation circuit 6a, and its output is inputted to a quantization circuit 7a. An adaptive quantization coefficient is inputted from an input terminal 1g to the circuit 7a, and a quantization step parameter 212 is outputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、映像信号の符号化方式
に関し、特に映像信号の量子化制御方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video signal coding system, and more particularly to a video signal quantization control system.

【0002】[0002]

【従来の技術】図7は例えばISO-IEC/JTC1/SC29/WG11 M
PEG 92/N0245 Test Model 2 に示された従来の映像信号
符号化方式を説明するための概略ブロック図である。図
において、入力端子101cから入力されたディジタル
化された映像信号1101は、減算器9の第1の入力,
動き補償予測回路16の第1の入力および量子化回路1
1の第2の入力に与えられる。減算器9の出力1102
は、DCT回路10を介して量子化回路11の第1の入
力に与えられる。量子化回路11の出力1104は、可
変長符号化回路18を介して送信バッファ19の入力に
与えられるとともに、逆量子化回路12およびIDCT
回路13を介して加算器14の第1の入力に与えられ
る。加算器14の出力1107は、メモリ回路15の第
1の入力に与えられ、メモリ回路15の出力1108
は、動き補償予測回路16の第2の入力および切り替え
回路17の第1の入力に与えられる。メモリ回路15の
第二の入力には、動き補償予測回路16の第1の出力1
111が与えられる。一方、切り替え回路17の第2の
入力には、ゼロ信号が与えられ、切り替え回路17の第
3の入力には、動き補償予測回路16の第2の出力11
10が与えられる。切り替え回路17の出力1109
は、減算器9の第2の入力および加算器14の第2の入
力に与えられる。一方、送信バッファ19の第2の出力
1113は量子化回路11の第3の入力に与えられ、送
信バッファ19の第一の出力1114は、出力端子2d
より出力される。
2. Description of the Related Art FIG. 7 shows, for example, ISO-IEC / JTC1 / SC29 / WG11 M.
FIG. 11 is a schematic block diagram for explaining a conventional video signal encoding system shown in PEG 92 / N0245 Test Model 2. In the figure, the digitized video signal 1101 input from the input terminal 101c is the first input of the subtractor 9,
First input of motion compensation prediction circuit 16 and quantization circuit 1
1 to the second input. Output 1102 of subtractor 9
Is given to the first input of the quantization circuit 11 via the DCT circuit 10. The output 1104 of the quantization circuit 11 is given to the input of the transmission buffer 19 via the variable length coding circuit 18, and the dequantization circuit 12 and the IDCT are also provided.
It is provided to the first input of the adder 14 via the circuit 13. The output 1107 of the adder 14 is supplied to the first input of the memory circuit 15, and the output 1108 of the memory circuit 15 is supplied.
Are provided to the second input of the motion compensation prediction circuit 16 and the first input of the switching circuit 17. The second input of the memory circuit 15 is connected to the first output 1 of the motion compensation prediction circuit 16.
111 is given. On the other hand, the zero signal is given to the second input of the switching circuit 17, and the second output 11 of the motion compensation prediction circuit 16 is supplied to the third input of the switching circuit 17.
10 is given. Output 1109 of switching circuit 17
Are applied to the second input of the subtractor 9 and the second input of the adder 14. On the other hand, the second output 1113 of the transmission buffer 19 is given to the third input of the quantization circuit 11, and the first output 1114 of the transmission buffer 19 is output to the output terminal 2d.
Will be output.

【0003】図8は例えばISO-IEC/JTC1/SC29/WG11 MPE
G 92/N0245 Test Model 2 に示された従来の映像信号符
号化方式における量子化制御方式の一例を説明するため
の概略ブロック図である。図において、入力端子101
dから入力された第1の発生符号量1201は、複雑度
算出回路20aの第1の入力に与えられ、入力端子10
1eから入力された第1の平均量子化ステップパラメー
タ1202は複雑度算出回路20aの第2の入力に与え
られる。複雑度算出回路20aの出力である第1の複雑
度1203は、ターゲットビット量算出回路4eの第1
の入力に与えられる。入力端子101fから入力された
第2の発生符号量1204は、複雑度算出回路20bの
第1の入力に与えられ、入力端子101gから入力され
た第2の平均量子化ステップパラメータ1205は複雑
度算出回路20bの第2の入力に与えられる。複雑度算
出回路20bの出力である第2の複雑度1206は、タ
ーゲットビット量算出回路4eの第2の入力に与えられ
る。入力端子101hから入力された第3の発生符号量
1207は、複雑度算出回路20cの第1の入力に与え
られ、入力端子101iから入力された第3の平均量子
化ステップパラメータ1208は複雑度算出回路20c
の第2の入力に与えられる。複雑度算出回路20cの出
力である第3の複雑度1209は、ターゲットビット量
算出回路4eの第3入力に与えられる。
FIG. 8 shows, for example, ISO-IEC / JTC1 / SC29 / WG11 MPE.
FIG. 11 is a schematic block diagram for explaining an example of a quantization control method in the conventional video signal encoding method shown in G 92 / N0245 Test Model 2. In the figure, the input terminal 101
The first generated code amount 1201 input from d is given to the first input of the complexity calculation circuit 20a, and the input terminal 10
The first average quantization step parameter 1202 input from 1e is given to the second input of the complexity calculation circuit 20a. The first complexity 1203 output from the complexity calculating circuit 20a is the first complexity of the target bit amount calculating circuit 4e.
Given to the input of. The second generated code amount 1204 input from the input terminal 101f is given to the first input of the complexity calculation circuit 20b, and the second average quantization step parameter 1205 input from the input terminal 101g is the complexity calculation. It is applied to the second input of the circuit 20b. The second complexity 1206, which is the output of the complexity calculating circuit 20b, is given to the second input of the target bit amount calculating circuit 4e. The third generated code amount 1207 input from the input terminal 101h is given to the first input of the complexity calculation circuit 20c, and the third average quantization step parameter 1208 input from the input terminal 101i is the complexity calculation. Circuit 20c
Given to the second input of. The third complexity 1209, which is the output of the complexity calculating circuit 20c, is given to the third input of the target bit amount calculating circuit 4e.

【0004】また、ターゲットビット量算出回路4eの
第4の入力には、入力端子101jより第1の残枚数1
210が、第5の入力には、入力端子101kより第2
の残枚数1211が入力される。また、第6の入力に
は、定数発生回路21aの出力である定数Kp1212
が、第7の入力には、定数発生回路21bの出力である
定数Kb1213が入力される。また、第8の入力に
は、入力端子101lより、残符号量1214が入力さ
れる。第9の入力には、入力端子101mよりピクチャ
タイプ1215が入力される。
The fourth input of the target bit amount calculation circuit 4e is the first remaining number 1 from the input terminal 101j.
210 has a second input from the input terminal 101k for the fifth input.
1211 is input. The sixth input has a constant Kp1212, which is the output of the constant generating circuit 21a.
However, the constant Kb1213, which is the output of the constant generation circuit 21b, is input to the seventh input. Further, the remaining code amount 1214 is input to the eighth input from the input terminal 101l. A picture type 1215 is input to the ninth input from the input terminal 101m.

【0005】ターゲットビット量算出回路4eの出力で
あるターゲットビット量1217は、仮想バッファ選択
回路22aの第1の入力に与えられる。仮想バッファ選
択回路22aの第2の入力には、入力端子101cより
入力された発生符号量が入力される。また、第3の入力
には、入力端子101mよりピクチャタイプ1215が
入力される。仮想バッファ選択回路22aの第1の出力
であるターゲットビット量1218は、第1の仮想バッ
ファ残量算出回路5eの第1の入力に、第2の出力であ
る発生符号量1219は、第1の仮想バッファ残量算出
回路5eの第2の入力に入力される。仮想バッファ選択
回路22aの第3の出力であるターゲットビット量12
20は、第2の仮想バッファ残量算出回路5fの第1の
入力に、第4の出力である発生符号量1221は、第2
の仮想バッファ残量算出回路5fの第2の入力に入力さ
れる。仮想バッファ選択回路22aの第5の出力である
ターゲットビット量1222は、第3の仮想バッファ残
量算出回路5gの第1の入力に、第6の出力である発生
符号量1223は、第3の仮想バッファ残量算出回路5
gの第2の入力に入力される。
The target bit amount 1217, which is the output of the target bit amount calculation circuit 4e, is given to the first input of the virtual buffer selection circuit 22a. The generated code amount input from the input terminal 101c is input to the second input of the virtual buffer selection circuit 22a. A picture type 1215 is input to the third input from the input terminal 101m. The target bit amount 1218, which is the first output of the virtual buffer selection circuit 22a, is input to the first input of the first virtual buffer remaining amount calculation circuit 5e, and the generated code amount 1219, which is the second output, is the first output. It is input to the second input of the virtual buffer remaining amount calculation circuit 5e. Target bit amount 12 which is the third output of the virtual buffer selection circuit 22a
20 is the first input of the second virtual buffer remaining amount calculation circuit 5f, and the generated code amount 1221 which is the fourth output is the second input.
Is input to the second input of the virtual buffer remaining amount calculation circuit 5f. The target bit amount 1222, which is the fifth output of the virtual buffer selection circuit 22a, is input to the first input of the third virtual buffer remaining amount calculation circuit 5g, and the generated code amount 1223, which is the sixth output, is the third output. Virtual buffer remaining amount calculation circuit 5
input to the second input of g.

【0006】第1の仮想バッファ残量算出回路5eの出
力1224は、仮想バッファ選択回路22bの第1の入
力に、第2の仮想バッファ残量算出回路5fの出力12
25は、仮想バッファ選択回路22bの第二の入力に、
第3の仮想バッファ残量算出回路5gの出力1226
は、仮想バッファ選択回路22bの第3の入力に与えら
れる。仮想バッファ選択回路22bの第4の入力には、
入力端子101mよりピクチャタイプ1215が入力さ
れる。仮想バッファ選択回路22bの出力1227は、
量子化ステップパラメータ算出回路6eに与えられ、量
子化ステップパラメータ算出回路6eの出力である参照
量子化ステップパラメータ1228は、適応量子化回路
7eの第1の入力に与えられる。適応量子化回路7eの
第2の入力には、入力端子101nより、適応量子化係
数1229が与えられる。適応量子化回路7eの出力で
ある量子化ステップパラメータ1230は、出力端子2
eより出力される。
The output 1224 of the first virtual buffer remaining amount calculating circuit 5e is supplied to the first input of the virtual buffer selecting circuit 22b and the output 1224 of the second virtual buffer remaining amount calculating circuit 5f.
25 is a second input of the virtual buffer selection circuit 22b,
Output 1226 of the third virtual buffer remaining amount calculation circuit 5g
Is applied to the third input of the virtual buffer selection circuit 22b. For the fourth input of the virtual buffer selection circuit 22b,
The picture type 1215 is input from the input terminal 101m. The output 1227 of the virtual buffer selection circuit 22b is
The reference quantization step parameter 1228 that is given to the quantization step parameter calculation circuit 6e and is the output of the quantization step parameter calculation circuit 6e is given to the first input of the adaptive quantization circuit 7e. The adaptive quantization coefficient 1229 is applied to the second input of the adaptive quantization circuit 7e from the input terminal 101n. The quantization step parameter 1230 output from the adaptive quantization circuit 7e is output to the output terminal 2
It is output from e.

【0007】図9はハイブリッド符号化方式における著
名な性質の一つであるリフレッシュ方式の概念図であ
る。
FIG. 9 is a conceptual diagram of the refresh system, which is one of the prominent properties of the hybrid coding system.

【0008】次に動作について説明する。映像信号を符
号化する場合の高能率符号化方式の一つとして、動き補
償予測を用いた画像間予測符号化と画像内変換符号化を
組み合わせたハイブリッド符号化方式がある。本従来例
も、上記ハイブリッド符号化方式を採用している。この
場合、ディジタル化された入力信号は、時間軸方向の冗
長度を落とすために動き補償予測を用いて画像間の差分
がとられ、空間軸方向にDCTが施される。変換された
係数は量子化され、可変長符号化された後に、送信バッ
ファを介して伝送される。
Next, the operation will be described. As one of high-efficiency coding schemes for coding a video signal, there is a hybrid coding scheme in which inter-picture predictive coding using motion compensation prediction and intra-picture transform coding are combined. This conventional example also employs the above hybrid coding method. In this case, the digitized input signal is subjected to DCT in the spatial axis direction by taking the difference between the images using motion compensation prediction in order to reduce the redundancy in the time axis direction. The transformed coefficients are quantized, variable-length coded, and then transmitted through a transmission buffer.

【0009】以下、量子化制御の基本概念について述べ
る。一般に、映像信号符号化システムにおいて、伝送レ
ートは固定であるため、発生符号量を伝送レートに収束
させる手法が必要となる。上記固定伝送レートへの発生
符号量の収束手法の概念を以下に示す。一般に、変換さ
れた係数は、必ずしも有限な桁数での表現が可能ではな
い。この係数を有限な桁数にて表現することを量子化と
言い、量子化による離散値を量子化レベル、量子化レベ
ルの間隔を量子化ステップと言う。また、量子化前の係
数と量子化後の量子化レベルとの差を量子化雑音と言
う。量子化ステップを小さくすれば、量子化雑音は減少
するが、発生符号量は増加することになり、量子化ステ
ップを大きくすれば、量子化雑音は増加するが、発生符
号量は減少することになる。このように、量子化ステッ
プを制御することを量子化制御と言う。すなわち、量子
化制御により、発生符号量を伝送レートに収束させるこ
とが可能となる。このとき、良好な画質を維持しつつ固
定レートに収束させることが重要な課題となる。本従来
例では、量子化ステップに類する指標として量子化ステ
ップパラメータが用いられる。量子化ステップパラメー
タの機能は、量子化ステップと同等であると考えてよ
い。
The basic concept of quantization control will be described below. Generally, in a video signal encoding system, the transmission rate is fixed, so that a method for converging the generated code amount to the transmission rate is required. The concept of the method of converging the generated code amount to the fixed transmission rate is shown below. In general, the converted coefficient cannot always be expressed with a finite number of digits. Representing this coefficient with a finite number of digits is called quantization, a discrete value by quantization is called a quantization level, and an interval between quantization levels is called a quantization step. Also, the difference between the coefficient before quantization and the quantization level after quantization is called quantization noise. If the quantization step is made smaller, the quantization noise will be reduced, but the generated code amount will be increased.If the quantization step is made larger, the quantization noise will be increased, but the generated code amount will be reduced. Become. Controlling the quantization step in this way is called quantization control. That is, the quantization control makes it possible to converge the generated code amount to the transmission rate. At this time, it is an important subject to converge to a fixed rate while maintaining good image quality. In this conventional example, a quantization step parameter is used as an index similar to the quantization step. The function of the quantization step parameter may be considered to be equivalent to the quantization step.

【0010】量子化制御を行う単位として以下の2者を
定義する。 基準固定レート期間 基準制御期間
The following two are defined as units for performing quantization control. Standard fixed rate period Standard control period

【0011】基準固定レート期間とは、発生符号量が固
定レートであると判断する単位あるいは期間を意味す
る。たとえば、ある枚数の画面における発生符号量の総
和が固定レートであればよいとか、1画面における発生
符号量が固定レートであればよいとかいうことである。
この固定レート期間が大きければ、その期間内における
発生符号量の変動の許容性が高まる。たとえば、動画像
においては、画像の動きに伴い1ピクチャ毎に発生符号
量が変動する。そのため、安定した画質を連続して得る
ためには、固定レート期間が大きい方が有効的である。
しかしながら、発生符号量の変動の許容性を高めるため
には、容量の大きなバッファが必要となる。容量の大き
なバッファは、符号化復号化システムにおける遅延時間
の増加を意味する。一方、固定レート期間が小さけれ
ば、発生符号量の許容性が低くなる。たとえば、画面の
数分の1程度を固定レート期間とすると、画面内の発生
符号量の変動を十分に許容できない。たとえば、動画像
においては画面内の1部分のみが動いているような場合
が頻繁に存在するが、このような場合には、画面内にお
いて画質劣化の度合が画面内の場所に応じて大きく異な
る可能性がある。しかしながら、この場合には、バッフ
ァ容量は小さくてよく、これは符号化復号化システムに
おける遅延時間が小さいことを意味する。
The reference fixed rate period means a unit or period in which the generated code amount is determined to be a fixed rate. For example, the sum of the generated code amounts in a certain number of screens may be a fixed rate, or the generated code amount in one screen may be a fixed rate.
If this fixed rate period is large, the tolerance of fluctuations in the generated code amount within that period increases. For example, in a moving image, the generated code amount changes for each picture as the image moves. Therefore, in order to continuously obtain stable image quality, it is effective that the fixed rate period is large.
However, a buffer with a large capacity is required in order to increase the tolerance of fluctuations in the generated code amount. A large capacity buffer means an increase in delay time in the encoding / decoding system. On the other hand, if the fixed rate period is small, the admissibility of the generated code amount becomes low. For example, if the fixed rate period is set to a fraction of the screen, it is not possible to sufficiently allow the fluctuation of the generated code amount in the screen. For example, in a moving image, there is often a case where only one part in the screen is moving. In such a case, the degree of image quality deterioration in the screen varies greatly depending on the position in the screen. there is a possibility. However, in this case, the buffer capacity may be small, which means that the delay time in the coding / decoding system is small.

【0012】基準制御期間とは、以下のように定義され
る。基本的に、量子化制御とは、ある期間毎に発生符号
量の状態を調べ、所望の発生符号量に合致しているか否
かを検証し、合致していなければ量子化ステップパラメ
ータを変更するという作業である。上記期間を基準制御
期間と定める。この基準制御期間が大きければ、符号量
の過大発生や過小発生を招き、バッファのオーバーフロ
ーやアンダーフローを引き起こす原因となり易い。この
基準期間が小さければ、オーバーフローやアンダーフロ
ーは生じにくいが、所望発生符号量の予測に高度な正確
性が要求される。不確かな所望発生符号量の予測は、不
必要な量子化ステップパラメータの変動を引き起こし、
局所的な画質劣化の原因となる。
The reference control period is defined as follows. Basically, the quantization control is to check the state of the generated code amount every certain period, verify whether or not it matches the desired generated code amount, and change the quantization step parameter if it does not match. That is the work. The above period is defined as the standard control period. If this reference control period is large, the code amount becomes excessively large or small, which easily causes a buffer overflow or underflow. If this reference period is short, overflow or underflow is unlikely to occur, but a high degree of accuracy is required to predict the desired generated code amount. Uncertain prediction of the desired amount of generated code causes unnecessary fluctuation of the quantization step parameter,
This causes local deterioration of image quality.

【0013】本従来例における量子化制御方式を述べる
にあたり、本従来例における映像信号の階層構造を定義
しておくとともに、階層構造と関係を持つハイブリッド
符号化の1つの性質を以下に記述する。
In describing the quantization control method in this conventional example, the hierarchical structure of the video signal in this conventional example will be defined, and one property of the hybrid coding related to the hierarchical structure will be described below.

【0014】本従来例における映像信号の階層構造は以
下のように概略される。 シーケンス:1つかそれ以上の連続したGOPから構成
される。 GOP: 複数の連続したピクチャ(画面)から構成さ
れる。 ピクチャ:1つの画面であり、複数のスライスで構成さ
れる。 スライス :1つまたは複数のマクロブロックで構成さ
れる。 マクロブロック:4つの輝度ブロックと画面上で同位置
の色差ブロックからなる。 ブロック:1ブロックは8×8の画素から構成される。 尚、本従来例では、ピクチャとして3つのタイプが定義
される。画像間予測符号化を行わず画面内変換符号化の
みを行うIピクチャ、片方向のみから予測するPピクチ
ャ、両方向から予測するBピクチャの3タイプである。
The hierarchical structure of the video signal in this conventional example is outlined as follows. Sequence: Consists of one or more consecutive GOPs. GOP: Composed of a plurality of consecutive pictures (screens). Picture: One screen, which is composed of multiple slices. Slice: It consists of one or more macroblocks. Macro block: It consists of four luminance blocks and a color difference block at the same position on the screen. Block: One block is composed of 8 × 8 pixels. In this conventional example, three types of pictures are defined. There are three types: I picture that does not perform inter-picture predictive coding but only intra-picture conversion coding, P picture that predicts from only one direction, and B picture that predicts from both directions.

【0015】次に、ハイブリッド符号化方式における著
名な性質の一つを以下に掲げる。本従来例は、動き補償
予測を用いた画像間予測符号化を行っている。これは、
基本的には時間領域の予測符号化であるため、初期値を
設定する必要がある。また、符号化後に偶発的に発生し
たエラーの伝播を防ぐために、適当な周期で初期値に設
定する必要がある。この周期的な初期値設定の作業を一
般に周期的リフレッシュと称している。動き補償予測を
用いた画像間予測符号化と画像内変換符号化を用いたハ
イブリッド方式の場合の周期的リフレッシュは、具体的
には動き補償予測を行わない画像内変換符号化となる。
Next, one of the prominent properties of the hybrid coding system is listed below. In this conventional example, inter-picture predictive coding using motion compensation prediction is performed. this is,
Since it is basically time-domain predictive coding, it is necessary to set an initial value. Further, in order to prevent the propagation of an error that occurs accidentally after encoding, it is necessary to set the initial value at an appropriate cycle. This periodic initial value setting operation is generally called periodic refresh. The periodic refresh in the case of the hybrid method using inter-picture predictive coding using motion compensation prediction and intra-picture transform coding is specifically intra-picture transform coding without motion-compensated prediction.

【0016】一般に、リフレッシュ方式としては、画面
を一括して行う方式と画面を分割して行う方式とがあ
る。従来の実施例で参照した方式はこの前者にあたり、
そのリフレッシュ画面はIピクチャと呼ばれている。画
面分割リフレッシュ方式の場合には、たとえば画面をい
くつかの領域に分割し、1画面に対し1領域ずつリフレ
ッシュを行うことになる。図9にリフレッシュ方式の概
念図を示す。一般に、画像内変換符号化は、画像間予測
符号化に比べて発生符号量が大きいため、画面単位で周
期的リフレッシュを行う場合には、数ピクチャ程度の大
きな基準固定レート期間が採用される。これは、符号化
復号化システムにおける遅延時間が大きいことを意味す
る。
Generally, as the refresh method, there are a method of collectively performing screens and a method of performing divided screens. The method referred to in the conventional example is the former,
The refresh screen is called an I picture. In the case of the screen division refresh method, for example, the screen is divided into several areas, and one area is refreshed for each screen. FIG. 9 shows a conceptual diagram of the refresh method. In general, intra-picture transform coding has a larger amount of generated code than inter-picture predictive coding, and therefore, when performing periodic refresh in screen units, a large reference fixed rate period of about several pictures is adopted. This means that the delay time in the encoding / decoding system is large.

【0017】次に、従来例における量子化制御方式につ
いて説明する。図8は従来例における量子化制御方式の
一例を説明するための図であり、本従来例は、基本的に
は基準固定レート期間として1GOP期間を、基準制御
期間として1マクロブロック期間を採用しており、量子
化制御は以下の手順にて行われる。 次のピクチャの符号化で使用可能なビット量(ターゲ
ットビット量)を推定する。 上記推定されたターゲットビット量と実際に発生した
符号量をもとにマクロブロック毎の量子化ステップパラ
メータの参照値を設定する。 マクロブロック毎の画像の特徴に応じて、上記量子化
ステップパラメータの参照値を変化させ、最終的なマク
ロブロック毎の量子化ステップパラメータを決定する。
Next, the quantization control method in the conventional example will be described. FIG. 8 is a diagram for explaining an example of the quantization control method in the conventional example. In this conventional example, basically, one GOP period is adopted as the reference fixed rate period and one macroblock period is adopted as the reference control period. The quantization control is performed in the following procedure. Estimate the bit amount (target bit amount) that can be used in the encoding of the next picture. The reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actually generated code amount. The reference value of the quantization step parameter is changed according to the feature of the image for each macroblock, and the final quantization step parameter for each macroblock is determined.

【0018】以下、詳細に述べる。前記第1の手順とし
て、次のピクチャの符号化で使用可能なビット量を推定
する。この作業にあたり複雑度という概念を導入する。
本従来例において、複雑度は各ピクチャタイプに対して
定義される。また、複雑度は1つのピクチャを符号化す
るたびに更新される。実際には、該符号化されるピクチ
ャはある特定のピクチャタイプを持つため、1つのピク
チャが符号化されるたびに1つの複雑度が更新されるこ
とになる。第gGOPの第fピクチャを符号化する直前
のIピクチャの複雑度Xi(g,f),Pピクチャの複雑度Xp
(g,f),Bピクチャの複雑度Xb(g,f)は以下のように定義
される。 Xi(g,f) = Si(s,x) × Qi(s,x) Xp(g,f) = Sp(t,y) × Qp(t,y) Xb(g,f) = Sb(u,z) × Qb(u,z) このとき、Si(s,x) は、最も近い過去に存在したIピク
チャである第sGOPの第xピクチャにおける実際の発
生符号量、Sp(t,y) は、最も近い過去に存在したPピク
チャである第tGOPの第yピクチャにおける実際の発
生符号量、Sb(u,z) は、最も近い過去に存在したBピク
チャである第uGOPの第zピクチャにおける実際の発
生符号量である。(このとき、上記3つのピクチャのい
ずれかは第gGOPの第f−1ピクチャに該当している
はずである。)また、Qi(s,x),Qp(t,y),Qb(u,z) は、上
記3つのピクチャにおける実際の量子化ステップパラメ
ータの平均値である。
The details will be described below. As the first procedure, the amount of bits that can be used in encoding the next picture is estimated. Introducing the concept of complexity in this work.
In this conventional example, complexity is defined for each picture type. Also, the complexity is updated every time one picture is encoded. In reality, since the coded picture has a certain picture type, one complexity will be updated each time one picture is coded. Immediately before encoding the f-th picture of the g-th GOP, the complexity Xi (g, f) of the I picture and the complexity Xp of the P picture
The complexity Xb (g, f) of (g, f) and B picture is defined as follows. Xi (g, f) = Si (s, x) × Qi (s, x) Xp (g, f) = Sp (t, y) × Qp (t, y) Xb (g, f) = Sb (u , z) × Qb (u, z) At this time, Si (s, x) is the actual amount of generated code in the xth picture of the sGOP, which is the closest I picture in the past, Sp (t, y). Is the actual amount of generated code in the y-th picture of the t-th GOP, which is the closest P-picture, and Sb (u, z) is the z-th picture of the u-GOP, which is the B-picture that was closest in the past. This is the actual generated code amount. (At this time, any one of the above three pictures must correspond to the f-1th picture of the gGOP.) Also, Qi (s, x), Qp (t, y), Qb (u, z) is the average value of the actual quantization step parameters in the above three pictures.

【0019】上記複雑度をもとに、第gGOPの第fピ
クチャのターゲットビット量T(g,f)は以下のよう
に推定される。
Based on the above-mentioned complexity, the target bit amount T (g, f) of the f-th picture of the g-th GOP is estimated as follows.

【0020】[0020]

【数1】 [Equation 1]

【0021】である。また、R(g,f)は、第gGO
Pの第fピクチャを符号化する直前の第gGOPに割り
当てられた残りのトータルビット数であり、各ピクチャ
の符号化後に以下のように更新される。 R(g,f) = R(g,1) - { S(g,1) + S(g,2) + … + S(g,f-
1) } ここで、S(g,f-1)は第gGOPの第f−1ピクチャにお
ける実際の発生符号量を表わす。また、GOPの先頭ピ
クチャを符号化する前に以下の計算を行う。 R(g+1,1) = G + R(g,f+1) G = BIT_RATE ×( F / PICTURE_RATE ) このとき、 F :GOPあたりのピクチャ数 であり、シーケンスの先頭では、R(1,1)=Gとする。ま
た、Fp(g,f)およびFb(g,f)は、第gGOPの第fピクチ
ャを符号化する直前における現GOPにて符号化されず
に残っているPピクチャとBピクチャのピクチャ数を示
す。
[0021] R (g, f) is the g-th GO
It is the total number of remaining bits allocated to the g-th GOP immediately before the P-th f-th picture is encoded, and is updated as follows after the encoding of each picture. R (g, f) = R (g, 1)-{S (g, 1) + S (g, 2) +… + S (g, f-
1)} Here, S (g, f-1) represents the actual generated code amount in the (f-1) th picture of the gth GOP. Further, the following calculation is performed before the head picture of the GOP is encoded. R (g + 1,1) = G + R (g, f + 1) G = BIT_RATE × (F / PICTURE_RATE) At this time, F is the number of pictures per GOP, and R (1, 1) = G Further, Fp (g, f) and Fb (g, f) are the number of pictures of the P picture and the B picture which remain unencoded in the current GOP immediately before encoding the fth picture of the gth GOP. Show.

【0022】次に、前記第2の手順として、推定された
ターゲットビット量と実際の発生符号量に基づき、マク
ロブロック毎の量子化ステップパラメータの参照値を設
定する。参照値設定にあたり仮想バッファを想定する。
仮想バッファは、概略的には、上記ターゲットビット量
と実際の発生符号量の差を蓄積するバッファである。仮
想バッファは、各ピクチャに対して想定される。すなわ
ち、該ピクチャがIピクチャならば、対応するIピクチ
ャ用の仮想バッファが、該ピクチャがPピクチャなら
ば、対応するPピクチャ用の仮想バッファが、該ピクチ
ャがBピクチャならば、対応するBピクチャ用の仮想バ
ッファが使用され、該仮想バッファのバッファ占有率が
変更される。たとえば、第gGOPの第fピクチャのピ
クチャタイプがIピクチャならば、Iピクチャ用の仮想
バッファの第gGOPの第fピクチャの第mマクロブロ
ックを符号化する直前の占有率di(g,f,m) は、以下のよ
うに定義される。 di(g,f,m) = di(g,f,1)+ B(g,f,1) + B(g,f,2) + …
+ B(g,f,m-1)- { T(g,f) ×( (m-1) / MB_cnt ) } このとき、 MB_cnt :ピクチャあたりのマクロブロック数 であり、また、B(g,f,m-1)は、第gGOPの第fピクチ
ャの第m−1マクロブロックでの実際の発生符号量であ
る。di(g,f,1) は、最も近い過去に存在した同タイプの
ピクチャである第aGOPの第bピクチャにおけるバッ
ファ占有率di(a,b,MB_cnt+1) が採用される。また、P
ピクチャ用の仮想バッファの占有率dp(g,f,m)、Bピク
チャ用の仮想バッファ占有率db(g,f,m) も同様に、ピク
チャタイプに応じ更新される。
Next, as the second procedure, the reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actual generated code amount. A virtual buffer is assumed when setting the reference value.
The virtual buffer is a buffer that roughly stores the difference between the target bit amount and the actual generated code amount. A virtual buffer is assumed for each picture. That is, if the picture is an I picture, the virtual buffer for the corresponding I picture is, if the picture is a P picture, the virtual buffer for the corresponding P picture is, and if the picture is a B picture, the corresponding B picture is Is used, and the buffer occupancy of the virtual buffer is changed. For example, if the picture type of the f-th picture of the g-th GOP is an I-picture, the occupation ratio di (g, f, m immediately before encoding the m-th macroblock of the f-th picture of the g-th GOP of the virtual buffer for I-pictures. ) Is defined as follows. di (g, f, m) = di (g, f, 1) + B (g, f, 1) + B (g, f, 2) +…
+ B (g, f, m-1)-{T (g, f) × ((m-1) / MB_cnt)} where MB_cnt is the number of macroblocks per picture, and B (g, f, m-1) f, m-1) is the actual generated code amount in the m-1th macroblock of the fth picture of the gth GOP. For di (g, f, 1), the buffer occupancy di (a, b, MB_cnt + 1) in the b-th picture of the a-th GOP, which is the picture of the same type that existed in the closest past, is adopted. Also, P
The occupancy rate dp (g, f, m) of the virtual buffer for pictures and the occupancy rate db (g, f, m) of the virtual buffers for B pictures are similarly updated according to the picture type.

【0023】上記仮想バッファ占有率di(g,f,m),dp(g,
f,m),db(g,f,m) に基づき、第gGOPの第fピクチャ
の第mマクロブロックの量子化ステップパラメータの参
照値Qr(g,f,m)は以下のように算出される。 If (第gGOPの第fピクチャがIピクチャ) Then Qr(g,f,m) = ( di(g,f,m) / VB ) ×31 If (第gGOPの第fピクチャがPピクチャ) Then Qr(g,f,m) = ( dp(g,f,m) / VB ) × 31 If (第gGOPの第fピクチャがBピクチャ) Then Qr(g,f,m) = ( db(g,f,m) / VB ) × 31 このとき、VB:仮想バッファ容量である。
The virtual buffer occupancy ratios di (g, f, m), dp (g,
Based on f, m) and db (g, f, m), the reference value Qr (g, f, m) of the quantization step parameter of the m-th macroblock of the f-th picture of the g-th GOP is calculated as follows. It If (the f-th picture of the g-th GOP is an I-picture) Then Qr (g, f, m) = (di (g, f, m) / VB) × 31 If (the f-th picture of the g-th GOP is a P-picture) Then Qr (g, f, m) = (dp (g, f, m) / VB) × 31 If (the f-th picture of the g-th GOP is a B-picture) Then Qr (g, f, m) = (db (g, f , m) / VB) × 31 At this time, VB: virtual buffer capacity.

【0024】次に前記第3の手順として、上記Qr(g,f,
m) に基づき、最終的なマクロブロック毎の量子化ステ
ップパラメータを決定する。本実施例では、マクロブロ
ック毎の原信号のパワーに基づき適応量子化係数K(g,f,
m)を求め、以下のように最終的なマクロブロック毎の量
子化ステップパラメータQ(g,f,m)を算出する。 Q(g,f,m) = Qr(g,f,m) × K(g,f,m)
Next, as the third procedure, the above Qr (g, f,
Based on m), the final quantization step parameter for each macroblock is determined. In the present embodiment, the adaptive quantization coefficient K (g, f,
m) is obtained, and the final quantization step parameter Q (g, f, m) for each macroblock is calculated as follows. Q (g, f, m) = Qr (g, f, m) × K (g, f, m)

【0025】[0025]

【発明が解決しようとする課題】従来の映像信号符号化
方式における量子化制御方式は、ハードウェア構成を十
分に考慮したものではなかった。たとえば、従来例は、
NTSC信号程度の解像度を持つ信号を取り扱う限りに
おいては良好であるが、HDTV信号あるいは更に高解
像度の信号を取り扱うためには、必ずしも良好とは言い
難い。また、従来例における量子化制御手法は、基本的
に画面を一括して周期的リフレッシュを行う場合を主対
象としており、画面を分割して周期的リフレッシュを行
う場合を対象として最適化されていない。また、複雑度
および量子化ステップパラメータの算出手法も定量的に
最適ではなく、シーンチェンジへの対応もなされていな
かった。
The conventional quantization control method in the video signal coding method does not sufficiently consider the hardware configuration. For example, the conventional example is
It is good as long as it handles a signal having a resolution similar to that of an NTSC signal, but is not necessarily good at handling an HDTV signal or a signal with a higher resolution. In addition, the quantization control method in the conventional example is basically targeted for the case where the screen is periodically refreshed collectively, and is not optimized for the case where the screen is divided and the periodic refresh is performed. . Also, the method of calculating the complexity and the quantization step parameter is not quantitatively optimal, and no scene change has been dealt with.

【0026】本発明は上記のような問題点を解消するた
めになされたもので、高解像度信号に対応可能な量子化
制御方式、画面分割リフレッシュ方式に適した量子化制
御方式、定量的性質に基づく量子化制御方式を得るとと
もに、シーンチェンジへの対応も考慮した量子化制御方
式を得ることを目的とする。
The present invention has been made in order to solve the above-mentioned problems, and has a quantization control method capable of coping with high resolution signals, a quantization control method suitable for a screen division refresh method, and a quantitative property. It is an object of the present invention to obtain a quantization control method based on it, and also to obtain a quantization control method that also considers scene changes.

【0027】[0027]

【課題を解決するための手段】本発明の請求項1に係る
映像信号符号化方式は、画像内符号化と画像間符号化を
構成要素とし、画面を分割して並列処理するとともに画
面を一括して量子化制御する手段を持つようにしたもの
である。
A video signal coding system according to claim 1 of the present invention comprises intra-picture coding and inter-picture coding as constituent elements, divides a screen and performs parallel processing, and batches the screen. Then, it has a means for controlling the quantization.

【0028】本発明の請求項2に係る映像信号符号化方
式は、分割された領域毎に符号化画像の複雑度あるいは
発生符号量を推定する手段を持つようにしたものであ
る。
The video signal coding method according to the second aspect of the present invention has means for estimating the complexity of the coded image or the generated code amount for each divided area.

【0029】本発明の請求項3に係る映像信号符号化方
式は、発生符号量の推定の指標として画像内信号パワー
と画像間信号パワーおよび量子化ステップパラメータを
用いる手段を持つようにしたものである。
The video signal coding system according to claim 3 of the present invention has means for using the intra-picture signal power, the inter-picture signal power and the quantization step parameter as an index for estimating the generated code amount. is there.

【0030】本発明の請求項4に係る映像信号符号化方
式は、発生符号量の推定の指標として過去における画面
の発生符号量と過去における画面の量子化ステップパラ
メータおよび現在における画面の量子化ステップパラメ
ータを用いる手段を持つようにしたものである。
In the video signal coding method according to claim 4 of the present invention, the generated code amount of the past screen, the screen quantization step parameter in the past, and the current screen quantization step are used as an index for estimating the generated code amount. It has a means to use parameters.

【0031】本発明の請求項5に係る映像信号符号化方
式は、画像の変化率を検出し変化率に基づき量子化ステ
ップパラメータを制御する手段を持つようにしたもので
ある。
The video signal encoding system according to the fifth aspect of the present invention has a means for detecting the change rate of the image and controlling the quantization step parameter based on the change rate.

【0032】[0032]

【作用】本発明の請求項1における映像信号符号化方式
は、画像内符号化と画像間符号化を構成要素とし、画面
を分割して並列処理するとともに画面を一括して量子化
制御することにより、高解像度信号においても良好な画
質の維持とレートの安定性を実現する。
According to the video signal coding system of claim 1 of the present invention, the intra-picture coding and the inter-picture coding are constituent elements, and the screen is divided into parallel processings and the screens are collectively quantized and controlled. As a result, good image quality is maintained and rate stability is achieved even with high resolution signals.

【0033】本発明の請求項2における映像信号符号化
方式は、分割された領域毎に符号化画像の複雑度あるい
は発生符号量を推定することにより、画面を分割した周
期的リフレッシュを行う場合においても良好な画質の維
持とレートの安定性を実現する。
According to the video signal coding method of the second aspect of the present invention, when the complexity of the coded image or the generated code amount is estimated for each divided area, the periodic refresh is performed with the screen divided. Also achieves good image quality maintenance and rate stability.

【0034】本発明の請求項3における映像信号符号化
方式は、発生符号量の推定の指標として画像内信号パワ
ーと画像間信号パワーおよび量子化ステップパラメータ
を用いることによりレートの安定性を実現する。
In the video signal coding method according to the third aspect of the present invention, the stability of the rate is realized by using the intra-picture signal power, the inter-picture signal power and the quantization step parameter as an index for estimating the generated code amount. .

【0035】本発明の請求項4における映像信号符号化
方式は、発生符号量の推定の指標として過去における画
面の発生符号量と過去における画面の量子化ステップパ
ラメータおよび現在における画面の量子化ステップパラ
メータを用いることにより、レートの安定性を実現す
る。
In the video signal coding method according to claim 4 of the present invention, the generated code amount of the screen in the past, the quantization step parameter of the past screen, and the quantization step parameter of the current screen are used as an index for estimating the generated code amount. To achieve rate stability.

【0036】本発明の請求項5における映像信号符号化
方式は、画像の変化率を検出し変化率に基づき量子化ス
テップパラメータを制御することにより、シーンチェン
ジ時にもレートの安定性を実現する。
According to the video signal coding method of the fifth aspect of the present invention, the rate stability is realized even at the scene change by detecting the change rate of the image and controlling the quantization step parameter based on the change rate.

【0037】[0037]

【実施例】【Example】

実施例1.以下、本発明の第1の実施例について説明す
る。図2は本発明の第1の実施例における量子化制御方
式の一例を説明するための概略ブロック図である。図に
おいて、入力端子1aから入力された平均画像間信号パ
ワー201は、ターゲット複雑度算出回路3aの第1の
入力に、入力端子1bから入力された平均画像内信号パ
ワー202は、ターゲット複雑度算出回路3aの第2の
入力に、入力端子1cから入力された参照量子化ステッ
プパラメータ203は、ターゲット複雑度算出回路3a
の第3の入力に、入力端子1dから入力されたタイプ識
別信号204は、ターゲット複雑度算出回路3aの第4
の入力に与えられる。ターゲット複雑度算出回路3aの
出力205は、ターゲットビット量算出回路4aの第1
の入力に、入力端子1eから入力されたバッファ残量2
06は、ターゲットビット量算出回路4aの第2の入力
に与えられる。ターゲットビット量算出回路4aの出力
であるターゲットビット量207は、仮想バッファ残量
算出回路5aの第1の入力に、入力端子1fから入力さ
れた発生符号量208は、仮想バッファ残量算出回路5
aの第2の入力に与えられる。仮想バッファ残量算出回
路5aの出力209は、量子化ステップパラメータ算出
回路6aの入力に与えられる。量子化ステップパラメー
タ算出回路6aの出力である参照量子化ステップパラメ
ータ210は、適応量子化回路7aの第1の入力に与え
られる。適応量子化回路の第2の入力には、入力端子1
gより、適応量子化係数211が与えられる。適応量子
化回路7aの出力であるマクロブロック単位の量子化ス
テップパラメータ212は、出力端子2aより出力され
る。
Example 1. The first embodiment of the present invention will be described below. FIG. 2 is a schematic block diagram for explaining an example of the quantization control system in the first embodiment of the present invention. In the figure, the average inter-image signal power 201 input from the input terminal 1a is the first input of the target complexity calculation circuit 3a, and the average intra-image signal power 202 input from the input terminal 1b is the target complexity calculation The reference quantization step parameter 203 input from the input terminal 1c to the second input of the circuit 3a is the target complexity calculation circuit 3a.
The type identification signal 204 input from the input terminal 1d is input to the third input of the target complexity calculation circuit 3a.
Given to the input of. The output 205 of the target complexity calculation circuit 3a is the first bit of the target bit amount calculation circuit 4a.
To the input of, the remaining buffer capacity 2 input from the input terminal 1e
06 is given to the second input of the target bit amount calculation circuit 4a. The target bit amount 207 output from the target bit amount calculation circuit 4a is the first input of the virtual buffer remaining amount calculation circuit 5a, and the generated code amount 208 input from the input terminal 1f is the virtual buffer remaining amount calculation circuit 5a.
provided to the second input of a. The output 209 of the virtual buffer remaining amount calculation circuit 5a is given to the input of the quantization step parameter calculation circuit 6a. The reference quantization step parameter 210, which is the output of the quantization step parameter calculation circuit 6a, is given to the first input of the adaptive quantization circuit 7a. The second input of the adaptive quantizer is the input terminal 1
An adaptive quantization coefficient 211 is given from g. The quantization step parameter 212 for each macroblock, which is the output of the adaptive quantization circuit 7a, is output from the output terminal 2a.

【0038】図3は本発明の第1の実施例における量子
化制御方式で参照される複雑度と発生符号量の概略関係
を示す図である。
FIG. 3 is a diagram showing a schematic relationship between the complexity referred to in the quantization control method and the generated code amount in the first embodiment of the present invention.

【0039】以下、動作について説明する。近年、映像
信号の高能率符号化装置の開発は、HDTV信号を始め
とする高解像度なシステムの開発に移行しつつある。こ
のとき、高解像度システムは、必然的に高速な処理を要
求することになる。一般には、並列処理を採用すること
により、高速性を補うことになる。図1は第1の実施例
における映像信号の主要階層構造を示す図であり、図1
(b)は図1(a)におけるピクチャを縦にS個に分割
している図である。このとき、分割されたS個の領域を
各々サブピクチャと呼び、各サブピクチャが並列処理を
行う単位となる。尚、サブピクチャの分割領域はこの例
のみに従うものではない。図1(c)は、各サブピクチ
ャを更に各々L個に分割している図である。このとき、
各サブピクチャ内において、分割されたL個の領域を各
々GOB(Group of Block)と呼ぶ。
尚、GOBの分割領域はこの例にのみ従うものではな
い。また、図1(d)のように、各サブピクチャの同じ
位置に存在するGOBを総括してスライスと呼ぶ。尚、
GOBの下位の階層として、従来例と同様に、マクロブ
ロックおよびブロックが存在する。並列処理の場合にお
いても、画面内の位置に依存する画質劣化を生じさせな
いために、量子化制御は、各サブピクチャを一括して、
すなわちピクチャとして扱う必要がある。このとき、基
本的に、各サブピクチャの同じ位置に存在するGOB
が、同時刻に処理される場合には、量子化制御は、スラ
イス単位で処理されることになる。尚、スライスは、同
時刻に処理される領域を一括することが目的であり、分
割領域はこの例にのみ従うものではない。
The operation will be described below. In recent years, the development of high-efficiency coding apparatus for video signals has been shifting to the development of high-resolution systems including HDTV signals. At this time, the high-resolution system inevitably requires high-speed processing. Generally, by adopting parallel processing, high speed performance is supplemented. FIG. 1 is a diagram showing a main hierarchical structure of a video signal in the first embodiment.
FIG. 1B is a diagram in which the picture in FIG. 1A is vertically divided into S pieces. At this time, each of the S divided areas is called a sub-picture, and each sub-picture becomes a unit for performing parallel processing. It should be noted that the divided area of the sub-picture is not limited to this example. FIG. 1C is a diagram in which each sub-picture is further divided into L pieces. At this time,
Within each sub-picture, each of the L divided areas is referred to as GOB (Group of Block).
It should be noted that the GOB division area does not follow only this example. Further, as shown in FIG. 1D, GOBs existing at the same position in each sub-picture are collectively called a slice. still,
As in the conventional example, macroblocks and blocks exist as lower layers of GOB. Even in the case of parallel processing, in order not to cause the image quality deterioration depending on the position on the screen, the quantization control is performed on each sub-picture at once.
That is, it must be treated as a picture. At this time, basically, GOBs existing at the same position in each sub-picture
However, if they are processed at the same time, the quantization control will be processed in slice units. It should be noted that the slice is for the purpose of collectively processing the regions processed at the same time, and the divided regions do not follow only this example.

【0040】図2は本発明の第1の実施例における量子
化制御方式の一例を説明するための図であり、本実施例
は、基本的には基準固定レート期間として1ピクチャ期
間を、基準制御期間として1スライス期間を採用してお
り、量子化制御は上記主要階層構造に基づき、以下の手
順にて行われる。 次のピクチャの各スライスの符号化で使用可能なビッ
ト量(ターゲットビット量)を推定する。 上記推定されたターゲットビット量と実際に発生した
符号量をもとにマクロブロック毎の量子化ステップパラ
メータの参照値を設定する。 マクロブロック毎の画像の特徴に応じて、上記量子化
ステップパラメータの参照値を変化させ、最終的なマク
ロブロック毎の量子化ステップパラメータを決定する。
本実施例では、並列処理を行う場合、あるいは画面を分
割して周期的リフレッシュを行う場合をも考慮する。そ
のため、本実施例においては、GOBを基本単位として
説明する。
FIG. 2 is a diagram for explaining an example of the quantization control method in the first embodiment of the present invention. In the present embodiment, basically, one picture period is used as a reference fixed rate period as a reference. One slice period is adopted as the control period, and the quantization control is performed according to the following procedure based on the main hierarchical structure. Estimate the bit amount (target bit amount) that can be used for encoding each slice of the next picture. The reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actually generated code amount. The reference value of the quantization step parameter is changed according to the feature of the image for each macroblock, and the final quantization step parameter for each macroblock is determined.
In the present embodiment, the case of performing parallel processing or the case of dividing a screen and performing periodic refreshing is also considered. Therefore, in this embodiment, GOB will be described as a basic unit.

【0041】以下、詳細に述べる。前記第1の手順とし
て、次のピクチャの各スライスの符号化で使用可能なビ
ット量を推定する。この作業にあたり、本実施例では、
各GOBに対し、絵柄ターゲット複雑度と動きターゲッ
ト複雑度の二者を定義する。絵柄ターゲット複雑度は、
画像内信号パワーに基づき定義されるターゲット複雑度
であり、動きターゲット複雑度は、画像間信号パワーに
基づき定義される複雑度である。
The details will be described below. As the first procedure, the amount of bits that can be used for encoding each slice of the next picture is estimated. For this work, in this embodiment,
For each GOB, a pattern target complexity and a motion target complexity are defined. The pattern target complexity is
The target complexity is defined based on the intra-image signal power, and the motion target complexity is the complexity defined based on the inter-image signal power.

【0042】画像内信号パワーEintは、たとえば、マク
ロブロック単位に以下のように定義される。該マクロブ
ロックサイズをP(画素)×Q(ライン)とし、該マク
ロブロックの(p,q)成分の信号値をV(p,q)と
したとき、 P,Q:マクロブロックサイズを表す定数 p,q:マクロブロック内の位置を表す定数
The image signal power Eint is defined as follows, for example, in macroblock units. When the macroblock size is P (pixels) × Q (lines) and the signal value of the (p, q) component of the macroblock is V (p, q), P, Q: constants representing the macroblock size p, q: constants that represent the position within the macroblock

【0043】[0043]

【数2】 [Equation 2]

【0044】とする。尚、画像内信号パワーEintは、入
力画像の絵柄の複雑度を表わす指標であれば、特に上記
定義に従わなくてもよい。たとえば、入力信号を変換符
号化し、変換係数毎に特定の量子化を施した後の直流成
分を除く変換係数の絶対値和あるいは絶対値二乗和等で
もよい。
It is assumed that The in-image signal power Eint does not have to comply with the above definition as long as it is an index indicating the complexity of the pattern of the input image. For example, the absolute value sum or the absolute value sum of squares of the conversion coefficients excluding the DC component after the input signal is subjected to the conversion coding and the specific quantization is performed for each conversion coefficient may be used.

【0045】画像間信号パワーEmc は、たとえば、マク
ロブロック単位に以下のように定義される。該マクロブ
ロックサイズをP×Qとし、該マクロブロックの(p,
q)成分の信号値をV(p,q)とし、該マクロブロッ
クの動き補償予測ブロックの(p,q)成分の信号値を
R(p,q)としたとき、
The inter-picture signal power Emc is defined as follows, for example, in macroblock units. The macroblock size is P × Q, and (p,
When the signal value of the q) component is V (p, q) and the signal value of the (p, q) component of the motion compensation prediction block of the macroblock is R (p, q),

【0046】[0046]

【数3】 [Equation 3]

【0047】とする。尚、画像間信号パワーEmc は、入
力画像の動きの複雑度を表わす指標であれば、特に上記
定義に従わなくてもよい。たとえば、動き補償予測後の
信号を変換符号化し、変換係数毎に特定の量子化を施し
た後の絶対値和あるいは絶対値二乗和等でもよい。
It is assumed that The inter-image signal power Emc does not have to comply with the above definition as long as it is an index representing the complexity of the movement of the input image. For example, the sum of absolute values or the sum of absolute values squared after transform-encoding the signal after motion compensation prediction and performing specific quantization for each transform coefficient may be used.

【0048】第fピクチャの第h スライスの第sサブピ
クチャの絵柄ターゲット複雑度Yint(f,h,s)および動き
ターゲット複雑度Ymc(f,h,s)は、関数fintおよび関数fm
cを用いて、以下のように定義される。 Yint(f,h,s) = fint( GOBaverage_Eint(f-1,h,s), Q(f,
h,s) ) Ymc (f,h,s) = fmc ( GOBaverage_Emc (f-1,h,s), Q(f,
h,s) ) このとき、GOBaverage_Eint(f-1,l,s)およびGOBaverage
_Emc(f-1,l,s) は、第f−1ピクチャの第lスライスの
第sサブピクチャの平均Eintおよび平均Emc であり、Q
(f,h,s)は、第fピクチャの第lスライスの第sサブピ
クチャで実際に使用された量子かステップパラメータの
平均値である。また、ハードウェア構成による遅延によ
り、GOBaverage_Eint(f-1,h,s)あるいはGOBaverage_Emc
(f-1,h,s)が使用できない場合には、以下のように定義
される。 Yint(f,h,s) = fint( GOBaverage_Eint(f-2,h,s), Q(f,
h,s) ) Ymc (f,h,s) = fmc ( GOBaverage_Emc (f-2,h,s), Q(f,
h,s) )
The picture target complexity Yint (f, h, s) and the motion target complexity Ymc (f, h, s) of the sth subpicture of the hth slice of the fth picture are the function fint and the function fm.
It is defined as follows using c. Yint (f, h, s) = fint (GOBaverage_Eint (f-1, h, s), Q (f,
h, s)) Ymc (f, h, s) = fmc (GOBaverage_Emc (f-1, h, s), Q (f,
h, s)) then GOBaverage_Eint (f-1, l, s) and GOBaverage
_Emc (f-1, l, s) is the average Eint and the average Emc of the s-th sub-picture of the l-th slice of the f-1th picture, and Q
(f, h, s) is the average value of the quantum or step parameters actually used in the s-th sub-picture of the l-th slice of the f-th picture. Also, depending on the delay due to the hardware configuration, GOBaverage_Eint (f-1, h, s) or GOBaverage_Emc
When (f-1, h, s) cannot be used, it is defined as follows. Yint (f, h, s) = fint (GOBaverage_Eint (f-2, h, s), Q (f,
h, s)) Ymc (f, h, s) = fmc (GOBaverage_Emc (f-2, h, s), Q (f,
h, s))

【0049】上記定義において、関数fint及びfmc は、
以下のように定められる。図3(a)は、第fピクチャ
の第lスライスの第sサブピクチャのGOBaverage_Eint
(f,h,s)と上記GOBを画像内符号化した場合の発生符
号量Sint(f,h,s) の概略関係を示す図であり、図3
(b)は、第fピクチャの第lスライスの第s相のGOBa
verage_Emc(f,h,s) と上記GOBを画像間符号化した場
合の発生符号量Smc(f,h,s)の概略関係を示す図である。
図より明らかなように、GOBaverage_Eint( f,h,s)とQ
(f,h,s) からSint(f,h,s) を推定することが可能であ
る。この推定発生符号量が絵柄ターゲット複雑度Yintで
ある。また、同様にSmc(f,h,s)も推定可能であり、この
推定発生量が動きターゲット複雑度Ymcである。関数fin
tおよびfmcは、上記定量的性質に基づき定められる。
In the above definition, the functions fint and fmc are
It is defined as follows. FIG. 3A shows GOBaverage_Eint of the s-th sub-picture of the l-th slice of the f-th picture.
3 is a diagram showing a schematic relationship between (f, h, s) and the generated code amount Sint (f, h, s) when the GOB is intra-coded, and FIG.
(B) is the GOBa of the s-th phase of the l-th slice of the f-th picture
It is a figure which shows the schematic relationship between verage_Emc (f, h, s) and the generated code amount Smc (f, h, s) when the said GOB is inter-image coded.
As is clear from the figure, GOBaverage_Eint (f, h, s) and Q
It is possible to estimate Sint (f, h, s) from (f, h, s). This estimated generated code amount is the pattern target complexity Yint. Similarly, Smc (f, h, s) can also be estimated, and this estimated generation amount is the motion target complexity Ymc. Function fin
t and fmc are determined based on the above quantitative properties.

【0050】ところで、本実施例では、周期的リフレシ
ュとして、画面一括リフレシュと画面分割リフレシュの
両者を想定している。また、画面分割リフレシュ領域
は、スライス単位であると仮定する。すなわち、スライ
ス単位で、画像内符号化される場合が存在すると考えて
よい。以上を踏まえ、最終的な第fピクチャの第lスラ
イスの第s相のターゲット複雑度Y(f,h,s)は、該GOB
の属するスライスが画像内符号化スライスであるか否か
により、以下のように定義される。 If (該GOBの属するスライスタイプが画面内符号化
スライスである) Then Y(f,h,s) = Yint(f,h,s) Else Y(f,h,s) = Ymc (f,h,s)
By the way, in the present embodiment, both the screen batch refresh and the screen division refresh are assumed as the periodic refresh. Further, it is assumed that the screen division refresh area is a slice unit. That is, it may be considered that there are cases where intra-picture coding is performed in slice units. Based on the above, the target complexity Y (f, h, s) of the s-th phase of the l-th slice of the f-th picture is the GOB
Is defined as follows depending on whether or not the slice to which is belongs to is an intra-coded slice. If (The slice type to which the GOB belongs is an intra-frame coding slice) Then Y (f, h, s) = Yint (f, h, s) Else Y (f, h, s) = Ymc (f, h , s)

【0051】上記各GOBのターゲット複雑度に基づ
き、各スライスのターゲット複雑度が定義される。第f
フレームの第lスライスのターゲット複雑度Y(f,h)は、
以下のように定義される。 Y(f,h) = Y(f,h,1)+Y(f,h,2)+…+Y(f,h,S) (S;サ
ブピクチャ数)
The target complexity of each slice is defined based on the target complexity of each GOB. The f
The target complexity Y (f, h) of the 1st slice of the frame is
It is defined as follows. Y (f, h) = Y (f, h, 1) + Y (f, h, 2) + ... + Y (f, h, S) (S; number of subpictures)

【0052】次に、上記各スライスのターゲット複雑度
およびバッファ残量に基づき、次のピクチャの各スライ
スで使用可能なビット量(ターゲットビット量)を推定
する。第fピクチャの各スライスのターゲットビット量
T(f,h)(1≦l≦L)は、第f−1ピクチャの符号化完
了後、以下のように想定される。 T(f,h) = [ Y(f,h) / { Y(f,1)+Y(f,2)+…+Y(f,L) } ]
× [ BIT_RATE/PICTURE_RATE - { BE(f,1) - BIT_RATE
×TE } ] ただし、Y(f,h,s)を求める過程において、Q(f,h,s)を用
いず、Q(f-1,L,s)を用いることとする。このとき、 BIT_RATE:伝送レート PICTURE_RATE:1秒あたりのピクチャ数 TE:基準蓄積時間定数 であり、また、BE(f,h) は、第fピクチャの第lスライ
スを符号化する直前の送信バッファ残量を示す。
Next, the bit amount (target bit amount) usable in each slice of the next picture is estimated based on the target complexity of each slice and the remaining buffer capacity. Target bit amount of each slice of f-th picture
T (f, h) (1 ≦ l ≦ L) is assumed as follows after the encoding of the f−1th picture is completed. T (f, h) = [Y (f, h) / {Y (f, 1) + Y (f, 2) +… + Y (f, L)}]
× [BIT_RATE / PICTURE_RATE-{BE (f, 1)-BIT_RATE
However, in the process of obtaining Y (f, h, s), Q (f-1, L, s) is used instead of Q (f, h, s). At this time, BIT_RATE: transmission rate PICTURE_RATE: number of pictures per second TE: reference accumulation time constant, and BE (f, h) is the transmission buffer remaining immediately before encoding the 1st slice of the fth picture. Indicates the amount.

【0053】また、符号化開始直後の初期状態におい
て、すべてのY(f,h)が定義できない場合には、T(f,h)は
以下のように定義される。 T(f,h) = [ 1/L ]× [ BIT_RATE/PICTURE_RATE - { BE
(f,1) - BI_RATET×TE } ] また、初期状態におけるBE(f,1)は、たとえば、以下の
ように定義する。 BE(f,h) = BIT_RATE/PICTURE_RATE また、ハードウェア構成による遅延により、BE(f,1) が
使用できない場合には、たとえば、使用可能な最新のバ
ッファ残量を使用する。
If all Y (f, h) cannot be defined in the initial state immediately after the start of encoding, T (f, h) is defined as follows. T (f, h) = [1 / L] × [BIT_RATE / PICTURE_RATE-(BE
(f, 1) -BI_RATET × TE}] Further, BE (f, 1) in the initial state is defined as follows, for example. BE (f, h) = BIT_RATE / PICTURE_RATE When BE (f, 1) cannot be used due to the delay due to the hardware configuration, for example, the latest available buffer remaining capacity is used.

【0054】次に、前記第2の手順として、上記推定さ
れたターゲットビット量と実際に発生した符号量をもと
にマクロブロック毎の量子化ステップパラメータの参照
値を設定する。参照値設定にあたり、仮想バッファを想
定する。仮想バッファは、概略的には、上記ターゲット
ビット量と実際の発生符号量の差を蓄積するバッファで
ある。本実施例では、1つの仮想バッファが想定され
る。第fフレームの第lスライスを符号化する直前の仮
想バッファの占有率d(f,h)は、以下のように定義され
る。 d(f,h) = { S(1,1)+S(1,2)+…+S(1,L)+S(2,1)+S(2,2)+
…+S(2,L)…+S(f-1,1)+S(f-1,2)+…+S(f-1,L)+S(f,1)+S
(f,2)+…+S(f,h-1) }-{ T(1,1)+T(1,2)+…+T(1,L)+T(2,
1)+T(2,2)+…+T(2,L)…+T(f-1,1)+T(f-1,2)+…+T(f-1,
L)+T(f,1)+T(f,2)+…+T(f,h-1) } このとき、S(f-1,h)は、第fピクチャの第lスライスに
おける実際の発生符号量である。また、ハードウェア構
成によりS(x,y)が使用できない場合には、S(x,y)は、た
とえば以下のように定義される。 S(x,y) = Y(x,y) 尚、S(x,y)は使用可能になり次第、本来の値を適用す
る。
Next, as the second procedure, the reference value of the quantization step parameter for each macroblock is set based on the estimated target bit amount and the actually generated code amount. A virtual buffer is assumed when setting the reference value. The virtual buffer is a buffer that roughly stores the difference between the target bit amount and the actual generated code amount. In this embodiment, one virtual buffer is assumed. The occupancy rate d (f, h) of the virtual buffer immediately before encoding the l-th slice of the f-th frame is defined as follows. d (f, h) = {S (1,1) + S (1,2) +… + S (1, L) + S (2,1) + S (2,2) +
… + S (2, L)… + S (f-1,1) + S (f-1,2) +… + S (f-1, L) + S (f, 1) + S
(f, 2) +… + S (f, h-1)}-{T (1,1) + T (1,2) +… + T (1, L) + T (2,
1) + T (2,2) +… + T (2, L)… + T (f-1,1) + T (f-1,2) +… + T (f-1,
L) + T (f, 1) + T (f, 2) + ... + T (f, h-1)} At this time, S (f-1, h) is the actual value in the l-th slice of the f-th picture. Is the amount of code generated. When S (x, y) cannot be used due to the hardware configuration, S (x, y) is defined as follows, for example. S (x, y) = Y (x, y) The original value of S (x, y) will be applied as soon as it becomes available.

【0055】上記仮想バッファの占有率を量子化ステッ
プパラメータに対応させることにより量子化ステップパ
ラメータの変更を行う。たとえば、スライス単位に設定
されたターゲットビット量と実際の発生量の差がなけれ
ば、仮想バッファ占有率は変動せず、量子化ステップパ
ラメータは変動しない。仮に、上記二者に差があれば、
仮想バッファ占有率の変動を生じさせ、その変動に応じ
量子化ステップパラメータの修正が施される。たとえ
ば、発生符号量がターゲットビット量を上回った場合、
その差分が仮想バッファ占有率の増加量となる。仮想バ
ッファ占有率は量子化ステップパラメータに対応してお
り、仮想バッファ占有率の増加は、量子化ステップパラ
メータの増加につながる。量子化ステップパラメータの
増加は、以降の発生符号量を減少させることになる。
The quantization step parameter is changed by associating the occupation rate of the virtual buffer with the quantization step parameter. For example, if there is no difference between the target bit amount set for each slice and the actual generation amount, the virtual buffer occupancy does not change and the quantization step parameter does not change. If there is a difference between the above two,
The virtual buffer occupancy changes, and the quantization step parameter is modified according to the change. For example, when the generated code amount exceeds the target bit amount,
The difference is the increase amount of the virtual buffer occupation rate. The virtual buffer occupancy corresponds to the quantization step parameter, and an increase in the virtual buffer occupancy leads to an increase in the quantization step parameter. Increasing the quantization step parameter will reduce the subsequent generated code amount.

【0056】上記仮想バッファ占有率d(f,h)に基づき、
第fピクチャの第lスライスの量子化ステップパラメー
タの参照値Qr(f,h) は、関数fqを用いて以下のように算
出される。 Qr(f,h) = fq( d(f,h) ) 関数fqは、たとえば、 Qr(f,h) = 31×{ d(f,h)/r } ただし、r = BIT_RATE
/PICTURE_RATE あるいは、 Qr(m,n) = 31×d(f,h)/r ただし、r = BIT_RATE
/PICTURE_RATE が考えられる。あるいは、発生符号量と量子化ステップ
パラメータの定量的性質に基づき定められる。
Based on the virtual buffer occupancy ratio d (f, h),
The reference value Qr (f, h) of the quantization step parameter of the l-th slice of the f-th picture is calculated as follows using the function fq. Qr (f, h) = fq (d (f, h)) function fq is, for example, Qr (f, h) = 31 × {d (f, h) / r}, where r = BIT_RATE
/ PICTURE_RATE or Qr (m, n) = 31 × d (f, h) / r where r = BIT_RATE
Possible / PICTURE_RATE. Alternatively, it is determined based on the generated code amount and the quantitative property of the quantization step parameter.

【0057】次に前記第3の手順として、上記Qr(g,f,
m) に基づき、最終的なマクロブロック毎の量子化ステ
ップパラメータを決定する。本実施例では、マクロブロ
ック毎の原信号のパワーに基づき適応量子化係数K(g,f,
m)を求め、以下のように最終的なマクロブロック毎の量
子化ステップパラメータQ(g,f,m)を算出する。 Q(g,f,m) = Qr(g,f,m) × K(g,f,m)
Next, as the third procedure, the above Qr (g, f,
Based on m), the final quantization step parameter for each macroblock is determined. In the present embodiment, the adaptive quantization coefficient K (g, f,
m) is obtained, and the final quantization step parameter Q (g, f, m) for each macroblock is calculated as follows. Q (g, f, m) = Qr (g, f, m) × K (g, f, m)

【0058】実施例2.以下、本発明の第2の実施例に
ついて説明する。第2の実施例は、ターゲット複雑度の
算出過程が第1の実施例と異なる。第1の実施例では、
暗黙のうちに該GOBを画像内符号化あるいは画像間符
号化の2者に分類し、ターゲット複雑度を算出してい
た。(このとき、正確には後者は、画像間符号化と画像
内符号化のハイブリッド符号化である。)しかしなが
ら、実際には、1つのGOB内に画像内符号化を行うマ
クロブロックと画像間符号化を行うマクロブロックが混
在する場合もある。これを踏まえ、第fピクチャの第l
スライスの第sサブブロックのターゲット複雑度Y(f,h,
s) は、関数fintandmcを用いて、以下のように定義され
る。 Y(f,h,s) = fintandmc( GOBaverage_Eint(f-1,h,s), Ei
nt_num(f-1,h,s),GOBaverage_Emc (f-1,h,s), Emc_num
(f-1,h,s),Q(f,h,s) ) このとき、 Eint_num(f-1,h,s) : 該GOBにおける画像内符号
化マクロブロック数 Emc_num(f-1,h,s) : 該GOBにおける画像間符号
化マクロブロック数 である。たとえば、関数fintandmc は、第1の実施例の
ように定量的性質に基づき定められる。
Example 2. The second embodiment of the present invention will be described below. The second embodiment differs from the first embodiment in the target complexity calculation process. In the first embodiment,
The GOB is implicitly classified into two types, that is, intra-picture coding and inter-picture coding, and the target complexity is calculated. (At this time, to be exact, the latter is a hybrid coding of inter-picture coding and intra-picture coding.) However, in reality, a macroblock and inter-picture coding for performing intra-picture coding in one GOB are performed. In some cases, macroblocks to be converted are mixed. Based on this, the l-th of the f-th picture
Target complexity Y (f, h,
s) is defined as follows using the function fintandmc. Y (f, h, s) = fintandmc (GOBaverage_Eint (f-1, h, s), Ei
nt_num (f-1, h, s), GOBaverage_Emc (f-1, h, s), Emc_num
(f-1, h, s), Q (f, h, s)) At this time, Eint_num (f-1, h, s): the number of intra-picture coding macroblocks in the GOB Emc_num (f-1, h) , s): the number of inter-picture coded macroblocks in the GOB. For example, the function fintandmc is defined based on the quantitative property as in the first embodiment.

【0059】実施例3.以下、本発明の第3の実施例に
ついて説明する。第3の実施例は、ターゲット複雑度算
出の過程が第1の実施例と異なる。図4は本発明の第3
の実施例における量子化制御方式の一例を説明するため
の概略ブロック図である。図において、入力端子1hか
ら入力された参照量子化ステップパラメータ401は、
ターゲット複雑度算出回路3bの第1の入力に、入力端
子1iから入力された発生符号量402は、ターゲット
複雑度算出回路3bの第2の入力に、入力端子1jから
入力されたタイプ識別信号403は、ターゲット複雑度
算出回路3bの第3の入力に与えられる。ターゲット複
雑度算出回路3bの出力404は、ターゲットビット量
算出回路4bの第1の入力に与えられ、入力端子1kか
ら入力されたバッファ残量405はターゲットビット量
算出回路4bの第2の入力に与えられる。ターゲット量
算出回路4bの出力であるターゲットビット量406
は、仮想バッファ残量算出回路5bの第1の入力に、入
力端子1hから入力された発生符号量407は仮想バッ
ファ残量算出回路5bの第2の入力に与えられる。仮想
バッファ残量算出回路5bの出力408は量子化ステッ
プパラメータ算出回路6bの入力に支えられる。量子化
ステップパラメータ算出回路6bの出力である参照量子
化ステップパラメータ409は適応量子化回路7bの第
1の入力に与えられる。適応量子化回路7bの第2の入
力には、入力端子1mより適応量子化係数410が与え
られる。適応量子化回路7bの出力であるマクロブロッ
ク単位の量子化ステップパラメータ411は、出力端子
2bより出力される。
Example 3. The third embodiment of the present invention will be described below. The third embodiment differs from the first embodiment in the process of calculating the target complexity. FIG. 4 shows the third aspect of the present invention.
4 is a schematic block diagram for explaining an example of a quantization control method in the embodiment of FIG. In the figure, the reference quantization step parameter 401 input from the input terminal 1h is
The generated code amount 402 input from the input terminal 1i to the first input of the target complexity calculation circuit 3b is the type identification signal 403 input from the input terminal 1j to the second input of the target complexity calculation circuit 3b. Is given to the third input of the target complexity calculation circuit 3b. The output 404 of the target complexity calculation circuit 3b is given to the first input of the target bit amount calculation circuit 4b, and the remaining buffer capacity 405 input from the input terminal 1k is input to the second input of the target bit amount calculation circuit 4b. Given. Target bit amount 406 output from the target amount calculation circuit 4b
Is supplied to the first input of the virtual buffer remaining amount calculation circuit 5b, and the generated code amount 407 input from the input terminal 1h is supplied to the second input of the virtual buffer remaining amount calculation circuit 5b. The output 408 of the virtual buffer remaining amount calculation circuit 5b is supported by the input of the quantization step parameter calculation circuit 6b. The reference quantization step parameter 409, which is the output of the quantization step parameter calculation circuit 6b, is given to the first input of the adaptive quantization circuit 7b. An adaptive quantization coefficient 410 is given to the second input of the adaptive quantization circuit 7b from the input terminal 1m. The quantization step parameter 411 for each macroblock, which is the output of the adaptive quantization circuit 7b, is output from the output terminal 2b.

【0060】以下、動作について説明する。第3の実施
例は、ターゲット複雑度算出の過程が第3の実施例と異
なる。第1の実施例と同様に、第1の手順として、次の
ピクチャの各スライスで使用可能なビット量を推定す
る。図5は本発明の第3の実施例における量子化制御方
式のスライスのタイプの概念図であり、図5(a)は、
画面分割周期的リフレッシュの一例を示している。一般
に、ターゲット複雑度の算出は、該GOBと画面上にお
いて同じ位置に存在した過去のピクチャにおけるGOB
の情報を参照して行われる。このとき、画面分割周期的
リフレッシュの場合には、必ずしも上記参照GOBの情
報をそのまま用いることはできない。なぜならば、該G
OBおよび上記参照GOBの属するスライスのタイプ
(たとえば、画像内符号化スライスか否か)によって、
たとえば発生符号量は大きく異なってくる。図5(b)
のように、第3の実施例では、たとえば、3種類のスラ
イスタイプの組合わせが考えられる。
The operation will be described below. The third embodiment differs from the third embodiment in the target complexity calculation process. Similar to the first embodiment, as the first procedure, the bit amount usable in each slice of the next picture is estimated. FIG. 5 is a conceptual diagram of the slice type of the quantization control method in the third embodiment of the present invention, and FIG.
An example of screen division periodic refresh is shown. In general, the calculation of the target complexity is performed by the GOB in the past picture existing at the same position on the screen as the GOB.
Refer to the information in. At this time, in the case of the screen division periodic refresh, the information of the reference GOB cannot be used as it is. Because G
Depending on the type of slice to which the OB and the reference GOB belong (for example, whether it is an intra-coded slice or not),
For example, the amount of generated code varies greatly. Figure 5 (b)
As described above, in the third embodiment, for example, a combination of three slice types can be considered.

【0061】以上を踏まえ、第3の実施例では、たとえ
ば以下のように3種類のターゲット複雑度が定義され
る。第fピクチャの第hスライスの第sサブブロックの
イントラ/ノンイントラターゲット複雑度Yint/mc(f,h,
s),ノンイントラ/イントラターゲット複雑度Ymc/int
(f,h,s)およびノンイントラ/ノンイントラターゲット
複雑度Ymc/mc(f,h,s) は、関数fint/mc,関数fmc/intお
よび関数fmc/mcを用いて、以下のように定義される。 Yint/mc(f,h,s) = fint/mc( S(f-1,h,s), Q(f-1,h,s),
Q(f,h,s) ) Ymc/int(f,h,s) = fmc/int( S(f-1,h,s), Q(f-1,h,s),
Q(f,h,s) ) Ymc/mc (f,h,s) = fmc/mc ( S(f-1,h,s), Q(f-1,h,s),
Q(f,h,s) ) このとき、 S(f-1,h,s)は、第f−1ピクチャの第lス
ライスの第sサブブロックにおける発生符号量であり、
Q(f-1,h,s)は、第f−1ピクチャの第lスライスの第s
サブピクチャで実際に使用された量子化ステップパラメ
ータである。
Based on the above, in the third embodiment, for example, three types of target complexity are defined as follows. Intra / non-intra target complexity Yint / mc (f, h, of the sth sub-block of the h-th slice of the f-th picture
s), non-intra / intra target complexity Ymc / int
(f, h, s) and non-intra / non-intra target complexity Ymc / mc (f, h, s) can be calculated as follows using function fint / mc, function fmc / int and function fmc / mc. Is defined. Yint / mc (f, h, s) = fint / mc (S (f-1, h, s), Q (f-1, h, s),
Q (f, h, s)) Ymc / int (f, h, s) = fmc / int (S (f-1, h, s), Q (f-1, h, s),
Q (f, h, s)) Ymc / mc (f, h, s) = fmc / mc (S (f-1, h, s), Q (f-1, h, s),
Q (f, h, s)) At this time, S (f-1, h, s) is the generated code amount in the sth sub-block of the l-th slice of the f-1th picture,
Q (f-1, h, s) is the s-th slice of the l-th slice of the f-1th picture.
It is the quantization step parameter actually used in the sub-picture.

【0062】また、ハードウェア構成による遅延によ
り、GOBaverage_Eint(f-1,h,s)あるいはGOBaverage_Emc
(f-1,h,s)が使用できない場合には、以下のように定義
される。 Yint/mc(f,h,s) = fint/mc( S(f-2,h,s), Q(f-2,h,s),
Q(f,h,s) ) Ymc/int(f,h,s) = fmc/int( S(f-2,h,s), Q(f-2,h,s),
Q(f,h,s) ) Ymc/mc (f,h,s) = fmc/mc ( S(f-2,h,s), Q(f-2,h,s),
Q(f,h,s) )
Further, due to the delay due to the hardware configuration, GOBaverage_Eint (f-1, h, s) or GOBaverage_Emc
When (f-1, h, s) cannot be used, it is defined as follows. Yint / mc (f, h, s) = fint / mc (S (f-2, h, s), Q (f-2, h, s),
Q (f, h, s)) Ymc / int (f, h, s) = fmc / int (S (f-2, h, s), Q (f-2, h, s),
Q (f, h, s)) Ymc / mc (f, h, s) = fmc / mc (S (f-2, h, s), Q (f-2, h, s),
Q (f, h, s))

【0063】以上を踏まえ、最終的な第fピクチャの第
lスライスの第sサブピクチャのターゲット複雑度Y(f,
h,s)は、第fピクチャの第lスライスの第sサブピクチ
ャのスライスタイプSliceType(f,h,s)および第f−1ピ
クチャの第lスライスの第sサブピクチャのスライスタ
イプSliceType(f-1,h,s)に応じ、以下のように定義され
る。 if (SliceType(f-1,h,s)が画像内符号化スライス)&
(SliceType(f,h,s)が画像間符号化スライス) then Y(f,h,s) = Yint/mc(f,h,s) if (SliceType(f-1,h,s)が画像間符号化スライス)&
(SliceType(f,h,s)が画像内符号化スライス) then Y(f,h,s) = Ymc/int(f,h,s) if (SliceType(f-1,h,s)が画像内符号化スライス)&
(SliceType(f,h,s)が画像内符号化スライス) then Y(f,h,s) = Ymc/mc(f,h,s)
Based on the above, the target complexity Y (f, f, f) of the s-th sub-picture of the l-th slice of the f-th picture is finally obtained.
h, s) is a slice type SliceType (f, h, s) of the s-th sub-picture of the l-th slice of the f-th picture and a slice type SliceType (f of the s-th sub-picture of the l-th slice of the f-1th picture. -1, h, s) is defined as follows. if (SliceType (f-1, h, s) is an intra-coded slice) &
(SliceType (f, h, s) is the inter-coded slice) then Y (f, h, s) = Yint / mc (f, h, s) if (SliceType (f-1, h, s) is the image Inter-coded slice) &
(SliceType (f, h, s) is the intra-image coding slice) then Y (f, h, s) = Ymc / int (f, h, s) if (SliceType (f-1, h, s) is the image Inner coding slice) &
(SliceType (f, h, s) is an intra-coded slice) then Y (f, h, s) = Ymc / mc (f, h, s)

【0064】上記定義において、関数fint/mc,関数fmc
/intおよび関数fmc/mcは、第1の実施例のように定量的
性質に基づき定められる。
In the above definition, the function fint / mc, the function fmc
/ int and the function fmc / mc are defined based on the quantitative property as in the first embodiment.

【0065】実施例4.以下、本発明の第4の実施例に
ついて説明する。第4の実施例は、入力映像信号よりシ
ーンチェンジを検出し、量子化ステップパラメータを変
更する過程を含む。図6は本発明の第4の実施例におけ
る量子化制御方式の一例を説明するための概略ブロック
図である。図において、入力端子1tから入力された映
像信号610は、シーンチェンジ検出回路8に与えられ
る。シーンチェンジ検出回路8の出力611は、量子化
ステップパラメータ算出回路6cの第2の入力に与えら
れる。
Example 4. The fourth embodiment of the present invention will be described below. The fourth embodiment includes a process of detecting a scene change from the input video signal and changing the quantization step parameter. FIG. 6 is a schematic block diagram for explaining an example of the quantization control method in the fourth exemplary embodiment of the present invention. In the figure, the video signal 610 input from the input terminal 1t is applied to the scene change detection circuit 8. The output 611 of the scene change detection circuit 8 is given to the second input of the quantization step parameter calculation circuit 6c.

【0066】次に、動作について説明する。一般に、シ
ーンチェンジ時には、発生符号量が増加する。急激な発
生符号量の変動は、不必要な量子化ステップパラメータ
の変動の原因となり易い。また、一般に、シーンチェン
ジ直後は、視覚解像度特性が劣化すると言われている。
第4の実施例は、画像の変化率を検出し、シーンチェン
ジ時には、意図的に発生符号量を通常状態程度におさえ
る動作を持つ。たとえば、画像変化率は、以下のように
検出される。第f−1ピクチャの(i,j)成分の画素
値をV(f-1,i,j)、第fピクチャの(i,j)成分の画素
値をV(f,i,j)としたとき、第fピクチャの画像変化率ch
ange(f)を以下のように定義する。
Next, the operation will be described. Generally, the amount of generated codes increases at the scene change. A sudden change in the generated code amount is likely to cause an unnecessary change in the quantization step parameter. Also, it is generally said that the visual resolution characteristics deteriorate immediately after a scene change.
The fourth embodiment has an operation of detecting the rate of change of an image and intentionally keeping the generated code amount at a normal level at the time of a scene change. For example, the image change rate is detected as follows. The pixel value of the (i, j) component of the f-1th picture is V (f-1, i, j), and the pixel value of the (i, j) component of the fth picture is V (f, i, j). Image change rate ch of the f-th picture
Define ange (f) as follows.

【0067】[0067]

【数4】 [Equation 4]

【0068】このとき、ピクチャあたりの画素数をI×
Jとする。たとえば、上記画像変化率change(f) を考慮
し、第fピクチャの仮想バッファの占有率に以下のごと
くオフセット量を与える。 d(f,1) = d(f,1) + fob( change(f) ) ただし、第fピクチャ終了時には、以下のごとくオフセ
ット量を減ずる。 d(f+1,1) = d(f+1,1) - fob( change(f) ) このとき、関数fob は、定量的性質に基づき定められ
る。あるいは、上記画像変化率change(f) を考慮し、第
fピクチャの参照量子化ステップパラメータに以下のご
とくオフセット量を与える。 Qr(f,h) = fq( d(f,h) ) + foq( Schange(f) ) このとき、関数foqは、定量的性質に基づき定められ
る。
At this time, the number of pixels per picture is I ×
Let's say J. For example, in consideration of the image change rate change (f), the offset amount is given to the occupancy rate of the virtual buffer of the f-th picture as follows. d (f, 1) = d (f, 1) + fob (change (f)) However, at the end of the f-th picture, the offset amount is reduced as follows. d (f + 1,1) = d (f + 1,1)-fob (change (f)) At this time, the function fob is determined based on the quantitative property. Alternatively, in consideration of the image change rate change (f), an offset amount is given to the reference quantization step parameter of the f-th picture as follows. Qr (f, h) = fq (d (f, h)) + foq (Schange (f)) At this time, the function foq is determined based on the quantitative property.

【0069】[0069]

【発明の効果】以上のように、本発明の請求項1によれ
ば、高解像度信号に対応可能な量子化制御方式が得られ
る効果がある。
As described above, according to the first aspect of the present invention, there is an effect that a quantization control system capable of coping with high resolution signals can be obtained.

【0070】本発明の請求項2によれば、画面を分割し
た周期的リフレッシュを行う場合に適した量子化制御方
式が得られる効果がある。
According to the second aspect of the present invention, there is an effect that a quantization control system suitable for the case where the screen is divided and the periodic refresh is performed.

【0071】本発明の請求項3によれば、定量的性質に
基づく量子化制御方式が得られる効果がある。
According to the third aspect of the present invention, there is an effect that the quantization control system based on the quantitative property can be obtained.

【0072】本発明の請求項4によれば、定量的性質に
基づく量子化制御方式が得られる効果がある。
According to the fourth aspect of the present invention, there is an effect that the quantization control system based on the quantitative property can be obtained.

【0073】本発明の請求項5によれば、シーンチェン
ジへの対応も考慮した量子化制御方式が得られる効果が
ある。
According to the fifth aspect of the present invention, there is an effect that the quantization control system in consideration of the scene change can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における映像信号の主要
階層構造を示す図である。
FIG. 1 is a diagram showing a main hierarchical structure of a video signal according to a first embodiment of the present invention.

【図2】本発明の第1の実施例における量子化制御方式
の一例を説明するための概略ブロック図である。
FIG. 2 is a schematic block diagram for explaining an example of a quantization control method in the first exemplary embodiment of the present invention.

【図3】本発明の第1の実施例における量子化制御方式
で参照される複雑度と発生符号量の概略関係を示す図で
ある。
FIG. 3 is a diagram showing a schematic relationship between complexity and a generated code amount referred to in the quantization control method in the first exemplary embodiment of the present invention.

【図4】本発明の第3の実施例における量子化制御方式
の一例を説明するための概略ブロック図である。
FIG. 4 is a schematic block diagram for explaining an example of a quantization control method in a third exemplary embodiment of the present invention.

【図5】本発明の第3の実施例における量子化制御方式
のスライスのタイプの概念図である。
FIG. 5 is a conceptual diagram of slice types of a quantization control method according to a third embodiment of the present invention.

【図6】本発明の第4の実施例における量子化制御方式
の一例を説明するための概略ブロック図である。
FIG. 6 is a schematic block diagram for explaining an example of a quantization control system according to a fourth exemplary embodiment of the present invention.

【図7】従来の映像信号符号化方式を説明するための概
略ブロック図である。
FIG. 7 is a schematic block diagram for explaining a conventional video signal encoding system.

【図8】従来の映像信号符号化方式における量子化制御
方式の一例を説明するための概略ブロック図である。
FIG. 8 is a schematic block diagram for explaining an example of a quantization control method in a conventional video signal encoding method.

【図9】リフレッシュ方式の概念図である。FIG. 9 is a conceptual diagram of a refresh method.

【符号の説明】[Explanation of symbols]

1 入力端子 2 出力端子 3 ターゲット複雑度算出回路 4 ターゲットビット量算出回路 5 仮想バッファ残量算出回路 6 量子化ステップパラメータ算出回路 7 適応量子化回路 8 シーンチェンジ検出回路 9 減算器 10 DCT回路 11 量子化回路 12 逆量子化回路 13 IDCT回路 14 加算器 15 メモリ回路 16 動き補償予測回路 17 切り換え回路 18 可変長符号化回路 19 送信バッファ 20 複雑度算出回路 21 定数発生回路 22 仮想バッファ選択回路 1 Input Terminal 2 Output Terminal 3 Target Complexity Calculation Circuit 4 Target Bit Amount Calculation Circuit 5 Virtual Buffer Remaining Capacity Calculation Circuit 6 Quantization Step Parameter Calculation Circuit 7 Adaptive Quantization Circuit 8 Scene Change Detection Circuit 9 Subtractor 10 DCT Circuit 11 Quantum Decoding circuit 12 Dequantization circuit 13 IDCT circuit 14 Adder 15 Memory circuit 16 Motion compensation prediction circuit 17 Switching circuit 18 Variable length coding circuit 19 Transmission buffer 20 Complexity calculation circuit 21 Constant generation circuit 22 Virtual buffer selection circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中井 隆洋 長岡京市馬場図所1番地 三菱電機株式会 社映像システム開発研究所内 (72)発明者 福原 隆浩 鎌倉市大船五丁目1番1号 三菱電機株式 会社通信システム研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Takahiro Nakai No. 1 Baba Institute, Nagaokakyo City Video System Development Laboratory, Mitsubishi Electric Co., Ltd. (72) Inventor Takahiro Fukuhara 5-11 1-1 Ofuna, Kamakura-shi Mitsubishi Electric Corporation Company Communication Systems Laboratory

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 映像信号を符号化する映像信号符号化方
式であり、画像内符号化と画像間符号化を構成要素とす
る映像信号符号化方式であり、画面を分割して並列処理
する映像信号符号化方式であって、画面を一括して量子
化制御することを特徴とする映像信号符号化方式。
1. A video signal coding system for coding a video signal, which is a video signal coding system having intra-picture coding and inter-picture coding as constituent elements, wherein a screen is divided and processed in parallel. A video signal coding method, characterized in that the screen is collectively quantized and controlled.
【請求項2】 映像信号を符号化する映像信号符号化方
式であり、画像内符号化と画像間符号化を構成要素とす
る映像信号符号化方式であって、画面を複数の領域に分
割し、上記領域毎に符号化画像の複雑度あるいは発生符
号量を推定することを特徴とする映像信号符号化方式。
2. A video signal coding system for coding a video signal, the video signal coding system comprising intra-picture coding and inter-picture coding as constituent elements, wherein a screen is divided into a plurality of areas. A video signal coding method, characterized in that the complexity of a coded image or the amount of generated code is estimated for each area.
【請求項3】 映像信号を符号化する映像信号符号化方
式であり、画像内符号化と画像間符号化を構成要素とす
る映像信号符号化方式であって、符号化画像の複雑度あ
るいは発生符号量の推定の指標として画像内信号パワー
と画像間信号パワーおよび量子化ステップパラメータを
用いることを特徴とする映像信号符号化方式。
3. A video signal coding system for coding a video signal, the video signal coding system comprising intra-picture coding and inter-picture coding as constituent elements, wherein the complexity or occurrence of a coded image A video signal coding method characterized by using intra-picture signal power, inter-picture signal power, and a quantization step parameter as an index for estimating the code amount.
【請求項4】 映像信号を符号化する映像信号符号化方
式であり、画像内符号化と画像間符号化を構成要素とす
る映像信号符号化方式であって、符号化画像の複雑度あ
るいは発生符号量の推定の指標として過去における画面
の発生符号量と過去における画面の量子化ステップパラ
メータおよび現在における画面の量子化ステップパラメ
ータを用いることを特徴とする映像信号符号化方式。
4. A video signal coding system for coding a video signal, the video signal coding system comprising intra-picture coding and inter-picture coding as constituent elements, wherein the complexity or occurrence of a coded image A video signal coding method characterized in that a past code amount generated in a screen, a past screen quantization step parameter, and a present screen quantization step parameter are used as an index for estimating a code amount.
【請求項5】 映像信号を符号化する映像信号符号化方
式であり、画像内符号化と画像間符号化を構成要素とす
る映像信号符号化方式であって、画像の変化率を検出
し、上記変化率に基づき量子化ステップパラメータを制
御することを特徴とする映像信号符号化方式。
5. A video signal coding system for coding a video signal, the video signal coding system having intra-picture coding and inter-picture coding as constituent elements, wherein a change rate of an image is detected, A video signal encoding method characterized in that a quantization step parameter is controlled based on the rate of change.
JP26020893A 1993-10-18 1993-10-18 Video signal encoding system Pending JPH07115651A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26020893A JPH07115651A (en) 1993-10-18 1993-10-18 Video signal encoding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26020893A JPH07115651A (en) 1993-10-18 1993-10-18 Video signal encoding system

Publications (1)

Publication Number Publication Date
JPH07115651A true JPH07115651A (en) 1995-05-02

Family

ID=17344849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26020893A Pending JPH07115651A (en) 1993-10-18 1993-10-18 Video signal encoding system

Country Status (1)

Country Link
JP (1) JPH07115651A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072144A (en) * 2002-08-01 2004-03-04 Sony Corp Encoder and encoding method, program, and recording medium
JP2008005337A (en) * 2006-06-23 2008-01-10 Canon Inc Image encoding device and image encoding method
US7522665B2 (en) 2002-07-04 2009-04-21 Lg Electronics Inc. Mobile terminal with camera
US7801222B2 (en) 2004-06-30 2010-09-21 Lg Electronics Inc. Coding image signal

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522665B2 (en) 2002-07-04 2009-04-21 Lg Electronics Inc. Mobile terminal with camera
JP2004072144A (en) * 2002-08-01 2004-03-04 Sony Corp Encoder and encoding method, program, and recording medium
US7801222B2 (en) 2004-06-30 2010-09-21 Lg Electronics Inc. Coding image signal
JP2008005337A (en) * 2006-06-23 2008-01-10 Canon Inc Image encoding device and image encoding method
US8259796B2 (en) 2006-06-23 2012-09-04 Canon Kabushiki Kaisha Image coding apparatus and image coding method

Similar Documents

Publication Publication Date Title
US5963673A (en) Method and apparatus for adaptively selecting a coding mode for video encoding
JP3954656B2 (en) Image coding apparatus and method
US6819714B2 (en) Video encoding apparatus that adjusts code amount by skipping encoding of image data
JP4890263B2 (en) Encoding method, decoding method, and encoding apparatus for digital picture sequence
EP1833256B1 (en) Selection of encoded data, setting of encoded data, creation of recoded data, and recoding method and device
KR100227298B1 (en) Code amount controlling method for coded pictures
JP4257655B2 (en) Video encoding device
KR100588795B1 (en) Encoder and encoding method
JP3426668B2 (en) Video coding method
JP3173369B2 (en) Image compression coding device
JP2000261800A (en) Variable bit rate moving picture encoding method and device
JP2001128179A (en) Device and method for encoding moving picture
JPH07115651A (en) Video signal encoding system
JP3465316B2 (en) Video signal encoding method
JP4769392B2 (en) Signal processing device
JP3812269B2 (en) Video encoding apparatus and method
JPH07322245A (en) Video signal coding system
JPH07177513A (en) Video signal coding system
JP4193080B2 (en) Encoding apparatus and method
JP2002199408A (en) Moving image coding method and moving image coder
JPH11205803A (en) Encoding device and encoding method therefor
JP4359273B2 (en) Coding mode selection method
JP2900927B2 (en) Encoding method and encoding device
JP3779066B2 (en) Video encoding device
JPH0775095A (en) Rate control circuit