JPH07236138A - Moving image encoding device - Google Patents

Moving image encoding device

Info

Publication number
JPH07236138A
JPH07236138A JP2648794A JP2648794A JPH07236138A JP H07236138 A JPH07236138 A JP H07236138A JP 2648794 A JP2648794 A JP 2648794A JP 2648794 A JP2648794 A JP 2648794A JP H07236138 A JPH07236138 A JP H07236138A
Authority
JP
Japan
Prior art keywords
information
step size
coding
unit
quantization step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2648794A
Other languages
Japanese (ja)
Other versions
JP3005147B2 (en
Inventor
Hiroyuki Okada
浩行 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2648794A priority Critical patent/JP3005147B2/en
Publication of JPH07236138A publication Critical patent/JPH07236138A/en
Application granted granted Critical
Publication of JP3005147B2 publication Critical patent/JP3005147B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PURPOSE:To improve picture quality in a specific area while preventing picture quality from being suddenly deteriorated by stepwise controlling a quantizing step at the time of allocating much encoding information to the specific area. CONSTITUTION:Encoding information found out in each block i.s stored in a buffer memory 6 and an area extracting part 13 extracts a specific area from an input picture. A control part 15 controls the size of a quantizing step based upon an encoding position on a current screen which is found our by an encoding part 5 and the buffer occupation amount of encoding information in a buffer memory 6 and allocates the encoding information to the specific area and the other area. In this case, the quantizing step size is stepwise changed in accordance with the information of a current picture obtained from an encoding position calculating part 14 and the quantizing step size is controlled in accordance with the specific area information. Since much encoding information can be allocated to the specific area while preventing picture quality from being suddenly deteriorated, the picture quality of the specific area can be improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力画像を2次元のブ
ロック単位に分割して直交変換し、量子化・符号化を行
う動画像符号化方式に係わり、特に画面から特定領域を
抽出して、領域ごとに量子化ステップサイズを制御する
動画像符号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture coding system in which an input image is divided into two-dimensional block units, orthogonally transformed, and quantized and coded. In particular, a specific area is extracted from a screen. The present invention relates to a moving picture coding apparatus that controls the quantization step size for each area.

【0002】[0002]

【従来の技術】近年、ISDNを有効に活用するサービ
スとしてテレビ会議やテレビ電話などの画像通信サービ
スが有望視され、このような動画像の効率的な伝送を目
的とした高能率符号化の研究が盛んに行われている。こ
れらの研究は、画像信号の統計的な性質を利用して、そ
の信号に含まれる冗長性を取り除くことにとにより、情
報量の削減を行っている。このような符号化方式として
動き補償予測と離散コサイン変換を組み合わせたハイブ
リッド符号化方式がよく知られている。しかし、低ビッ
トレートでの伝送を行う場合には符号化画像に雑音が発
生して画質が劣化するため、これを改善することが望ま
れている。画質改善の方法として、入力画像から特定の
領域を抽出して領域ごとに量子化ステップサイズを制御
する方式が検討されている。この一例として、入力画像
から顔領域を抽出して、顔以外の領域(以下、背景領域
と呼ぶ)は顔領域よりも大なる量子化ステップサイズで
量子化を行うことで、顔領域に多くの情報量を割り当て
て主観的な画質の改善を図るという考えがある(例え
ば、R.H.J.M.Plompen,et al.:"An image knowledge bas
ed video codec for low bitrates", SPIE Vol.804 Adv
anced in image processing(1987))。 以下、図6により動き補償予測と2次元直交変換を用い
た場合の従来例について説明する。図6において、22
はフレームメモリ部、23は減算器、24は直交変換
部、25は量子化部、26は符号化部、27はバッファ
メモリ部、28は逆量子化部、29は逆直交変換部、3
0は加算器、31はフレームメモリ部、32は動き検出
部、33は動き補償予測部、34は領域抽出部、35は
量子化ステップサイズ制御部を示している。
2. Description of the Related Art In recent years, image communication services such as video conferencing and video telephone have been promising as a service that effectively utilizes ISDN, and research on high efficiency encoding for the efficient transmission of such moving images. Is being actively conducted. These studies reduce the amount of information by removing the redundancy contained in the image signal by using the statistical property of the image signal. As such an encoding method, a hybrid encoding method combining motion compensation prediction and discrete cosine transform is well known. However, when transmission is performed at a low bit rate, noise occurs in a coded image and the image quality deteriorates. Therefore, it is desired to improve this. As a method of improving image quality, a method of extracting a specific area from an input image and controlling the quantization step size for each area is being studied. As an example of this, by extracting a face area from the input image and performing quantization on a non-face area (hereinafter referred to as a background area) with a quantization step size larger than that of the face area, a large number of face areas are extracted. There is an idea to allocate the amount of information to improve subjective image quality (for example, RHJMPlompen, et al .: "An image knowledge bas
ed video codec for low bitrates ", SPIE Vol.804 Adv
anced in image processing (1987)). Hereinafter, a conventional example using motion compensation prediction and two-dimensional orthogonal transformation will be described with reference to FIG. In FIG. 6, 22
Is a frame memory unit, 23 is a subtractor, 24 is an orthogonal transformation unit, 25 is a quantization unit, 26 is an encoding unit, 27 is a buffer memory unit, 28 is an inverse quantization unit, 29 is an inverse orthogonal transformation unit, 3
Reference numeral 0 is an adder, 31 is a frame memory unit, 32 is a motion detection unit, 33 is a motion compensation prediction unit, 34 is a region extraction unit, and 35 is a quantization step size control unit.

【0003】今、フレームメモリ部22に画像が入力さ
れたとする。入力画像は、テレビカメラ等からの画像を
ディジタル化したものであり、フレームメモリ部22に
おいて蓄積されN×M画素(N、Mは自然数)のブロッ
クに分割される。減算器23ではフレームメモリ部22
の入力画像と動き補償予測部33からの動き補償予測値
との差分がブロック単位で計算され、直交変換部24で
各々のブロックの画素に2次元の直交変換を実施し、変
換係数を量子化部25へ送出する。 量子化部25で
は、量子化ステップサイズ制御部35から出力された量
子化ステップサイズにより変換係数を量子化する。符号
化部26で量子化部25からの量子化出力のエントロピ
ー符号化を行って、符号化情報を生成する。バッファメ
モリ部27では回線の伝送速度と整合をとるために符号
化情報を蓄積する。また、量子化部25からの出力は逆
量子化部28にも入力され、逆量子化が行われて変換係
数を得る。逆直行変換部29では、変換係数を2次元逆
直交変換して加算器30で動き補償予測部33からの動
き補償予測値と加算された画像が、フレームメモリ部3
1に蓄積される。フレームメモリ部31に蓄積された画
像と、フレームメモリ部22に蓄積された画像は動き検
出部32に入力され、動きベクトルが検出される。
Now, assume that an image is input to the frame memory unit 22. The input image is a digitized image from a television camera or the like, is accumulated in the frame memory unit 22, and is divided into blocks of N × M pixels (N and M are natural numbers). In the subtractor 23, the frame memory unit 22
Difference between the input image and the motion-compensated prediction value from the motion-compensated prediction unit 33 is calculated for each block, and the orthogonal transform unit 24 performs two-dimensional orthogonal transform on the pixels of each block to quantize the transform coefficient. It is sent to the unit 25. The quantization unit 25 quantizes the transform coefficient according to the quantization step size output from the quantization step size control unit 35. The encoder 26 entropy-encodes the quantized output from the quantizer 25 to generate encoded information. The buffer memory unit 27 stores coded information in order to match the transmission rate of the line. The output from the quantizing unit 25 is also input to the inverse quantizing unit 28, and inverse quantization is performed to obtain transform coefficients. The inverse orthogonal transform unit 29 performs a two-dimensional inverse orthogonal transform on the transform coefficient, and the image obtained by adding the motion compensation prediction value from the motion compensation prediction unit 33 by the adder 30 is the frame memory unit 3.
Accumulated in 1. The image stored in the frame memory unit 31 and the image stored in the frame memory unit 22 are input to the motion detection unit 32, and the motion vector is detected.

【0004】動き補償予測部33では動きベクトルとフ
レームメモリ部31に蓄積された画像から動き補償予測
値が求められる。量子化ステップサイズ制御部35では
領域抽出部34の出力である特定領域と特定領域以外の
情報を示す有効/無効情報と、バッファメモリ部27に
おける符号化情報のバッファ占有量が入力されて、これ
に基づいて量子化ステップサイズが決定される。例え
ば、領域抽出部34で顔領域を有効領域、背景領域を無
効領域とすると、バッファ占有量から求められる量子化
ステップサイズを基準に顔領域に対しては背景領域より
小さい量子化ステップサイズが選択される。
The motion compensation prediction unit 33 obtains a motion compensation prediction value from the motion vector and the image stored in the frame memory unit 31. The quantization step size control unit 35 receives valid / invalid information indicating the specific area and information other than the specific area, which is the output of the area extraction unit 34, and the buffer occupancy amount of the coded information in the buffer memory unit 27. The quantization step size is determined based on For example, when the area extraction unit 34 sets the face area as the valid area and the background area as the invalid area, a quantization step size smaller than the background area is selected for the face area based on the quantization step size obtained from the buffer occupancy. To be done.

【0005】[0005]

【発明が解決しようとする課題】上記の方式では量子化
ステップサイズは顔領域と背景領域との2種類しか設定
されておらず、顔領域の量子化ステップサイズは背景領
域より小さいということだけしか明らかにされていな
い。従って、これを実際の動画像符号化装置に適用した
場合、バッファメモリ部における符号化情報のバッファ
占有量により決定される量子化ステップサイズQに対し
て、領域抽出部で抽出された結果に従って変化させる量
dQf、dQbを定義して顔領域に対してはQ−dQf、
背景領域に対してはQ+dQbを使って量子化するなど
が考えられる。しかし、このような方法で量子化ステッ
プサイズを決定すると、符号化情報の量(以下、符号量
と呼ぶ)の適応的な制御が行われないので背景領域が続
いて符号化されたときにQ+dQbの量子化ステップサ
イズで量子化が行われるため、符号量が減少してバッフ
ァ占有量が少なくなり、これにより決定される量子化ス
テップサイズが非常に小さな値となる。このような状態
のときに顔領域が符号化されると、Q−dQfによりさ
らに小さな量子化ステップサイズが選択されるため符号
量が急激に増加してバッファ占有量が急激に多くなり、
その結果、バッファ占有量から決定される量子化ステッ
プサイズが急激に大きくなってしまい、次の顔領域の画
質がかえって劣化してしまうという問題点がある。本発
明は、特定領域に多くの符号化情報を割り当てる際に量
子化ステップサイズを段階的に制御することにより特定
領域の画質を劣化させることなく、特定領域の画質を向
上させることが可能な動画像符号化装置を提供すること
を目的とするものである。
According to the above method, only two kinds of quantization step sizes are set for the face area and the background area, and the quantization step size for the face area is smaller than the background area. Not revealed. Therefore, when this is applied to an actual moving picture coding apparatus, the quantization step size Q determined by the buffer occupancy of the coding information in the buffer memory section changes according to the result extracted by the area extracting section. By defining the amounts dQf and dQb, Q-dQf,
The background area may be quantized using Q + dQb. However, if the quantization step size is determined by such a method, adaptive control of the amount of coded information (hereinafter referred to as the code amount) is not performed, and therefore Q + dQb when the background region is subsequently coded. Since the quantization is performed with the quantization step size of, the code amount is decreased and the buffer occupancy is decreased, and the quantization step size determined by this is a very small value. When the face area is coded in such a state, a smaller quantization step size is selected by Q-dQf, so that the code amount sharply increases and the buffer occupancy rapidly increases.
As a result, there is a problem that the quantization step size determined from the buffer occupancy suddenly increases, and the image quality of the next face area deteriorates. The present invention is a moving image capable of improving the image quality of a specific area without degrading the image quality of the specific area by controlling the quantization step size stepwise when allocating a large amount of encoded information to the specific area. An object is to provide an image encoding device.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、まず、入力画像をN×M画素(N、Mは自然数)の
ブロック単位で直交変換を行い変換係数を得てこの変換
係数を量子化・符号化手段で量子化・符号化して生成し
た符号化情報を回線を介して相手側に伝送する動画像符
号化装置において、前記符号化情報と前記回線の伝送速
度とを整合させるバッファメモリ手段と、入力画像から
特定領域を抽出する領域抽出手段と、前記符号化手段で
行われている現在の画面上の符号化位置を算出する符号
化位置算出手段と、前記変換係数を量子化する際の量子
化ステップサイズを制御する量子化ステップサイズ制御
手段とを設け、前記領域抽出手段により抽出した抽出結
果と、前記符号化位置算出手段により算出した符号化位
置と、前記バッファメモリ手段における符号化情報のバ
ッファ占有量とに基づいて前記量子化ステップサイズ制
御手段により量子化ステップサイズを制御するよう構成
したものである。
In order to solve the above-mentioned problems, first, an input image is subjected to orthogonal transform in block units of N × M pixels (N and M are natural numbers) to obtain transform coefficients, and the transform coefficients are calculated. In a moving picture coding apparatus for transmitting coded information generated by quantizing / coding by a quantizing / coding means to a partner side via a line, a buffer for matching the coded information with the transmission rate of the line. Memory means, area extracting means for extracting a specific area from an input image, coding position calculating means for calculating the current coding position on the screen performed by the encoding means, and quantizing the transform coefficient. Quantization step size control means for controlling the quantization step size at the time of performing is provided, the extraction result extracted by the area extraction means, the coding position calculated by the coding position calculation means, and the buffer. Those configured to control the quantization step size by the quantization step size control means on the basis of the buffer occupancy of the coded information in the memory means.

【0007】また、上記動画像符号化装置において、前
記バッファメモリ手段における符号化情報のバッファ占
有量により決定される量子化ステップサイズを前記符号
化手段で行われている現在の画面上の符号化位置を与え
る符号化位置算出手段の情報に従って段階的に変化させ
るとともに、前記領域抽出手段の抽出結果である特定領
域とそれ以外の領域とを区別する情報に従って、量子化
ステップサイズを制御するように構成したものであり、
さらに、上記動画像符号化装置において、前記バッファ
メモリ手段における符号化情報のバッファ占有量により
決定される量子化ステップサイズに対して加算する値
が、前記符号化手段で行われている現在の画面上の符号
化位置を与える符号化位置算出手段の情報に従い、1画
面において先に符号化を行うブロックの方が後に符号化
を行うブロックよりも大なる値とするとともに、前記領
域抽出手段の抽出結果である特定領域とそれ以外の領域
とを区別する情報に従って、特定領域には特定領域以外
の領域よりも小なる値を加算して量子化を行うことによ
り、特定領域に多くの符号化情報を割り当てるように構
成したものである。
Further, in the above moving picture coding apparatus, the quantization step size determined by the buffer occupancy amount of the coding information in the buffer memory means is coded on the current screen which is being performed by the coding means. The quantization step size is controlled in accordance with the information of the coding position calculation means that gives the position, and the quantization step size is controlled according to the information for distinguishing the specific area and the other area as the extraction result of the area extraction means. Configured,
Further, in the moving picture coding apparatus, a value to be added to the quantization step size determined by the buffer occupancy amount of the coding information in the buffer memory means is the current screen being performed by the coding means. According to the information of the coding position calculating means for giving the above coding position, the block to be coded first in one screen has a larger value than the block to be coded later, and the extraction of the area extracting means is performed. According to the information for distinguishing the specific region and the other region as the result, by adding a value smaller than the region other than the specific region to the specific region and performing quantization, a large amount of coding information is added to the specific region. Is configured to be assigned.

【0008】[0008]

【作用】入力画像と動き補償予測値との差分に対してブ
ロック単位に2次元の直交変換を実施して得られた変換
係数を量子化・符号化して生成された符号化情報は回線
の伝送速度と整合させるためのバッファメモリ手段に蓄
積される。また、入力画像から特定領域を抽出する領域
抽出手段の抽出結果と、前記符号化手段で行われている
現在の画面上の符号化位置と、前記バッファメモリ手段
における符号化情報のバッファ占有量に基づいて量子化
ステップサイズを制御するようにして、特定領域と特定
領域以外の領域に対して符号化情報の割当を制御する。
量子化ステップサイズの制御方法としては、前記バッフ
ァメモリ手段における符号化情報のバッファ占有量によ
り決定される量子化ステップサイズを現在の画面上の符
号化位置を与える符号化位置算出手段の情報に従って段
階的に変化させるとともに、前記領域抽出手段の抽出結
果である特定領域とそれ以外の領域とを区別する情報に
従って、量子化ステップサイズを制御することにより、
画質の急激な劣化を防止しながら特定領域と特定領域以
外の領域に対して符号化情報の割当を制御する。また、
前記バッファメモリ手段における符号化情報のバッファ
占有量により決定される量子化ステップサイズに対して
加算する値が、前記符号化手段で行われている現在の画
面上の符号化位置を与える符号化位置算出手段の情報に
従い、1画面において先に符号化を行うブロックの方が
後に符号化を行うブロックよりも大なる値とする。さら
に、前記領域抽出手段の抽出結果である特定領域とそれ
以外の領域とを区別する情報に従って、特定領域には特
定領域以外の領域よりも小なる値を加算して量子化を行
い、特定領域に多くの符号化情報を割り当てて、特定領
域の画質を向上させる。
The coded information generated by quantizing and coding the transform coefficient obtained by performing the two-dimensional orthogonal transform in block units on the difference between the input image and the motion-compensated predicted value is transmitted through the line. Stored in buffer memory means for matching speed. Further, the extraction result of the area extracting means for extracting a specific area from the input image, the current encoding position on the screen performed by the encoding means, and the buffer occupancy of the encoding information in the buffer memory means Based on the control of the quantization step size, the allocation of the coding information is controlled for the specific area and the area other than the specific area.
As a method of controlling the quantizing step size, the quantizing step size determined by the buffer occupancy of the coding information in the buffer memory means is stepped according to the information of the coding position calculating means which gives the current coding position on the screen. By changing the same, and by controlling the quantization step size in accordance with the information that distinguishes the specific region and the other region that is the extraction result of the region extraction means,
The allocation of encoded information is controlled for a specific area and an area other than the specific area while preventing a sharp deterioration in image quality. Also,
A coding position at which a value added to the quantization step size determined by the buffer occupancy of the coding information in the buffer memory means gives the current coding position on the screen performed by the coding means. According to the information of the calculation means, the block that is encoded first in one screen has a larger value than the block that is encoded later. Further, in accordance with the information that distinguishes the specific region and the other regions as the extraction result of the region extracting means, the specific region is quantized by adding a value smaller than the regions other than the specific region, and the specific region is quantized. A large amount of coded information is assigned to the image data to improve the image quality of a specific area.

【0009】[0009]

【実施例】以下、図面を参照して本発明の一実施例につ
いて説明する。図1は本発明の一実施例のブロック図で
あり、入力画像を蓄積するフレームメモリ部1と、該フ
レームメモリ部1と動き補償予測部11に接続し入力画
像と動き補償予測値の差分を求める減算器2と、該減算
器2に接続し入力画像と動き補償予測値の差分をブロッ
ク単位で直交変換を行い変換係数を出力する直交変換部
3と、該直交変換部3に接続し直交変換部3からの変換
係数を量子化ステップサイズ制御部15で決定した量子
化ステップサイズにより量子化する量子化部4と、該量
子化部4に接続し量子化された変換係数を符号化する符
号化部5と、該符号化部5に接続し符号化部5からの符
号化情報を蓄積するバッファメモリ部6と、該量子化部
4に接続し量子化された変換係数を逆量子化する逆量子
化部7と、該逆量子化部7に接続し逆量子化部7からの
変換係数を逆直交変換する逆直交変換部8と、該逆直交
変換部8と動き補償予測部12と接続し逆直交変換部8
で得られた画像と動き補償予測値を加算する加算器9
と、該加算器9に接続し加算器9の出力画像を蓄積する
フレームメモリ部10と、該フレームメモリ部10とフ
レームメモリ部1に接続し動きベクトルを検出する動き
検出部11と、該フレームメモリ部10と該動き検出部
11に接続し動き補償予測値を求める動き補償予測部1
2と、該フレームメモリ部1に接続し特定の領域を抽出
する領域抽出部13と、現在の画面上の符号化位置を算
出する符号化位置算出部14と、該バッファメモリ部6
と該領域抽出部13と該符号化位置算出部14に接続し
量子化ステップサイズを決定する量子化ステップサイズ
制御部15を備えている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an embodiment of the present invention, in which a frame memory unit 1 for accumulating an input image and a difference between the input image and the motion compensation prediction value are connected to the frame memory unit 1 and the motion compensation prediction unit 11. A subtractor 2 to be obtained, an orthogonal transformation unit 3 connected to the subtraction unit 2 for orthogonally transforming a difference between an input image and a motion compensation prediction value in block units and outputting transform coefficients, and an orthogonal transformation unit 3 connected to the orthogonal transformation unit 3. The quantizing unit 4 which quantizes the transform coefficient from the transforming unit 3 according to the quantizing step size determined by the quantizing step size control unit 15, and the quantizing transform coefficient which is connected to the quantizing unit 4 and which is quantized. An encoding unit 5, a buffer memory unit 6 connected to the encoding unit 5 and accumulating the encoded information from the encoding unit 5, and an inverse quantization of the quantized transform coefficient connected to the quantization unit 4. Dequantization unit 7 and a connection to the dequantization unit 7 An inverse orthogonal transform unit 8 for inverse orthogonal transform the transform coefficients from the inverse quantization unit 7, connected to the inverse orthogonal transform unit 8 and the motion compensation prediction unit 12 inverse orthogonal transform unit 8
Adder 9 for adding the motion compensation prediction value and the image obtained in
A frame memory unit 10 connected to the adder 9 for accumulating the output image of the adder 9; a motion detection unit 11 connected to the frame memory unit 10 and the frame memory unit 1 for detecting a motion vector; Motion compensation prediction unit 1 that is connected to the memory unit 10 and the motion detection unit 11 to obtain a motion compensation prediction value
2, an area extraction unit 13 that connects to the frame memory unit 1 and extracts a specific area, an encoding position calculation unit 14 that calculates an encoding position on the current screen, and the buffer memory unit 6
And a quantization step size control unit 15 which is connected to the area extraction unit 13 and the coding position calculation unit 14 and determines a quantization step size.

【0010】上記構成による動画像符号化装置の動作
は、以下の通りである。フレームメモリ部1は、入力画
像を蓄積する。減算器2においてフレームメモリ部1に
蓄積された入力画像と動き補償予測部12で算出される
動き補償予測値との差分を、例えば8×8画素のブロッ
ク毎に2次元の離散コサイン変換(DCT)を実施し、
時間領域の信号から周波数領域の信号へ変換してDCT
係数を量子化部4に出力する。量子化部4は、高い符号
化効率を得るために量子化ステップサイズ制御部15で
決定された量子化ステップサイズに従ってDCT係数の
量子化を行い、符号化するDCT係数を削減する。この
ように量子化されたDCT係数は、符号化部5に出力さ
れる。符号化部5では、量子化されたDCT係数に適切
な符号割当を行うエントロピー符号化を実施し、可変長
符号からなる符号化情報を生成して出力する。バッファ
メモリ部6は、符号化部5で生成された符号化情報と回
線の伝送速度との整合をとるために符号化情報を蓄積
し、これが一定速度で出力される。また、符号化情報が
バッファメモリ部6を占有する量(バッファ占有量)が
量子化ステップサイズ制御部15に入力される。逆量子
化部7では量子化部4で行ったのと逆の処理である逆量
子化を行い、逆量子化されたDCT係数を逆直交変換部
8に出力する。逆直交変換部8において、2次元の逆離
散コサイン変換を実施して、加算器9で逆直交変換部8
の画像と動き補償予測部12の動き補償予測値との間で
加算が行われ、その結果がフレームメモリ部10に蓄積
される。動き検出部11では、フレームメモリ部10の
画像とフレームメモリ部1の画像との間で動きベクトル
を検出し、動き補償予測部12に動きベクトルを出力す
る。動き補償予測部12は、フレームメモリ部10の画
像と動き検出部11の動きベクトルから動き補償予測値
を求める。
The operation of the moving picture coding apparatus having the above configuration is as follows. The frame memory unit 1 stores the input image. The difference between the input image accumulated in the frame memory unit 1 in the subtractor 2 and the motion compensation prediction value calculated in the motion compensation prediction unit 12 is calculated by a two-dimensional discrete cosine transform (DCT) for each block of 8 × 8 pixels. ) Is carried out,
DCT by converting time domain signal to frequency domain signal
The coefficient is output to the quantizer 4. The quantization unit 4 quantizes the DCT coefficient according to the quantization step size determined by the quantization step size control unit 15 to obtain high coding efficiency, and reduces the DCT coefficient to be coded. The DCT coefficient quantized in this way is output to the encoding unit 5. The encoding unit 5 performs entropy encoding that appropriately assigns codes to the quantized DCT coefficients, and generates and outputs encoding information composed of a variable length code. The buffer memory unit 6 stores the coded information in order to match the coded information generated by the coding unit 5 with the transmission rate of the line, and outputs the coded information at a constant rate. Further, the amount of coded information that occupies the buffer memory unit 6 (buffer occupancy amount) is input to the quantization step size control unit 15. The inverse quantization unit 7 performs inverse quantization, which is the opposite process to that performed by the quantization unit 4, and outputs the inversely quantized DCT coefficient to the inverse orthogonal transform unit 8. The inverse orthogonal transform unit 8 performs a two-dimensional inverse discrete cosine transform, and the adder 9 performs the inverse orthogonal transform unit 8
Is added to the motion compensation prediction value of the motion compensation prediction unit 12, and the result is stored in the frame memory unit 10. The motion detection unit 11 detects a motion vector between the image in the frame memory unit 10 and the image in the frame memory unit 1, and outputs the motion vector to the motion compensation prediction unit 12. The motion compensation prediction unit 12 obtains a motion compensation prediction value from the image of the frame memory unit 10 and the motion vector of the motion detection unit 11.

【0011】領域抽出部13では、画質を向上させる対
象となる特定領域の抽出が行われる。例えば、動画像符
号化装置をテレビ会議やテレビ電話に適用した場合、一
般的に注目される領域は顔であり、顔領域を抽出して顔
領域の画質改善を行うことによって主観的画質の改善を
図ることができる。そこで、ここでは特定領域を顔領域
とし、顔領域を抽出する手法について説明する。まず、
フレームメモリ部1に蓄積されている256階調の入力
画像のCr信号、Cb信号を肌色領域を抽出するしきい
値で2値化して顔部分を含む領域を抽出した2値画像を
得る。図2の(a)、(b)はそれぞれCr信号、Cb
信号を2値化して得られた肌色領域を示す。次に、前記
のCr信号およびCb信号を2値化して抽出された肌色
領域の共通部分を抽出して図2の(c)を得る。これを
顔領域とし顔領域の画素を含むブロックを有効、含まな
いブロックを無効ブロックとして、ブロック単位で有効
/無効情報を量子化ステップサイズ制御部15へ入力す
る。符号化位置算出部14は、現在符号化を行っている
画面上の位置を求め、符号化位置情報を量子化ステップ
サイズ制御部へ入力する。これは図3に示すように、1
画面が99個のブロックで構成されているとすると、左
上のブロック1から右下のブロック99まで順に符号化
が行われる。1つのブロックの符号化が終了するたび
に、ブロック番号をカウントアップすることで符号化位
置情報が求められる。量子化ステップサイズ制御部15
は、バッファメモリ部6のバッファ占有量、領域抽出部
13の有効/無効情報、符号化位置算出部14の符号化
位置情報に基づいて量子化ステップサイズを決定する。
この構成例を図4に示す。量子化ステップサイズ算出部
16では、バッファメモリ部6がオーバーフロー、アン
ダーフローしないようにするバッファ占有量と量子化ス
テップサイズとの関係をあらかじめ決定しておき、この
関係に従って量子化ステップサイズQを算出し加算器1
7、18に入力する。顔領域用量子化ステップサイズ変
化値設定部19では、顔領域において量子化ステップサ
イズQに対してある値だけ変化させる量dQfが符号化
位置情報に基づき選択される。これは、一般的にテレビ
会議やテレビ電話では顔領域は画面において最上部から
位置することはなく、画面の上から1/4程度は背景領
域である可能性が高い。従って、画面の上部では大きな
量子化ステップサイズで量子化が行われ、符号量が非常
に少なくなり量子化ステップサイズ算出部16で決定さ
れる量子化ステップサイズは非常に小さい値となる。こ
のような状態のときに顔領域が入力されると量子化ステ
ップサイズは更に小さな値となる。この値で量子化を行
った場合には急激な符号量の増加となり、その結果、量
子化ステップサイズ算出部16で求まる量子化ステップ
サイズは大きな値となり、次の顔領域の画質がかえって
劣化することになる。そこで、顔領域においてはdQf
を1画面上で先に符号化されるブロックほど大きな値と
し後に向かうにつれて徐々に小さな値とすることで急激
な符号量の増加を防ぐ。図5は符号化位置情報による顔
領域用量子化ステップサイズ変化値dQfの設定を示し
ており、11個のブロック毎にdQを変化させている。
dQfを変化させる位置は33ブロック毎、1ブロック
毎なども考えられる。背景領域用量子化ステップサイズ
変化値設定部20は、背景領域において量子化ステップ
サイズQに対してある値だけ変化させる量dQbを設定
する。ここでは、符号化位置に関係なくdQbは固定と
してあるが、顔領域用量子化ステップサイズ変化値と同
様に符号化位置情報により変化させても良い。このよう
にして求められた変化値dQf、dQbはそれぞれ加算器
17、18に入力されて、顔領域用量子化ステップサイ
ズQf、背景領域用量子化ステップサイズQbが式
(1)、(2)のように算出される。
The area extracting unit 13 extracts a specific area which is a target for improving image quality. For example, when the moving picture coding apparatus is applied to a video conference or a videophone, the area of general interest is the face, and the facial area is extracted and the image quality of the facial area is improved to improve the subjective image quality. Can be achieved. Therefore, here, a method of extracting the face area with the specific area as the face area will be described. First,
The Cr signal and Cb signal of the 256-gradation input image stored in the frame memory unit 1 are binarized with a threshold value for extracting a skin color region to obtain a binary image in which a region including a face portion is extracted. 2A and 2B show Cr signal and Cb, respectively.
The skin color region obtained by binarizing the signal is shown. Next, the common portion of the skin color region extracted by binarizing the Cr signal and the Cb signal is extracted to obtain (c) of FIG. With this as a face area, a block including pixels in the face area is set as a valid block, and a block not including a pixel is set as an invalid block, and valid / invalid information is input to the quantization step size control unit 15 in block units. The coding position calculation unit 14 obtains the position on the screen which is currently being coded, and inputs the coding position information to the quantization step size control unit. This is 1 as shown in FIG.
If the screen is composed of 99 blocks, encoding is performed in order from the block 1 at the upper left to the block 99 at the lower right. Each time the coding of one block is completed, the block number is counted up to obtain the coding position information. Quantization step size controller 15
Determines the quantization step size based on the buffer occupancy of the buffer memory unit 6, the valid / invalid information of the area extraction unit 13, and the coding position information of the coding position calculation unit 14.
An example of this configuration is shown in FIG. The quantization step size calculation unit 16 determines in advance the relationship between the buffer occupancy and the quantization step size that prevents the buffer memory unit 6 from overflowing or underflowing, and calculates the quantization step size Q according to this relationship. Adder 1
Input to 7 and 18. The face area quantization step size change value setting unit 19 selects an amount dQf for changing the quantization step size Q in the face area by a certain value based on the encoding position information. In general, in a video conference or a videophone, the face area is not located from the top of the screen, and there is a high possibility that about 1/4 of the screen is the background area. Therefore, quantization is performed with a large quantization step size in the upper part of the screen, the code amount is very small, and the quantization step size determined by the quantization step size calculator 16 is a very small value. When the face area is input in such a state, the quantization step size becomes a smaller value. When the quantization is performed with this value, the code amount increases abruptly, and as a result, the quantization step size obtained by the quantization step size calculation unit 16 becomes a large value, and the image quality of the next face area deteriorates rather. It will be. Therefore, in the face area, dQf
Is set to a larger value for a block coded earlier on one screen and gradually decreases for a later block, thereby preventing a rapid increase in the code amount. FIG. 5 shows the setting of the quantization step size change value dQf for the face area based on the coding position information, and dQ is changed for every 11 blocks.
The position where dQf is changed may be every 33 blocks or every block. The background region quantization step size change value setting unit 20 sets the amount dQb for changing the quantization step size Q in the background region by a certain value. Here, dQb is fixed irrespective of the coding position, but it may be changed according to the coding position information as in the face area quantization step size change value. The change values dQf and dQb thus obtained are input to the adders 17 and 18, respectively, and the face area quantization step size Qf and the background area quantization step size Qb are given by equations (1) and (2). Is calculated as follows.

【0012】[0012]

【数1】 [Equation 1]

【0013】[0013]

【数2】 [Equation 2]

【0014】例えば、Q=10、dQb=16、符号化
位置情報が67であったときは、図5からdQfは−4
と設定され、Qf、Qbはそれぞれ式(3)、(4)のよ
うになる。
For example, when Q = 10, dQb = 16, and the coding position information is 67, dQf is -4 from FIG.
Is set, and Qf and Qb are expressed by equations (3) and (4), respectively.

【0015】[0015]

【数3】 [Equation 3]

【0016】[0016]

【数4】 [Equation 4]

【0017】スイッチ21は、領域抽出部13からの有
効/無効情報により加算器17、あるいは加算器18の
出力を選択する。すなわち、有効/無効情報が有効であ
るときは加算器17の出力を選択し、無効であるときは
加算器18の出力を選択してQf、あるいはQbを量子化
ステップサイズとして出力し符号化位置と領域毎に量子
化ステップサイズを制御することができる。
The switch 21 selects the output of the adder 17 or the adder 18 according to the valid / invalid information from the area extracting section 13. That is, when the valid / invalid information is valid, the output of the adder 17 is selected, and when the valid / invalid information is invalid, the output of the adder 18 is selected and Qf or Qb is output as the quantization step size to determine the coding position. The quantization step size can be controlled for each region.

【0018】[0018]

【発明の効果】本発明によれば以下のような効果があ
る。 (1)入力画像から特定領域を抽出して、符号化が行わ
れている現在の画面上の符号化位置と、バッファメモリ
における符号化情報のバッファ占有量に基づいて量子化
ステップサイズを制御することにより、特定領域と特定
領域以外の領域に対して符号化情報の割当を制御でき
る。 (2)バッファメモリにおける符号化情報のバッファ占
有量により決定される量子化ステップサイズを現在の画
面上の符号化位置に従って段階的に変化させるととも
に、特定領域とそれ以外の領域とを区別する情報に従っ
て、量子化ステップサイズを制御することにより、画質
の急激な劣化を防止しながら特定領域と特定領域以外の
領域に対して符号化情報の割当を制御できる。 (3)バッファメモリにおける符号化情報のバッファ占
有量により決定される量子化ステップサイズに対して加
算する値が、現在の画面上の符号化位置に従い、1画面
において先に符号化を行うブロックの方が後に符号化を
行うブロックよりも大なる値とするとともに、特定領域
とそれ以外の領域とを区別する情報に従って、特定領域
には特定領域以外の領域よりも小なる値を加算して量子
化することにより、特定領域に多くの符号化情報を割り
当てるようすることで、画質の急激な劣化を防止しなが
ら特定領域の画質を向上できる。
The present invention has the following effects. (1) A specific area is extracted from the input image, and the quantization step size is controlled based on the current encoding position on the screen where encoding is performed and the buffer occupancy of the encoding information in the buffer memory. As a result, it is possible to control the allocation of the coding information to the specific area and the area other than the specific area. (2) Information that changes the quantization step size determined by the buffer occupancy of the encoded information in the buffer memory in a stepwise manner according to the current encoding position on the screen, and distinguishes the specific area from other areas Accordingly, by controlling the quantization step size, it is possible to control the allocation of the coding information to the specific area and the area other than the specific area while preventing the sharp deterioration of the image quality. (3) The value to be added to the quantization step size determined by the buffer occupancy of the encoded information in the buffer memory is the value of the block to be encoded first in one screen according to the current encoding position on the screen. The value is larger than that of the block to be coded later, and according to the information that distinguishes the specific area from other areas, a value smaller than the areas other than the specific area is added to the specific area and the quantum is added. By allocating a large amount of encoded information to the specific area by changing the encoding, it is possible to improve the image quality of the specific area while preventing a sharp deterioration of the image quality.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を説明するブロック図であ
る。
FIG. 1 is a block diagram illustrating an embodiment of the present invention.

【図2】顔領域の抽出を説明する図である。FIG. 2 is a diagram illustrating extraction of a face area.

【図3】1画面における符号化位置を説明する図であ
る。
[Fig. 3] Fig. 3 is a diagram illustrating an encoding position on one screen.

【図4】量子化ステップサイズ制御部の構成を説明する
ブロック図である。
FIG. 4 is a block diagram illustrating a configuration of a quantization step size control unit.

【図5】顔領域用量子化ステップサイズ変化値の設定を
説明する図である。
FIG. 5 is a diagram illustrating setting of a quantization step size change value for face area.

【図6】従来例のハイブリッド符号化方式を説明するブ
ロック図である。
FIG. 6 is a block diagram illustrating a conventional hybrid coding method.

【符号の説明】 1 フレームメモリ部 2 減算器 3 直交変換部 4 量子化部 5 符号化部 6 バッファメモリ部 7 逆量子化部 8 逆直交変換部 9 加算器 10 フレームメモリ部 11 動き検出部 12 動き補償予測部 13 領域抽出部 14 符号化位置算出部 15 量子化ステップサイズ制御部[Description of Codes] 1 frame memory unit 2 subtractor 3 orthogonal transformation unit 4 quantization unit 5 encoding unit 6 buffer memory unit 7 inverse quantization unit 8 inverse orthogonal transformation unit 9 adder 10 frame memory unit 11 motion detection unit 12 Motion compensation prediction unit 13 Region extraction unit 14 Coding position calculation unit 15 Quantization step size control unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力画像をN×M画素(N、Mは自然
数)のブロック単位で直交変換を行い変換係数を得てこ
の変換係数を量子化・符号化手段で量子化・符号化して
生成した符号化情報を回線を介して相手側に伝送する動
画像符号化装置において、 前記符号化情報と前記回線の伝送速度とを整合させるバ
ッファメモリ手段と、入力画像から特定領域を抽出する
領域抽出手段と、前記符号化手段で行われている現在の
画面上の符号化位置を算出する符号化位置算出手段と、
前記変換係数を量子化する際の量子化ステップサイズを
制御する量子化ステップサイズ制御手段とを設け、前記
領域抽出手段により抽出した抽出結果と、前記符号化位
置算出手段により算出した符号化位置と、前記バッファ
メモリ手段における符号化情報のバッファ占有量とに基
づいて前記量子化ステップサイズ制御手段により量子化
ステップサイズを制御するようにしたことを特徴とする
動画像符号化装置。
1. An input image is orthogonally transformed in block units of N × M pixels (N and M are natural numbers) to obtain transform coefficients, and the transform coefficients are quantized / encoded by a quantization / encoding means to generate them. In a moving picture coding apparatus for transmitting the coded information to the other side via a line, buffer memory means for matching the coded information with the transmission rate of the line, and area extraction for extracting a specific area from an input image Means, and coding position calculation means for calculating the current coding position on the screen, which is performed by the coding means,
A quantization step size control unit for controlling a quantization step size when quantizing the transform coefficient is provided, and an extraction result extracted by the region extraction unit and a coding position calculated by the coding position calculation unit, The moving picture coding apparatus is characterized in that the quantizing step size control means controls the quantizing step size based on the buffer occupancy of the coding information in the buffer memory means.
【請求項2】 前記バッファメモリ手段における符号化
情報のバッファ占有量により決定される量子化ステップ
サイズを前記符号化手段で行われている現在の画面上の
符号化位置を与える符号化位置算出手段の情報に従って
段階的に変化させるとともに、前記領域抽出手段の抽出
結果である特定領域とそれ以外の領域とを区別する情報
に従って、量子化ステップサイズを制御するように構成
したことを特徴とする請求項1記載の動画像符号化装
置。
2. A coding position calculating means for giving a quantization step size determined by a buffer occupation amount of coding information in the buffer memory means to a current coding position on the screen being performed by the coding means. And the quantization step size is controlled according to the information for distinguishing the specific region and the other region which is the extraction result of the region extracting means. Item 2. The moving image encoding device according to item 1.
【請求項3】 前記バッファメモリ手段における符号化
情報のバッファ占有量により決定される量子化ステップ
サイズに対して特定領域に多くの符号化情報を割り当て
るために加算する値が、前記符号化手段で行われている
現在の画面上の符号化位置を与える符号化位置算出手段
の情報に従い、1画面において先に符号化を行うブロッ
クの方が後に符号化を行うブロックよりも大なる値とす
るとともに、前記領域抽出手段の抽出結果である特定領
域とそれ以外の領域とを区別する情報に従って、特定領
域には特定領域以外の領域よりも小なる値を加算して量
子化するようにしたことを特徴とする請求項1または請
求項2記載の動画像符号化装置。
3. A value added by the encoding means for allocating a large amount of encoded information to a specific area with respect to a quantization step size determined by a buffer occupation amount of the encoded information in the buffer memory means. According to the information of the coding position calculation means that gives the current coding position on the screen, the block to be coded first in one screen has a larger value than the block to be coded later. According to the information for distinguishing the specific region and the other regions, which is the extraction result of the region extracting means, the specific region is added with a value smaller than that of the regions other than the specific region and quantized. The moving picture coding device according to claim 1 or 2.
JP2648794A 1994-02-24 1994-02-24 Video encoding device Expired - Fee Related JP3005147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2648794A JP3005147B2 (en) 1994-02-24 1994-02-24 Video encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2648794A JP3005147B2 (en) 1994-02-24 1994-02-24 Video encoding device

Publications (2)

Publication Number Publication Date
JPH07236138A true JPH07236138A (en) 1995-09-05
JP3005147B2 JP3005147B2 (en) 2000-01-31

Family

ID=12194868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2648794A Expired - Fee Related JP3005147B2 (en) 1994-02-24 1994-02-24 Video encoding device

Country Status (1)

Country Link
JP (1) JP3005147B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0824824A4 (en) * 1995-05-08 1998-09-09 Toshiba Kk System for altering the encoded video frames
KR100478555B1 (en) * 1995-09-29 2005-11-11 Method and an apparatus for system encoding bitstreams for seamless connection
JP2009130723A (en) * 2007-11-26 2009-06-11 Sony Corp Encoder, encoding method, program, and, imaging apparatus
JP2009212749A (en) * 2008-03-04 2009-09-17 Mega Chips Corp Encoder

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0824824A4 (en) * 1995-05-08 1998-09-09 Toshiba Kk System for altering the encoded video frames
US5819004A (en) * 1995-05-08 1998-10-06 Kabushiki Kaisha Toshiba Method and system for a user to manually alter the quality of previously encoded video frames
KR100478555B1 (en) * 1995-09-29 2005-11-11 Method and an apparatus for system encoding bitstreams for seamless connection
JP2009130723A (en) * 2007-11-26 2009-06-11 Sony Corp Encoder, encoding method, program, and, imaging apparatus
JP4626644B2 (en) * 2007-11-26 2011-02-09 ソニー株式会社 Encoding apparatus, encoding method, program, and imaging apparatus
US8340174B2 (en) 2007-11-26 2012-12-25 Sony Corporation Image processing device and image processing method
JP2009212749A (en) * 2008-03-04 2009-09-17 Mega Chips Corp Encoder

Also Published As

Publication number Publication date
JP3005147B2 (en) 2000-01-31

Similar Documents

Publication Publication Date Title
JP3258840B2 (en) Video encoding device and region extraction device
KR100298416B1 (en) Method and apparatus for block classification and adaptive bit allocation
US6917719B2 (en) Method and apparatus for region-based allocation of processing resources and control of input image formation
US5767909A (en) Apparatus for encoding a digital video signal using an adaptive scanning technique
US5847776A (en) Method for entropy constrained motion estimation and coding of motion vectors with increased search range
KR950005620B1 (en) Adaptive dct/dpcm video signal coding method
US5892548A (en) Adaptive quantizer with modification of high frequency coefficients
JP2000078588A (en) Moving picture encoding device
EP0785689A2 (en) Global rate control for model-assisted video encoder
JP2004248285A (en) Video encoder capable of differentially coding speaker's video image at pictorial call and video signal compression method using the same
US20050036549A1 (en) Method and apparatus for selection of scanning mode in dual pass encoding
JP3703299B2 (en) Video coding method, system and computer program product for optimizing picture center image quality
WO2019104862A1 (en) System and method for reducing video coding fluctuation
JP2002223443A (en) Transcoding method and transcoder
KR100229796B1 (en) Image decoding system including compensation at detoriorate image
JP2891773B2 (en) Method and apparatus for processing digital image sequences
JP2004215275A (en) Motion compensation based improved noise prediction method and apparatus, and moving image encoding method and apparatus using the same
KR0159370B1 (en) Method and apparatus for encoding a video signals using a boundary of an object
JP3005147B2 (en) Video encoding device
KR100260702B1 (en) Method and apparatus for compressing and encoding imgae signals using human's visual characteristic
JPH07203430A (en) Image coding device
JP2914607B2 (en) Image signal decoding device
JPH07222173A (en) Picture processor
JP2014003587A (en) Image encoder and encoding method
JP2518681B2 (en) Cascaded video coding

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees