JP2002016910A - Device and method for encoding image - Google Patents

Device and method for encoding image

Info

Publication number
JP2002016910A
JP2002016910A JP2000194250A JP2000194250A JP2002016910A JP 2002016910 A JP2002016910 A JP 2002016910A JP 2000194250 A JP2000194250 A JP 2000194250A JP 2000194250 A JP2000194250 A JP 2000194250A JP 2002016910 A JP2002016910 A JP 2002016910A
Authority
JP
Japan
Prior art keywords
image
image data
original image
encoding
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000194250A
Other languages
Japanese (ja)
Inventor
Hideki Inomata
英樹 猪股
Koichi Tanno
興一 丹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2000194250A priority Critical patent/JP2002016910A/en
Priority to US09/894,214 priority patent/US7177358B2/en
Publication of JP2002016910A publication Critical patent/JP2002016910A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that, when a bit rate is narrowed down, a quantizing step becomes rough and block distortion increases, resulting in a visual feeling of physical disorder. SOLUTION: An image encoding device is provided with an area dividing section 3 which divides the image of original image data S1 into a plurality of areas, a pre-filter 1 which pre-processes the data S1, an encoding section 10 which encodes the data S1 pre-processed by means of the pre-filter 1, and a filter control section 4 which controls the characteristics of the pre-filter 1 at every area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、原画像データを高
能率符号化する画像符号化装置および画像符号化方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image encoding apparatus and an image encoding method for encoding original image data with high efficiency.

【従来の技術】従来、このような分野の技術としては、
ISO/IEC JTC1/SC29/WG11/N0400に規定されるMPEG-2 Tes
t Model 5に示された画像符号化装置が知られている。
2. Description of the Related Art Conventionally, techniques in such a field include:
MPEG-2 Tes specified in ISO / IEC JTC1 / SC29 / WG11 / N0400
An image coding device shown in t Model 5 is known.

【0002】図7は、この画像符号化装置50の構成を
示すブロック図である。同図において、51は原画像デ
ータと過去に符号化され復号した画像データとの差分を
取る減算器、52は減算器51で演算された差分データ
を周波数領域の情報に変換するDCT(直交変換器)、
53はDCT52で直交変換されたデータを量子化する
量子化部、54は量子化されたデータの冗長度を取り除
くVLC(可変長符号化器)、55はVLC54で発生
した可変長符号をあるレートで平滑化して伝送路に送出
するバッファ、56は量子化部53で量子化されたデー
タを逆量子化する逆量子化部、57は逆量子化部56で
逆量子化されたデータを逆変換する逆DCT、58は逆
DCT57で逆変換されたデータとnフレーム前の復号
化データとを加算する加算器である(以後、加算器58
で加算されたデータを局部復号データと呼ぶ)。
FIG. 7 is a block diagram showing a configuration of an image encoding device 50. In the figure, reference numeral 51 denotes a subtractor that calculates a difference between original image data and image data that has been encoded and decoded in the past, and 52 denotes a DCT (orthogonal transform) that converts the difference data calculated by the subtractor 51 into frequency domain information. vessel),
53, a quantization unit for quantizing the data orthogonally transformed by the DCT 52; 54, a VLC (variable length encoder) for removing the redundancy of the quantized data; 55, a variable length code generated by the VLC 54 at a certain rate; A buffer for smoothing the data and sending it out to the transmission path, 56 is an inverse quantizer for inversely quantizing the data quantized by the quantizer 53, and 57 is an inverse transform for the data inversely quantized by the inverse quantizer 56. The inverse DCT 58 is an adder for adding the data inversely transformed by the inverse DCT 57 and the decoded data n frames before (hereinafter, the adder 58).
Is referred to as local decoded data).

【0003】また、59は加算器58で加算された局部
復号データを記憶するループ内フレームメモリ、60は
原画像データと局部復号データとに基づいて画像の変化
を動きベクトル情報とし、この動きベクトルによってフ
レームメモリ59の読み出しを制御する動き補償部、6
1は量子化ステップを制御し、ビットレートおよび符号
化画像品質を決定する量子化制御部、62は原画像デー
タからアクティビティ(フレームもしくはフィールド内
輝度信号の8×8画素計64個のそれぞれの画素値か
ら、同64個の平均値を差し引いたものを積分したも
の)を算出するアクティビティ算出部である。
Further, reference numeral 59 denotes a frame memory in a loop for storing the local decoded data added by the adder 58, and reference numeral 60 designates a change in an image as motion vector information based on the original image data and the local decoded data. Motion compensator for controlling reading of frame memory 59 by
Reference numeral 1 denotes a quantization control unit which controls a quantization step and determines a bit rate and an encoded image quality. Reference numeral 62 denotes an activity (8 × 8 pixels of a luminance signal in a frame or a field; It is an activity calculation unit that calculates the value obtained by subtracting the average value of the 64 values from the value (integrated value).

【0004】MPEG-2規定において一般的な符号化方法で
あるMain-Profileの場合、画像信号は符号化する前に表
示順序から符号化順序に並び替えられ(図中では省
略)、Iピクチャ(フレーム内予測)、Pピクチャ(前
方予測)、Bピクチャ(前/後/補完予測)のピクチャ
タイプによって符号化される。これらの動作については
テレビジョン学会誌Vol.49,No4,pp.435〜466(1995)を始
め、多数の文献があるため、ここでは詳細な動作説明を
省略するが、TM−5によれば、レートを制御するため
の方法として(1)画面内の目標情報発生量、(2)バ
ッファ蓄積量によるフィードバック制御、(3)原画像
データのアクティビティ によって量子化ステップを制
御すると示されている。
In the case of Main-Profile, which is a general encoding method in the MPEG-2 standard, image signals are rearranged from a display order to an encoding order before encoding (omitted in the drawing), and an I picture ( Encoding is performed according to the picture types of the intra-frame prediction), the P-picture (forward prediction), and the B-picture (pre / post / complementary prediction). These operations are described in a large number of documents, including the Journal of the Institute of Television Engineers of Japan, Vol. 49, No. 4, pp. 435-466 (1995). As a method for controlling the rate, (1) the amount of target information generated in the screen, (2) the feedback control based on the buffer storage amount, and (3) the quantization step is controlled by the activity of the original image data.

【0005】また図8は、特開平07−107462号
公報に示された従来の画像符号化装置70の構成を示す
ブロック図である。同図において、71は上記で説明し
たH.26XやMPEGなどに代表される符号化部、7
2がフィルタ部、73がフィルタの伝達特性を制御する
ための適応制御回路、74が符号化部71で発生する情
報量に相関した制御信号を生成するためのプリフィルタ
制御部である。この画像符号化装置70では、符号化部
71で発生した情報量に基づき、適応制御回路73で検
出した画像の局所データから算出したフィルタ伝達係数
を制御するというものである。
FIG. 8 is a block diagram showing a configuration of a conventional image encoding device 70 disclosed in Japanese Patent Application Laid-Open No. 07-107462. In the figure, reference numeral 71 denotes H. described above. Encoding unit represented by 26X or MPEG, 7
Reference numeral 2 denotes a filter unit; 73, an adaptive control circuit for controlling the transfer characteristics of the filter; and 74, a pre-filter control unit for generating a control signal correlated with the amount of information generated in the encoding unit 71. In the image encoding device 70, a filter transfer coefficient calculated from local data of an image detected by the adaptive control circuit 73 is controlled based on the information amount generated by the encoding unit 71.

【0006】なお、他の従来技術としては、特開平7−
107462号公報、特開平6−6784号公報、特開
平4−306094号公報、特開平3−256484号
公報、特開昭63−304769号公報などに記載され
たものが知られている。
[0006] Another conventional technique is disclosed in Japanese Unexamined Patent Publication No.
Japanese Patent Application Laid-Open No. 107462, JP-A-6-6784, JP-A-4-306094, JP-A-3-256484, and JP-A-63-304679 are known.

【発明が解決しようとする課題】ところで、MPEG−
2に代表される動き補償フレーム間符号化方式は、SD
TV〜HDTVまでのデジタル放送や伝送、蓄積メディ
アを主体に考えられた方式で、特にBS/地上波デジタ
ル放送ではHDTVをメインとし、しかもかなり低ビッ
トレート(20Mbps以下)が想定されている(例え
ば映像情報メディア学会誌Vol.53,No11,pp1456〜1459(1
999))。従来のMPEG−2および上述した従来の画像
符号化装置50は、基本的な制御モデルであり、これだ
けでは画質が十分とは言えない。このため、これに加え
て様々な量子化制御方式がこれまで考案されている。現
在HDTV信号をMPEG−2規格に基づいて圧縮符号
化した場合、ITU−Rで定められている評価法によれ
ば放送品質を満足するビットレートは22Mbps以上
とされている(前述文献 映像情報メディア学会誌Vol.5
3,No11,pp1456〜1459(1999))。
By the way, MPEG-
The motion-compensated inter-frame coding method represented by SD2 is SD
This is a system conceived mainly for digital broadcasting, transmission, and storage media from TV to HDTV. In particular, in BS / terrestrial digital broadcasting, HDTV is mainly used and a considerably low bit rate (20 Mbps or less) is assumed (for example, The Institute of Image Information and Television Engineers Vol.53, No11, pp1456-1459 (1
999)). The conventional MPEG-2 and the above-described conventional image encoding device 50 are basic control models, and the image quality cannot be said to be sufficient by themselves. Therefore, various quantization control methods have been devised in addition to the above. At present, when an HDTV signal is compression-coded based on the MPEG-2 standard, a bit rate that satisfies broadcast quality is set to 22 Mbps or more according to an evaluation method defined by ITU-R (see the above-mentioned document, Video Information Media). Journal Vol.5
3, No11, pp 1456-1459 (1999)).

【0007】さらにこの文献によれば、地上波デジタル
放送でSFN(Single Frequency Network)を実現する
には、さらにビットレートを絞る(映像の圧縮率を上げ
る)必要があることがわかる。これまでの制御のままで
ビットレートを絞ると必然的に量子化ステップが荒くな
り、ブロック歪みが増えて視覚的な違和感が起こること
は周知の事実である。
Further, according to this document, it is understood that in order to realize SFN (Single Frequency Network) in digital terrestrial broadcasting, it is necessary to further reduce the bit rate (increase the video compression ratio). It is a well-known fact that if the bit rate is reduced under the conventional control, the quantization step is inevitably coarsened, block distortion is increased, and a sense of visual discomfort occurs.

【0008】また、上述した従来の画像符号化装置70
は、フィルタ対象画素の周辺解析データのみを用いて、
フィルタ部72の処理を行っているため、必ずしも圧縮
効率が上がるわけではなく、特に圧縮率を大幅にあげる
場合は、視覚的に重要な部分に対しても帯域制限が行な
われて視覚的な障害になる場合が有りうるなどの問題点
があった。
Further, the above-described conventional image encoding apparatus 70
Uses only the peripheral analysis data of the pixel to be filtered,
Since the processing of the filter unit 72 is performed, the compression efficiency does not always increase. In particular, when the compression ratio is greatly increased, the band is limited even for visually important parts, and visual impairment is caused. There was a problem that there was a possibility that it might be.

【0009】本発明は、このような問題を解決し、これ
まで以上に人間の視覚特性を利用し、圧縮率の高い視覚
的に優れた品質の符号化画像が得られる画像符号化装置
および画像符号化方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention solves the above-mentioned problems, and uses an image coding apparatus and an image coding apparatus capable of obtaining a coded image having a high compression ratio and excellent visual quality by utilizing the visual characteristics of human beings more than before. It is an object to provide an encoding method.

【0010】[0010]

【課題を解決するための手段】本発明の画像符号化装置
は、原画像データの画面を複数の領域に分割する領域分
割部と、原画像データを前処理するプリフィルタと、プ
リフィルタで前処理された原画像データを符号化する符
号化部と、領域ごとにプリフィルタの特性を制御するフ
ィルタ制御部とを備えることを特徴とする。
According to the present invention, there is provided an image coding apparatus comprising: an area dividing section for dividing a screen of original image data into a plurality of areas; a prefilter for preprocessing the original image data; It is characterized by comprising an encoding unit that encodes the processed original image data, and a filter control unit that controls the characteristics of the pre-filter for each area.

【0011】ここで、領域分割部は、原画像データの画
面を中央部の領域と周辺部の領域とに分割することが好
ましい。
Here, the area dividing section preferably divides the screen of the original image data into a central area and a peripheral area.

【0012】また、原画像データから被写体の種類を解
析する画像解析部を更に備え、フィルタ制御部は、画像
解析部で解析した被写体情報に基づいてプリフィルタの
特性を制御することが好ましい。
It is preferable that the image processing apparatus further includes an image analysis unit that analyzes the type of the subject from the original image data, and the filter control unit controls the characteristics of the pre-filter based on the subject information analyzed by the image analysis unit.

【0013】さらに、画像解析部は、輝度信号と色差信
号との少なくとも一方の信号についての小ブロック毎の
分散値及び/又は平均値によって画像の細かさレベルを
検出し、この細かさレベルから被写体の種類を特定する
ことが好ましい。
Further, the image analysis unit detects the fineness level of the image based on a variance value and / or an average value of at least one of the luminance signal and the color difference signal for each small block, and detects an object based on the fineness level. Is preferably specified.

【0014】また、原画像データから被写体の種類を解
析する画像解析部を更に備え、領域分割部は、画像解析
部で解析した被写体情報に基づいて、中央部の領域をシ
フトさせることが好ましい。
It is preferable that the image processing apparatus further includes an image analyzing section for analyzing the type of the subject from the original image data, and the area dividing section shifts the central area based on the subject information analyzed by the image analyzing section.

【0015】本発明の画像符号化装置は、原画像データ
の画面を複数の領域に分割する領域分割部と、領域ごと
に符号化パラメータを算出する符号化パラメータ算出部
と、領域ごとに符号化パラメータを切り替えて原画像デ
ータを符号化する符号化部とを備えることを特徴とす
る。
An image encoding apparatus according to the present invention comprises: an area dividing section for dividing a screen of original image data into a plurality of areas; an encoding parameter calculating section for calculating an encoding parameter for each area; An encoding unit for encoding original image data by switching parameters.

【0016】ここで、領域分割部は、原画像データの画
面を中央部の領域と周辺部の領域とに分割することが好
ましい。
Here, it is preferable that the area dividing section divides the screen of the original image data into a central area and a peripheral area.

【0017】また、原画像データから被写体の種類を解
析する画像解析部を更に備え、符号化パラメータ算出部
は、画像解析部で解析した被写体情報に基づいて符号化
パラメータを算出することが好ましい。
Preferably, the image processing apparatus further comprises an image analysis section for analyzing the type of the subject from the original image data, and the coding parameter calculation section calculates the coding parameter based on the subject information analyzed by the image analysis section.

【0018】さらに、画像解析部は、輝度信号と色差信
号との少なくとも一方の信号についての小ブロック毎の
分散値及び/又は平均値によって画像の細かさレベルを
検出し、この細かさレベルから被写体の種類を特定する
ことが好ましい。
Further, the image analysis unit detects the fineness level of the image based on the variance value and / or the average value of at least one of the luminance signal and the color difference signal for each small block, and detects the object based on the fineness level. Is preferably specified.

【0019】また、画像解析部は、色差信号の小ブロッ
ク毎の平均値によって原色に対して所定レベル範囲内の
被写体を検出し、この検出値から被写体の種類を特定す
ることが好ましい。
It is preferable that the image analysis unit detects a subject within a predetermined level range with respect to the primary color based on the average value of the color difference signal for each small block, and specifies the type of the subject from the detected value.

【0020】さらに、原画像データから被写体の種類を
解析する画像解析部を更に備え、領域分割部は、画像解
析部で解析した被写体情報に基づいて、中央部の領域を
シフトさせることが好ましい。
Further, it is preferable that the image processing apparatus further comprises an image analyzing section for analyzing the type of the subject from the original image data, and the area dividing section shifts the central area based on the subject information analyzed by the image analyzing section.

【0021】また、領域分割部は、符号化部の量子化ス
テップ情報に基づいて、原画像データの画面を複数の領
域に分割することが好ましい。
Preferably, the area dividing section divides the screen of the original image data into a plurality of areas based on the quantization step information of the encoding section.

【0022】本発明の画像符号化方法は、原画像データ
をプリフィルタで前処理した後に符号化する方法におい
て、原画像データの画面を複数の領域に分割し、各領域
ごとに前記プリフィルタのフィルタ特性を切り替えて、
原画像データを前処理することを特徴とする。
According to the image encoding method of the present invention, in the method of encoding the original image data after preprocessing the original image data by a pre-filter, the screen of the original image data is divided into a plurality of regions, and each region is divided into a plurality of regions. By switching the filter characteristics,
It is characterized in that the original image data is pre-processed.

【0023】本発明の画像符号化方法は、原画像データ
を符号化する方法において、原画像データの画面を複数
の領域に分割し、各領域ごとに符号化パラメータを切り
替えて原画像データを符号化することを特徴とする。
According to the image encoding method of the present invention, in a method of encoding original image data, a screen of the original image data is divided into a plurality of regions, and encoding parameters are switched for each region to encode the original image data. It is characterized in that

【0024】[0024]

【発明の実施の形態】以下、本発明に係る画像符号化装
置および画像符号化方法の好適な実施の形態について添
付図面を参照して説明する。図1は、本実施の形態に係
る画像符号化装置の構成を示すブロック図である。同図
において、1は原画像データS1に対して帯域制限や雑
音除去などの前処理を行なうプリフィルタ、2は原画像
データS1を解析して被写体の種類を特定する画像解析
部、3は画像解析部2から出力された特徴情報S2を用
いて、原画像データS1の画面(フレーム)を複数の領
域に分割する領域情報発生部(領域分割部)である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of an image encoding apparatus and an image encoding method according to the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram illustrating a configuration of an image encoding device according to the present embodiment. In FIG. 1, reference numeral 1 denotes a pre-filter for performing pre-processing such as band limitation and noise removal on the original image data S1, reference numeral 2 denotes an image analysis unit for analyzing the original image data S1 to identify the type of a subject, and reference numeral 3 denotes an image. An area information generation section (area division section) that divides a screen (frame) of the original image data S1 into a plurality of areas using the feature information S2 output from the analysis section 2.

【0025】また、4は領域情報発生部3から出力され
た領域情報S3に基づいてプリフィルタ1の伝達関数お
よび種類を切り替えるフィルタ制御部、5は領域情報発
生部3から出力された領域情報S4に基づいて量子化ス
テップを決定するためのパラメータを算出する重みパラ
メータ算出部(符号化パラメータ算出部)、10はプリ
フィルタ1で前処理された原画像データS1を符号化す
る符号化部、6は符号化部10で用いる量子化ステップ
を蓄積する量子化ステップ蓄積部である。
Reference numeral 4 denotes a filter controller for switching the transfer function and type of the prefilter 1 based on the area information S3 output from the area information generator 3, and 5 denotes area information S4 output from the area information generator 3. A weight parameter calculating unit (coding parameter calculating unit) for calculating a parameter for determining a quantization step based on the encoding unit 10 for coding the original image data S1 preprocessed by the pre-filter 1; Is a quantization step storage unit for storing quantization steps used in the encoding unit 10.

【0026】なお、原画像データS1が符号化部10に
入力された場合、符号化部10では、画面順の走査(以
下ラスタスキャン)から画面内を複数の小ブロックに区
切ったブロック内の走査(以下ブロックスキャン)に変
換した状態で原画像データS1を符号化する。また、走
査変換のブロックは省略してあるが、プリフィルタ1を
施す場合、フィルタの種類によってはラスタスキャンで
行なうものとブロックスキャンで行なってもよいものが
あるので、ここでは走査変換の位置については言及しな
いものとする。
When the original image data S1 is input to the encoding unit 10, the encoding unit 10 scans from a scan in the screen order (hereinafter referred to as raster scan) to a scan in a block obtained by dividing the screen into a plurality of small blocks. (Hereinafter referred to as “block scan”), the original image data S1 is encoded. Although the scan conversion block is omitted, when the pre-filter 1 is applied, depending on the type of the filter, there are a type that is performed by raster scan and a type that is performed by block scan. Shall not be mentioned.

【0027】さらに、11は原画像データS1と過去に
符号化され復号した画像データとの差分を取る減算器、
12は減算器11で演算された差分データを周波数領域
の情報に変換するDCT(直交変換器)、13はDCT
12で直交変換されたデータを量子化する量子化部、1
4は量子化されたデータの冗長度を取り除くVLC(可
変長符号化器)、15はVLC14で発生した可変長符
号をあるレートで平滑化して伝送路に送出するバッフ
ァ、16は量子化部13で量子化されたデータを逆量子
化する逆量子化部である。
Further, a subtractor 11 calculates a difference between the original image data S1 and the previously encoded and decoded image data.
Reference numeral 12 denotes a DCT (orthogonal transformer) for converting the difference data calculated by the subtractor 11 into frequency domain information, and reference numeral 13 denotes a DCT.
A quantization unit for quantizing the data orthogonally transformed in 12;
Reference numeral 4 denotes a VLC (Variable Length Encoder) for removing the redundancy of the quantized data, 15 a buffer for smoothing the variable length code generated by the VLC 14 at a certain rate and sending it out to a transmission path, and 16 a quantization unit 13 Is an inverse quantization unit that inversely quantizes the data quantized by.

【0028】また、17は逆量子化部16で逆量子化さ
れたデータを逆変換する逆DCT、18は逆DCT17
で逆変換されたデータとnフレーム前の復号化データと
を加算して、局部復号データS5を出力する加算器、1
9は加算器18で加算された局部復号データS5を記憶
するループ内フレームメモリ、20は原画像データS1
と局部復号データS5とに基づいて画像の変化を動きベ
クトル情報とし、この動きベクトルによってループ内フ
レームメモリ19の読み出しを制御する動き補償部、2
1は量子化ステップを制御し、ビットレートおよび符号
化画像品質を決定する量子化制御部である。
Reference numeral 17 denotes an inverse DCT for inversely transforming the data inversely quantized by the inverse quantization unit 16, and reference numeral 18 denotes an inverse DCT 17
The adder 1 adds the data inversely transformed by the above and the decoded data n frames before to output local decoded data S5.
Reference numeral 9 denotes a frame memory in a loop for storing the local decoded data S5 added by the adder 18, and reference numeral 20 denotes original image data S1.
A change in an image is used as motion vector information based on the local decoded data S5 and the motion compensation unit that controls reading of the in-loop frame memory 19 based on the motion vector.
Reference numeral 1 denotes a quantization control unit that controls a quantization step and determines a bit rate and an encoded image quality.

【0029】次に動作について説明する。まず全体的な
概略動作について図1を用いて説明する。原画像データ
S1は輝度信号および色差信号(Pb,PrもしくはC
b,Cr)で構成されるコンポーネント信号である。こ
の原画像データS1がプリフィルタ1に入力され、符号
化に適したフィルタリングが行われる。プリフィルタ1
はフィルタ制御部4によって、フィルタの伝達関数およ
びフィルタの種類が制御される。
Next, the operation will be described. First, an overall schematic operation will be described with reference to FIG. The original image data S1 includes a luminance signal and a color difference signal (Pb, Pr or C
b, Cr). The original image data S1 is input to the pre-filter 1, and filtering suitable for encoding is performed. Prefilter 1
The filter control unit 4 controls the transfer function of the filter and the type of the filter.

【0030】プリフィルタ1を通過した原画像データS
1は符号化部10に入力され、符号化処理が行われる。
符号化部10では、まず原画像データS1が減算器11
に入力され、原画像データS1とループ内フレームメモ
リ19に記憶された画像データとの差分が取られる。こ
の差分データはDCT12に入力され、周波数領域の情
報に変換される。さらに周波数領域の情報に変換された
データは量子化部13に入力され、量子化制御部21の
制御の下、量子化処理が行われる。量子化されたデータ
は、VLC14で冗長度が取り除かれ、バッファ15で
所定のビットレートで平滑化され、伝送路に送出され
る。
Original image data S that has passed through the prefilter 1
1 is input to the encoding unit 10 and an encoding process is performed.
The encoding unit 10 first converts the original image data S1 into a subtractor 11
The difference between the original image data S1 and the image data stored in the in-loop frame memory 19 is obtained. This difference data is input to the DCT 12 and is converted into frequency domain information. Further, the data converted into the information in the frequency domain is input to the quantization unit 13, and a quantization process is performed under the control of the quantization control unit 21. The quantized data has its redundancy removed by the VLC 14, smoothed at a predetermined bit rate by the buffer 15, and sent to the transmission path.

【0031】量子化部13で量子化されたデータは逆量
子化部16にも入力され、逆量子化される。逆量子化さ
れたデータは逆DCT17で逆変換され、加算器18で
nフレーム前の符号化データと加算される。加算器18
から出力された局部復号データS5は、ループ内フレー
ムメモリ19および動き補償部20にそれぞれ入力され
る。動き補償部20では、加算器18から入力された局
部復号データS5とプリフィルタ1を通過した原画像デ
ータS1とに基づいてループ内フレームメモリ19の読
み出しを制御する。
The data quantized by the quantization unit 13 is also input to the inverse quantization unit 16 and is inversely quantized. The inversely quantized data is inversely transformed by the inverse DCT 17 and added by the adder 18 to the encoded data of n frames before. Adder 18
Are output to the in-loop frame memory 19 and the motion compensation unit 20, respectively. The motion compensator 20 controls the reading of the in-loop frame memory 19 based on the local decoded data S5 input from the adder 18 and the original image data S1 passed through the prefilter 1.

【0032】また、原画像データS1は画像解析部2に
も入力され、視覚特性に基づいて被写体のデータベース
(不図示)と比較して近似する画像を抽出する。この抽
出で得られた特徴情報S2および量子化ステップ蓄積部
6から出力された量子化ステップ分布情報S9が領域情
報発生器3に与えられ、領域情報発生器3ではこれらの
情報S2,S9に基づいて、領域情報S4を生成する。
領域情報発生部3で生成された領域情報S4は、重みパ
ラメータ算出部5に送られる。重みパラメータ算出部5
では、領域情報発生部3からの領域情報S4に加えて、
符号化部10からの差分データS7に基づいて、量子化
制御部21で量子化ステップを決定するための重みパラ
メータを生成する。
The original image data S1 is also input to the image analysis unit 2, and extracts an approximate image by comparing it with a database (not shown) of the subject based on the visual characteristics. The feature information S2 obtained by this extraction and the quantization step distribution information S9 output from the quantization step storage unit 6 are given to the area information generator 3, and the area information generator 3 uses the information S2 and S9. Then, the area information S4 is generated.
The area information S4 generated by the area information generator 3 is sent to the weight parameter calculator 5. Weight parameter calculator 5
Then, in addition to the area information S4 from the area information generating unit 3,
Based on the difference data S7 from the encoding unit 10, the quantization control unit 21 generates a weight parameter for determining a quantization step.

【0033】なお、量子化部10では、減算器11の減
算結果である差分データS7を重みパラメータ算出部5
に与えているが、DCT12からの出力データを与えて
もよく、また動き補償部20の出力データを与えてもよ
い。
In the quantization unit 10, the difference data S7, which is the result of the subtraction by the subtractor 11, is used as the weight parameter calculation unit 5.
However, the output data from the DCT 12 may be provided, or the output data from the motion compensation unit 20 may be provided.

【0034】領域情報発生部3では、原画像データS1
と同期したフレームパルス、ラインパルスなどの同期信
号S8を入力して、画面を複数の領域に分割する。領域
分割の例を図2に示す。同図に示すように、領域情報発
生部3では、半径の異なる複数の同心円(楕円)を重ね
るようにして中心部から順番に領域A、領域B、領域C
の3つの領域に画面を分けている。なお、円の代わりに
長方形や正方形を用いてもよい。
In the area information generating section 3, the original image data S1
The screen is divided into a plurality of areas by inputting a synchronizing signal S8 such as a frame pulse or a line pulse synchronized with. FIG. 2 shows an example of area division. As shown in the figure, the area information generating unit 3 sequentially superposes a plurality of concentric circles (ellipses) having different radii from the center to the area A, the area B, and the area C.
The screen is divided into three areas. Note that a rectangle or a square may be used instead of a circle.

【0035】このような分け方をしたのは以下の理由に
よる。即ち、一般的にカメラで被写体を撮影する場合、
主たる被写体を画面の中心にする場合が圧倒的に多い
が、これは視聴者の視線が画面の中心部分に集中する習
性があるからである。そこで、視線の集中する中心領域
と、視線があまり集中しない周辺領域とで、プリフィル
タ1の特性及び/又は量子化制御部21の重みパラメー
タ(符号化パラメータ)を変えることによって符号化効
率を大きく向上させることができる。
The reason for such division is as follows. That is, in general, when shooting a subject with a camera,
The main subject is predominantly centered on the screen, but this is because the viewer's gaze tends to concentrate on the center of the screen. Therefore, the coding efficiency is increased by changing the characteristics of the pre-filter 1 and / or the weight parameter (coding parameter) of the quantization control unit 21 between the central region where the line of sight is concentrated and the peripheral region where the line of sight is not so concentrated. Can be improved.

【0036】プリフィルタ1の特性を変える場合、画面
の中心部に位置する領域Aではプリフィルタ1の特性を
最も弱くする(基準値fc)。画面の中心部よりやや離
れた領域Bではプリフィルタ1の特性をfcの1.2倍
程度(1.2×fc)の強さとする。また、画面の中心
部よりもっとも離れた領域Cではプリフィルタ1の特性
をfcの1.5倍程度(1.5×fc)の強さとする。
When changing the characteristics of the pre-filter 1, the characteristics of the pre-filter 1 are weakest in the area A located at the center of the screen (reference value fc). In a region B slightly distant from the center of the screen, the characteristics of the pre-filter 1 are set to be about 1.2 times fc (1.2 × fc). In the region C farthest from the center of the screen, the characteristics of the pre-filter 1 are set to be about 1.5 times fc (1.5 × fc).

【0037】一方、量子化制御部21の重みパラメータ
を変える場合、画面の中心部に位置する領域Aでは重み
パラメータを最も弱くする(基準値Qc)。画面の中心
部よりやや離れた領域Bでは重みパラメータの強さはQ
cの1.2倍程度(1.2×Qc)とする。また、画面
の中心部よりもっとも離れた領域Cでは重みパラメータ
の強さをQcの1.5倍程度(1.5×Qc)とする。
On the other hand, when changing the weight parameter of the quantization control unit 21, the weight parameter is set to be weakest in the area A located at the center of the screen (reference value Qc). In the area B slightly away from the center of the screen, the strength of the weight parameter is Q
It is set to about 1.2 times c (1.2 × Qc). In the region C farthest from the center of the screen, the strength of the weight parameter is set to about 1.5 times Qc (1.5 × Qc).

【0038】領域情報発生部3では、図2に示すように
大きさの異なる複数の楕円形状に画面を分割し、その領
域を示す領域情報S4を量子化制御に反映させるために
重みパラメータ算出部5に通知する。領域情報S4は3
bit(8種類)程度を想定するが、ビット数を制限す
るものではない。図2では、原画像データS1の画面を
領域A、B,Cと分けて、A:000(バイナリ)、
B:001、C:010という具合に領域情報S4を割
り当てる。
The area information generating section 3 divides the screen into a plurality of elliptical shapes having different sizes as shown in FIG. 2, and a weight parameter calculating section for reflecting the area information S4 indicating the area in the quantization control. Notify 5 The area information S4 is 3
Bits (eight types) are assumed, but the number of bits is not limited. In FIG. 2, the screen of the original image data S1 is divided into areas A, B, and C, and A: 000 (binary),
The area information S4 is allocated such as B: 001, C: 010.

【0039】一方、画像解析部2では、原画像データS
1から局所的に視覚上目立つ被写体の特定を行なう。具
体的には、m×nの小ブロックの輝度信号(Pb)と色
差信号(Pr)それぞれの分散値(σγ)および平均値
(Pmean)を求め、予め様々な画像から求めておいた分
散値と平均値とを比較し、部分的な被写体の種類を特定
する。分散値(σγ)および平均値(Pmean)の算出
は、以下の計算式で行う。
On the other hand, in the image analysis section 2, the original image data S
From 1, an object which is visually conspicuous locally is specified. Specifically, the variance (σγ) and the average (Pmean) of the luminance signal (Pb) and the chrominance signal (Pr) of the m × n small block are obtained, and the variance obtained in advance from various images is obtained. Is compared with the average value, and the type of the partial subject is specified. The variance value (σγ) and the average value (Pmean) are calculated by the following formulas.

【0040】[0040]

【数1】 (Equation 1)

【0041】ここで、図3に示すように小ブロック25
のように例えば芝生や細かい草木の場合、輝度分散値が
比較的高く且つ色差平均値から緑系の画像であると割り
出されるので、予め分散値と平均値とを割り出しておい
た様々な画像の中から最も近似する画像が抽出される。
この抽出によって、小ブロック25は符号化に厳しい被
写体であることが判る。そして、画像解析部2で得られ
た被写体情報S11は重みパラメータ算出部5に与えら
れ、重みパラメータ算出部5ではこの被写体情報S11
に基づいて符号化パラメータを算出する。
Here, as shown in FIG.
For example, in the case of a lawn or a fine grass, for example, since the luminance variance value is relatively high and the image is determined to be a green image from the color difference average value, various images in which the variance value and the average value are calculated in advance are used. The most similar image is extracted from.
By this extraction, it is found that the small block 25 is a subject that is strict in encoding. The subject information S11 obtained by the image analysis unit 2 is given to the weight parameter calculation unit 5, and the weight parameter calculation unit 5 outputs the subject information S11.
The encoding parameter is calculated based on

【0042】量子化制御部21ではこの符号化パラメー
タを用いて量子化部13に与える量子化ステップを制御
しているので、芝生や細かい草木の画像の存在する小ブ
ロック25に対しては、小さな量子化ステップで量子化
される。その結果、芝生や細かい草木などの画像が画面
の一部分に存在する場合であっても、その部分に対して
最適な量子化ステップで量子化できるので、ちらつきの
少ない視覚的に優れた品質の符号化画像を得ることがで
きる。
Since the quantization control unit 21 controls the quantization step given to the quantization unit 13 using this encoding parameter, a small block 25 having an image of a lawn or a fine plant is small. It is quantized in a quantization step. As a result, even when an image such as lawn or fine vegetation is present in a part of the screen, the part can be quantized with the optimal quantization step, so that a code of visually superior quality with less flickering can be obtained. To obtain an image.

【0043】また、画像解析部2で得られた被写体情報
S6はフィルタ制御部4にも与えられ、フィルタ制御部
4ではこの被写体情報S6に基づいてプリフィルタ1の
伝達関数もしくはフィルタの種類を切り替える。その結
果、芝生や細かい草木の画像のある小ブロック25に対
しては、最適なフィルタ特性でフィルタリングされるの
で、ちらつきの少ない視覚的に優れた品質の符号化画像
を得ることができる。
The subject information S6 obtained by the image analysis unit 2 is also supplied to the filter control unit 4, and the filter control unit 4 switches the transfer function of the pre-filter 1 or the type of filter based on the subject information S6. . As a result, the small block 25 having the image of the lawn or the fine grass is filtered with the optimal filter characteristics, and thus a coded image with little flicker and excellent visual quality can be obtained.

【0044】さらに、画像解析部2で求めた輝度信号
(Pb)と色差信号(Pr)の各々の平均値に基づい
て、原色に対して所定レベル範囲内にある視覚的に目立
ちやすい被写体(例えば赤など)を検出し、被写体の特
定情報として用いてもよい。この場合、画像解析部2で
は予め持っている被写体の平均値/分散値データと原画
像データS1から計算した同データを比較し、もっとも
差分値が小さい結果を被写体情報S11として重みパラ
メータ算出部5に通知する。重みパラメータ算出部5で
はこの被写体情報S11に基づいて符号化パラメータを
算出し、量子化制御部21ではこの符号化パラメータを
用いて量子化部13に与える量子化ステップを制御す
る。その結果、視聴者の視線が集中し易い原色に近い色
の被写体に対しては、小さな量子化ステップで量子化さ
れるので、視覚的に優れた品質の符号化画像を得ること
ができる。
Further, based on the average value of each of the luminance signal (Pb) and the color difference signal (Pr) obtained by the image analysis unit 2, a subject (for example, a subject that is within a predetermined level range with respect to the primary colors and is easily visible). Red, etc.) and may be used as the subject identification information. In this case, the image analysis unit 2 compares the average / variance value data of the subject, which is held in advance, with the same data calculated from the original image data S1, and determines the result having the smallest difference value as the subject information S11 as the weight parameter calculation unit 5. Notify. The weight parameter calculation unit 5 calculates an encoding parameter based on the subject information S11, and the quantization control unit 21 controls a quantization step given to the quantization unit 13 using the encoding parameter. As a result, a subject having a color close to the primary color in which the viewer's line of sight tends to concentrate is quantized in a small quantization step, so that a coded image with visually excellent quality can be obtained.

【0045】次に、フィルタ制御部4およびプリフィル
タ1について説明する。図4において、30〜32は各
フィルタに対する伝達関数部、33は領域情報S3と被
写体情報S6からフィルタ特性を選択するフィルタ選択
決定テーブル、34は空間周波数帯域を制限する空間帯
域制限フィルタユニット、35は時間積分フィルタユニ
ット、36はメディアンフィルタ処理や孤立点除去を行
うノイズリダクションフィルタユニットである。
Next, the filter control section 4 and the prefilter 1 will be described. In FIG. 4, reference numerals 30 to 32 denote transfer function units for each filter; 33, a filter selection determination table for selecting a filter characteristic from the area information S3 and the subject information S6; 34, a spatial band limiting filter unit for limiting a spatial frequency band; Is a time integration filter unit, and 36 is a noise reduction filter unit for performing median filtering and removal of isolated points.

【0046】フィルタ選択決定テーブル33には領域情
報S3と被写体情報S6が入力され、フィルタ選択決定
テーブル33では、これらの領域情報S3と被写体情報
S6に基づいて、各フィルタユニット34,35,36
に各々対応した伝達関数部30,31,32を制御す
る。各伝達関数部30,31,32は、複数の伝達関数
(フィルタの強弱を決定するパラメータ)の中から所望
の伝達関数を選択するセレクタとを備え、各フィルタユ
ニット34,35,36は各伝達関数部30,31,3
2から与えられる伝達関数に基づいてフィルタ特性を調
整する。なお、伝達関数にはフィルタスルーも含まれる
ものとする。
The region information S3 and the subject information S6 are input to the filter selection decision table 33. The filter selection decision table 33 uses the filter units 34, 35, and 36 based on the region information S3 and the subject information S6.
Are controlled corresponding to the transfer function units 30, 31, 32, respectively. Each of the transfer function units 30, 31, and 32 includes a selector for selecting a desired transfer function from a plurality of transfer functions (parameters for determining the strength of the filter). Function part 30, 31, 3
2 to adjust the filter characteristics based on the transfer function given by Note that the transfer function includes filter-through.

【0047】ここで、視聴者の視線が最も集中するのは
画面の中心部なので、図2に示すように画面の中心部に
位置する領域Aについては、各フィルタユニット34,
35,36に対する制御を弱くし、領域B、領域Cにい
くに従って制御を強くする。例えば、空間帯域制限フィ
ルタユニット34については、領域Aでは帯域制限をス
ルーもしくは弱くし、領域B、領域Cの順で帯域制限を
強くかけていく。なお、ノイズリダクションフィルタユ
ニット36についても同様な制御で良いが、理想的なノ
イズリダクションが実現できれば各領域を均一に制御し
てもよい。
Here, since the viewer's line of sight is most concentrated at the center of the screen, as shown in FIG. 2, for the area A located at the center of the screen, each filter unit 34,
The control for 35 and 36 is weakened, and the control is increased as it goes to region B and region C. For example, for the spatial band limiting filter unit 34, the band limitation is made through or weak in the region A, and the band limitation is increased in the order of the region B and the region C. The same control may be applied to the noise reduction filter unit 36. However, if ideal noise reduction can be realized, each area may be uniformly controlled.

【0048】一方、画像解析部2で特定した被写体情報
S6に対して、フィルタ選択決定テーブル33ではバッ
ファ15から与えられる情報発生量情報S12の情報発
生量に応じて適応的に制御する。基本的にピクチャ当た
りの情報発生量が、平均レートを下回っている場合はフ
ィルタを緩めに、平均レートを上回っている場合はフィ
ルタを強めにかけるようにする。上述した領域情報S3
と組み合せて各フィルタユニット34,35,36を制
御してもよい。
On the other hand, for the subject information S6 specified by the image analysis unit 2, the filter selection determination table 33 adaptively controls according to the information generation amount of the information generation amount information S12 provided from the buffer 15. Basically, if the amount of information per picture is lower than the average rate, the filter is loosened, and if the amount of information is higher than the average rate, the filter is strengthened. The above-mentioned area information S3
May be combined with to control each of the filter units 34, 35, 36.

【0049】プリフィルタ1は、空間フィルタユニット
34、時間積分フィルタユニット35、ノイズリダクシ
ョンフィルタユニット36の3種類のフィルタを持ち、
それぞれに伝達関数(フィルタの強弱を決定するパラメ
ータ)を有し、フィルタ選択決定テーブル33によって
その伝達関数が個別に制御される。伝達関数にはフィル
タスルーも含まれるものとする。以上のように、フィル
タ制御部4では、視覚的に目立つ部分とそうでない部分
で適応的にフィルタ特性を変えるように制御しているの
で、効果的に帯域制限等のフィルタリングをすることが
でき、符号化効率を上げることができる。
The pre-filter 1 has three types of filters: a spatial filter unit 34, a time integration filter unit 35, and a noise reduction filter unit 36.
Each has a transfer function (a parameter for determining the strength of the filter), and the transfer function is individually controlled by the filter selection determination table 33. It is assumed that the transfer function includes filter-through. As described above, the filter control unit 4 performs control so as to adaptively change the filter characteristics between a visually conspicuous portion and a non-visually visible portion, so that filtering such as band limitation can be effectively performed. Encoding efficiency can be increased.

【0050】次に、重みパラメータ算出部5の動作につ
いて説明する。重みパラメータ算出部5には、領域情報
発生部3からの領域情報S4、画像解析部2で解析した
被写体情報S11、および減算器11からの差分データ
S7が入力される。量子化制御部21では、バッファ1
5からの情報発生量情報S12および被符号化画像から
求めたアクティビティ(図1では不図示)に基づいて、
量子化ステップの制御を行なう。量子化ステップが大き
ければ大きいほど、発生する符号量(情報量)は少なく
なるが、反面、復号した際の画像の劣化(ブロック歪
み)は大きくなり視覚的に大きな障害となる。
Next, the operation of the weight parameter calculator 5 will be described. The area parameter S4 from the area information generator 3, the subject information S11 analyzed by the image analyzer 2, and the difference data S7 from the subtractor 11 are input to the weight parameter calculator 5. In the quantization control unit 21, the buffer 1
5 based on the information generation amount information S12 and the activity (not shown in FIG. 1) obtained from the encoded image.
Controls the quantization step. The larger the quantization step, the smaller the amount of code (the amount of information) that occurs, but, on the other hand, the greater the degradation (block distortion) of the image at the time of decoding, which is a visually significant obstacle.

【0051】従来のアクティビティ制御は画面の局所的
な細かさレベルを量子化制御部21で知ることによって
量子化ステップを切り替え、視覚的に劣化を目立たなく
するように作用するが、画面全体のアクティビティが高
い場合は、一様に量子化ステップが制御されるため、結
果的に劣化が大きくなってしまう。本実施の形態では、
視覚的な画面領域情報と被写体の種類を特定することが
できるため、その情報を量子化ステップに対する係数に
変換し、重みパラメータ算出部5で重み係数S13を算
出して、量子化制御部21に与えている。その結果、視
覚的な画面領域情報と被写体の種類に基づいて、領域ご
とに量子化ステップが制御されるため、視覚的に優れた
品質の符号化画像を得ることができる。
In the conventional activity control, the quantization step is switched by knowing the local fineness level of the screen by the quantization control unit 21 so as to make the deterioration less noticeable. Is high, the quantization step is controlled uniformly, resulting in a large deterioration. In the present embodiment,
Since the visual screen area information and the type of the subject can be specified, the information is converted into a coefficient for the quantization step, the weight parameter calculation unit 5 calculates the weight coefficient S13, and the quantization control unit 21 Have given. As a result, the quantization step is controlled for each area based on the visual screen area information and the type of the subject, so that an encoded image with visually excellent quality can be obtained.

【0052】また、重みパラメータ算出部5では、領域
情報S4、被写体情報S11に加えて、実際に符号化す
るべき差分データS7を参照パラメータとして加えても
効果がある。重み係数S13を、本来の量子化ステップ
に対して乗算することによって、視覚的および符号化効
率の面から効果的に量子化制御を行なうことができる。
The weight parameter calculating section 5 is also effective in that, in addition to the area information S4 and the subject information S11, difference data S7 to be actually encoded is added as a reference parameter. By multiplying the original quantization step by the weight coefficient S13, the quantization control can be effectively performed in terms of visual and coding efficiency.

【0053】なお、重みパラメータ算出部5では、視覚
的な領域情報S4と画像解析によって特定した被写体情
報S11を用いることにより、符号化部10の量子化ス
テップを制御するようにしたが、これらの情報を量子化
ステップだけでなく、DCT12の係数の高域成分への
乗算や、ループ内フィルタの伝達関数などに適用して
も、視覚的に優れた品質の符号化画像を得ることができ
る。
Note that the weight parameter calculation unit 5 controls the quantization step of the encoding unit 10 by using the visual area information S4 and the subject information S11 specified by the image analysis. Even if the information is applied not only to the quantization step but also to the multiplication of the high-frequency component of the coefficient of the DCT 12, or to the transfer function of an in-loop filter, an encoded image with visually excellent quality can be obtained.

【0054】次に、領域情報発生部3で分割した各領域
を、適応的にシフトさせる処理について説明する。領域
情報発生部3には、画像解析部2で検出した特徴情報S
2、および量子化ステップ蓄積部6で集計した量子化ス
テップ分布情報S9が各々入力される。特徴情報S2
は、被写体の部分的な細かさレベル(例えば分散値やア
クティビティ)を画面上の分布で示したデータである。
一方、図5に示すように、量子化ステップ分布情報S9
は、量子化制御部21から出力された量子化ステップS
10(マクロブロック単位)を量子化ステップ蓄積部6
で1フレーム単位に蓄積していき、画面内の分布を求め
たデータである。
Next, processing for adaptively shifting each area divided by the area information generating section 3 will be described. The region information generation unit 3 includes the feature information S detected by the image analysis unit 2.
2, and the quantization step distribution information S9 totalized by the quantization step storage unit 6 are input. Feature information S2
Is data indicating a partial fineness level (for example, a variance value or an activity) of the subject as a distribution on the screen.
On the other hand, as shown in FIG.
Is the quantization step S output from the quantization controller 21.
10 (macroblock unit), quantization step storage unit 6
Is the data obtained by accumulating the data in one frame unit and obtaining the distribution in the screen.

【0055】領域情報発生部3では、上述したように基
本的に画面の中心を最も視覚的に重要な領域としている
が、必ずしも全ての画像に対して視覚特性が中心に集ま
るとは限らない。例えば、図6に示すような画像では、
画面の下半分に常に視線が集中する。そこで、原画から
解析した特徴情報S2と実際に符号化する際に決定した
量子化ステップ分布情報S9とを領域情報発生部3で参
照して、分割した領域を水平もしくは垂直方向にシフト
させることによって、エリアの中心を視覚特性が集まる
位置に補正することができる。その結果、視覚的に優れ
た品質の符号化画像を得ることができる。
Although the area information generating section 3 basically makes the center of the screen the most visually important area as described above, the visual characteristics are not always gathered at the center for all the images. For example, in an image as shown in FIG.
Eyes are always concentrated in the lower half of the screen. Therefore, the divided information is shifted in the horizontal or vertical direction by referring to the feature information S2 analyzed from the original image and the quantization step distribution information S9 determined at the time of actual encoding by the area information generating unit 3. In addition, the center of the area can be corrected to a position where the visual characteristics gather. As a result, it is possible to obtain an encoded image having visually excellent quality.

【0056】[0056]

【発明の効果】本発明に係る画像符号化装置および画像
符号化方法は、以上のように構成されているため、次の
ような効果を得ることができる。即ち、原画像データの
画面を複数の領域に分割して、領域ごとにフィルタ特性
又は量子化ステップを切り替えるようにしたので、視覚
的に劣化が目立ち難く、かつ情報量を効果的に下げるこ
とができるため、低レートで高画質な画像を伝送するこ
とができる。
Since the image encoding apparatus and the image encoding method according to the present invention are configured as described above, the following effects can be obtained. That is, since the screen of the original image data is divided into a plurality of regions and the filter characteristics or the quantization steps are switched for each region, the deterioration is hardly noticeable visually, and the information amount can be effectively reduced. Therefore, high-quality images can be transmitted at a low rate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態に係る画像符号化装置の構成を示
すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image encoding device according to the present embodiment.

【図2】領域情報発生部による領域分割の例を示す図で
ある。
FIG. 2 is a diagram illustrating an example of area division by an area information generation unit.

【図3】芝生や細かい草木を有する原画像データを示す
図である。
FIG. 3 is a diagram showing original image data having a lawn or fine vegetation.

【図4】フィルタ制御部とプリフィルタの構成を示すブ
ロック図である。
FIG. 4 is a block diagram illustrating a configuration of a filter control unit and a prefilter.

【図5】量子化ステップ蓄積部に蓄積された量子化ステ
ップ分布情報を示す図である。
FIG. 5 is a diagram showing quantization step distribution information stored in a quantization step storage unit.

【図6】領域情報発生部による領域分割をシフトさせた
例を示す図である。
FIG. 6 is a diagram illustrating an example in which the area division by the area information generating unit is shifted.

【図7】従来の画像符号化装置の構成を示すブロック図
である。
FIG. 7 is a block diagram illustrating a configuration of a conventional image encoding device.

【図8】従来の画像符号化装置の構成を示すブロック図
である。
FIG. 8 is a block diagram illustrating a configuration of a conventional image encoding device.

【符号の説明】[Explanation of symbols]

1…プリフィルタ、2…画像解析部、3…領域情報発生
部(領域分割部)、4…フィルタ制御部、5…重みパラ
メータ算出部(符号化パラメータ算出部)、6…量子化
ステップ蓄積部、11…減算器、12…DCT(直交変
換器)、13…量子化部、14…VLC(可変長符号化
器)、15…バッファ、16…逆量子化部、17…逆D
CT、18…加算器、19…ループ内フレームメモリ、
20…動き補償部、21…量子化制御部。
DESCRIPTION OF SYMBOLS 1 ... Prefilter, 2 ... Image analysis part, 3 ... Region information generation part (region division part), 4 ... Filter control part, 5 ... Weight parameter calculation part (encoding parameter calculation part), 6 ... Quantization step accumulation part , 11: subtractor, 12: DCT (orthogonal transformer), 13: quantizer, 14: VLC (variable length encoder), 15: buffer, 16: inverse quantizer, 17: inverse D
CT, 18 adder, 19 frame memory in loop,
20: motion compensation unit; 21: quantization control unit.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK03 MA23 ME01 NN01 PP14 PP21 SS02 TA01 TA46 TB07 TB08 TC10 TC18 TC43 TD04 UA02 UA11  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 KK03 MA23 ME01 NN01 PP14 PP21 SS02 TA01 TA46 TB07 TB08 TC10 TC18 TC43 TD04 UA02 UA11

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 原画像データの画面を複数の領域に分割
する領域分割部と、 前記原画像データを前処理するプリフィルタと、 前記プリフィルタで前処理された原画像データを符号化
する符号化部と、 前記領域ごとに前記プリフィルタの特性を制御するフィ
ルタ制御部とを備えることを特徴とする画像符号化装
置。
1. An area dividing unit that divides a screen of original image data into a plurality of areas; a prefilter that preprocesses the original image data; and a code that encodes the original image data preprocessed by the prefilter. An image coding apparatus, comprising: a coding unit; and a filter control unit configured to control characteristics of the pre-filter for each of the regions.
【請求項2】 前記領域分割部は、前記原画像データの
画面を中央部の領域と周辺部の領域とに分割することを
特徴とする請求項1記載の画像符号化装置。
2. The image encoding apparatus according to claim 1, wherein the area dividing unit divides the screen of the original image data into a central area and a peripheral area.
【請求項3】 前記原画像データから被写体の種類を解
析する画像解析部を更に備え、 前記フィルタ制御部は、前記画像解析部で解析した被写
体情報に基づいて前記プリフィルタの特性を制御するこ
とを特徴とする請求項1又は請求項2記載の画像符号化
装置。
3. The image processing apparatus according to claim 1, further comprising an image analysis unit configured to analyze a type of a subject from the original image data, wherein the filter control unit controls characteristics of the pre-filter based on subject information analyzed by the image analysis unit. The image encoding device according to claim 1 or 2, wherein:
【請求項4】 前記画像解析部は、輝度信号と色差信号
との少なくとも一方の信号についての小ブロック毎の分
散値及び/又は平均値によって画像の細かさレベルを検
出し、この細かさレベルから被写体の種類を特定するこ
とを特徴とする請求項3記載の画像符号化装置。
4. The image analysis unit detects a fineness level of an image based on a variance value and / or an average value of at least one of a luminance signal and a color difference signal for each small block, and detects the fineness level of the image from the fineness level. 4. The image encoding apparatus according to claim 3, wherein the type of the subject is specified.
【請求項5】 前記原画像データから被写体の種類を解
析する画像解析部を更に備え、 前記領域分割部は、前記画像解析部で解析した被写体情
報に基づいて、前記中央部の領域をシフトさせることを
特徴とする請求項2記載の画像符号化装置。
5. An image analysis unit for analyzing a type of a subject from the original image data, wherein the region dividing unit shifts the region of the central part based on subject information analyzed by the image analysis unit. 3. The image encoding apparatus according to claim 2, wherein:
【請求項6】 原画像データの画面を複数の領域に分割
する領域分割部と、 前記領域ごとに符号化パラメータを算出する符号化パラ
メータ算出部と、 前記領域ごとに前記符号化パラメータを切り替えて前記
原画像データを符号化する符号化部とを備えることを特
徴とする画像符号化装置。
6. An area dividing section for dividing a screen of original image data into a plurality of areas; an encoding parameter calculating section for calculating an encoding parameter for each area; and switching the encoding parameter for each area. An image encoding apparatus, comprising: an encoding unit that encodes the original image data.
【請求項7】 前記領域分割部は、前記原画像データの
画面を中央部の領域と周辺部の領域とに分割することを
特徴とする請求項6記載の画像符号化装置。
7. The image encoding apparatus according to claim 6, wherein the area dividing unit divides the screen of the original image data into a central area and a peripheral area.
【請求項8】 前記原画像データから被写体の種類を解
析する画像解析部を更に備え、 前記符号化パラメータ算出部は、前記画像解析部で解析
した被写体情報に基づいて符号化パラメータを算出する
ことを特徴とする請求項6又は請求項7記載の画像符号
化装置。
8. An image analysis unit for analyzing a type of a subject from the original image data, wherein the coding parameter calculation unit calculates a coding parameter based on subject information analyzed by the image analysis unit. The image encoding device according to claim 6 or 7, wherein:
【請求項9】 前記画像解析部は、輝度信号と色差信号
との少なくとも一方の信号についての小ブロック毎の分
散値及び/又は平均値によって画像の細かさレベルを検
出し、この細かさレベルから被写体の種類を特定するこ
とを特徴とする請求項8記載の画像符号化装置。
9. The image analysis unit detects a fineness level of an image based on a variance value and / or an average value of at least one of a luminance signal and a color difference signal for each small block, and detects the fineness level of the image from the fineness level. 9. The image encoding apparatus according to claim 8, wherein the type of the subject is specified.
【請求項10】 前記画像解析部は、色差信号の小ブロ
ック毎の平均値によって原色に対して所定レベル範囲内
の被写体を検出し、この検出値から被写体の種類を特定
することを特徴とする請求項8記載の画像符号化装置。
10. The image analysis unit detects an object within a predetermined level range with respect to a primary color by an average value of each small block of a color difference signal, and specifies a type of the object based on the detected value. The image encoding device according to claim 8.
【請求項11】 前記原画像データから被写体の種類を
解析する画像解析部を更に備え、 前記領域分割部は、前記画像解析部で解析した被写体情
報に基づいて、前記中央部の領域をシフトさせることを
特徴とする請求項7記載の画像符号化装置。
11. An image analyzing unit for analyzing a type of a subject from the original image data, wherein the region dividing unit shifts the region of the central part based on subject information analyzed by the image analyzing unit. 8. The image encoding apparatus according to claim 7, wherein:
【請求項12】 原画像データをプリフィルタで前処理
した後に符号化する画像符号化方法において、 前記原画像データの画面を複数の領域に分割し、各領域
ごとに前記プリフィルタのフィルタ特性を切り替えて、
前記原画像データを前処理することを特徴とする画像符
号化方法。
12. An image encoding method for encoding an original image data after preprocessing the original image data with a prefilter, wherein the screen of the original image data is divided into a plurality of regions, and a filter characteristic of the prefilter is determined for each region. Switch,
An image encoding method, wherein the original image data is pre-processed.
【請求項13】 原画像データを符号化する画像符号化
方法において、 前記原画像データの画面を複数の領域に分割し、各領域
ごとに符号化パラメータを切り替えて前記原画像データ
を符号化することを特徴とする画像符号化方法。
13. An image encoding method for encoding original image data, wherein the original image data screen is divided into a plurality of regions, and encoding parameters are switched for each region to encode the original image data. An image coding method characterized by the above-mentioned.
JP2000194250A 2000-06-27 2000-06-28 Device and method for encoding image Pending JP2002016910A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000194250A JP2002016910A (en) 2000-06-28 2000-06-28 Device and method for encoding image
US09/894,214 US7177358B2 (en) 2000-06-27 2001-06-27 Picture coding apparatus, and picture coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000194250A JP2002016910A (en) 2000-06-28 2000-06-28 Device and method for encoding image

Publications (1)

Publication Number Publication Date
JP2002016910A true JP2002016910A (en) 2002-01-18

Family

ID=18693110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000194250A Pending JP2002016910A (en) 2000-06-27 2000-06-28 Device and method for encoding image

Country Status (1)

Country Link
JP (1) JP2002016910A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016165087A (en) * 2015-03-06 2016-09-08 株式会社ニコン Image encoder, image encoding method, image decoder and image decoding method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016165087A (en) * 2015-03-06 2016-09-08 株式会社ニコン Image encoder, image encoding method, image decoder and image decoding method

Similar Documents

Publication Publication Date Title
US7177358B2 (en) Picture coding apparatus, and picture coding method
JP6667609B2 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
JP3258840B2 (en) Video encoding device and region extraction device
US7095903B2 (en) Method and apparatus for visual lossless image syntactic encoding
JP4186242B2 (en) Image signal processing apparatus and image signal processing method
KR100797807B1 (en) Method of coding artefacts reduction
US5369439A (en) Orthogonal transform encoder using DC component to control quantization step size
JP3280211B2 (en) Video encoder control system
US5852682A (en) Post-processing method and apparatus for use in a video signal decoding apparatus
US6587509B1 (en) Reducing undesirable effects of an emphasis processing operation performed on a moving image by adding a noise signal to a decoded uncompressed signal
US7343045B2 (en) Image information compression device
EP1659799A1 (en) Edge adaptive filtering system for reducing artifacts and method
US5555028A (en) Post-processing method and apparatus for use in an image signal decoding system
JPH08237669A (en) Picture signal processor, picture signal processing method and picture signal decoder
KR20090100402A (en) Image compression and decompression
CN1695381A (en) Sharpness enhancement in post-processing of digital video signals using coding information and local spatial features
EP1506525B1 (en) System for and method of sharpness enhancement for coded digital video
US20050286628A1 (en) Human visual system (HVS) filter in a discrete cosine transformator (DCT)
JP2002537735A (en) Video decoding apparatus and method using filtering step to reduce block effect
JPH04219089A (en) Image encoding device
GB2316827A (en) Compensating quantization errors of a decoded video signal by using an adaptive filter
US8369423B2 (en) Method and device for coding
JP2002016910A (en) Device and method for encoding image
Hwang et al. Digital picture compression and coding structure
JP2868445B2 (en) Moving image compression method and apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051018