JP2003153268A - Video encoding method and apparatus, and recording medium - Google Patents

Video encoding method and apparatus, and recording medium

Info

Publication number
JP2003153268A
JP2003153268A JP2001352740A JP2001352740A JP2003153268A JP 2003153268 A JP2003153268 A JP 2003153268A JP 2001352740 A JP2001352740 A JP 2001352740A JP 2001352740 A JP2001352740 A JP 2001352740A JP 2003153268 A JP2003153268 A JP 2003153268A
Authority
JP
Japan
Prior art keywords
video
value
code amount
unit
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001352740A
Other languages
Japanese (ja)
Inventor
Toshihiro Tanaka
俊啓 田中
Yasuhiko Yamane
靖彦 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001352740A priority Critical patent/JP2003153268A/en
Publication of JP2003153268A publication Critical patent/JP2003153268A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To solve a problem of a conventional 2-path video encoder that cannot have maximally utilized the possibility of improvement of image quality by twice encoding because the encoding quantity assignment taking into account a difference from a visual property based on color and luminance is not available. SOLUTION: A video encoding amount assignment process 10 includes a process 121 that reads a visual class value by each second video unit calculated on the basis of a luminance value and a color difference value by each third video image in preliminary encoding and a process 122 that assigns a code quantity to the second video unit on the basis of a target code quantity of the first video unit assigned in a step 130 resulting from the target code quantity of the entire sequence and the encoding information of the first video unit and on the basis of encoding information and a visual class value in the second video unit.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、DVDオーサリン
グシステムなどに用いられる、オフラインでコンテンツ
を制作するための2パスビデオエンコーダにおいて、視
覚特性を考慮して画質を向上するための映像符号化方法
および符号量割当て方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video coding method for improving image quality in consideration of visual characteristics in a two-pass video encoder used for DVD authoring system for producing contents offline. The present invention relates to a code amount allocation method.

【0002】[0002]

【従来の技術】DVD−Video規格に基づくオーサ
リングシステムでは、デジタル化した映像を情報圧縮
し、シーンに応じた適切なビットレートで記録すること
で、限られたディスク容量を最大限に利用し、高画質な
コンテンツを制作することを可能にしている。これを可
能にした映像圧縮技術は、ビットストリーム及び復号化
装置を規定したMPEG2規格(ISO/IEC138
18−2)である。
2. Description of the Related Art In an authoring system based on the DVD-Video standard, information of a digitized video is compressed and recorded at an appropriate bit rate according to a scene, so that a limited disk capacity can be utilized to the maximum extent. It enables the production of high quality content. The video compression technology that enables this is the MPEG2 standard (ISO / IEC138) that defines the bit stream and the decoding device.
18-2).

【0003】最初に、MPEG2規格に基づく映像符号
化について簡単に説明する。図14にMPEG2に基づ
いたビデオエンコーダのブロック図を示す。まず入力映
像系列210に対して、フレーム並べ替え回路222に
おいて、フレーム(又はピクチャ)の符号化タイプに応
じて、符号化順にフレームの並べ替えが行われる。符号
化タイプには、フレーム内符号化フレーム(以下、Iピ
クチャと称す)、フレーム間符号化フレーム(以下、P
ピクチャと称す)およびフレーム内挿符号化フレーム
(以下、Bピクチャと称す)の3種類がある。Iピクチ
ャは、当該ピクチャのビットストリームのみを用いて復
号が可能なピクチャである。また、Pピクチャは、当該
ピクチャ以前に復号されたIまたはPピクチャのデータ
と当該ピクチャのデータのみを用いて復号が可能なピク
チャであり、Bピクチャは時間的に前後する2枚のIま
たはPピクチャのデータと当該ピクチャのデータを用い
て復号が可能なピクチャである。どのタイプのピクチャ
においても、ピクチャは輝度成分Y、色差成分Cb、C
rの各成分において16×16画素を標準とする固定サ
イズのマクロブロックに分割され、符号化処理が行われ
る。
First, the video coding based on the MPEG2 standard will be briefly described. FIG. 14 shows a block diagram of a video encoder based on MPEG2. First, with respect to the input video sequence 210, the frame rearrangement circuit 222 rearranges the frames in the encoding order according to the encoding type of the frame (or picture). The coding type includes an intra-frame coded frame (hereinafter, referred to as an I picture) and an inter-frame coded frame (hereinafter, P
There are three types: a picture) and a frame interpolation coded frame (hereinafter referred to as a B picture). An I picture is a picture that can be decoded using only the bitstream of that picture. A P picture is a picture that can be decoded using only the data of an I or P picture that was decoded before this picture and the data of this picture, and a B picture is two I or P pictures that are temporally preceding and following. It is a picture that can be decoded using the picture data and the picture data. In any type of picture, the picture is a luminance component Y, color difference components Cb, C
Each component of r is divided into fixed-size macroblocks having 16 × 16 pixels as a standard, and an encoding process is performed.

【0004】動き推定回路231はフレーム並べ替え回
路222より出力されたフレームの動きベクトルを算出
する。なお、動き推定は、フレーム並べ替え回路222
より前で行っても良い。算出された動きベクトルは、後
に動き補償回路232で利用される。動き補償は差分器
282より出力されたデータをDCT回路241でDC
T変換し、量子化回路251で量子化した後、逆量子化
回路252で逆量子化、逆DCT回路242で逆DCT
変換して得られたデータに対して前回の動き補償分を加
算器281で加算した値に対して行う。動き補償回路2
32は加算器281より出力されたデータと動き推定回
路231より出力された動きベクトルより動き補償した
データを生成し、差分器282に出力する。また、動き
補償したデータは、次に符号化するピクチャに対する前
回の動き補償分として加算器281に出力される。
The motion estimation circuit 231 calculates the motion vector of the frame output from the frame rearrangement circuit 222. The motion estimation is performed by the frame rearrangement circuit 222.
You may go earlier. The calculated motion vector is used later in the motion compensation circuit 232. For the motion compensation, the data output from the differentiator 282 is DC-converted by the DCT circuit 241.
After the T-transform, the quantization circuit 251 quantizes, the inverse quantization circuit 252 performs inverse quantization, and the inverse DCT circuit 242 performs inverse DCT.
The value obtained by adding the previous motion compensation amount by the adder 281 to the data obtained by the conversion is performed. Motion compensation circuit 2
32 generates motion-compensated data from the data output from the adder 281 and the motion vector output from the motion estimation circuit 231 and outputs the data to the difference unit 282. The motion-compensated data is output to the adder 281 as the previous motion-compensated amount for the picture to be encoded next.

【0005】差分器282は動き推定回路231より出
力されたデータと動き補償回路232より出力されたデ
ータの差分を取る。差分器282より出力された映像信
号は、差分器282に入力された映像信号がIピクチャ
の場合は原画像であり、PまたはBピクチャの場合は動
き補償後の差分画像となる。いずれの場合でも、ピクチ
ャは固定サイズのブロックに分割され、DCT回路24
1により、情報量を削減する重要な処理である離散コサ
イン変換(DCT:Discrete Cosine Transform)処理が
行われる。量子化回路251はDCT回路241より出
力された変換係数に量子化制御回路263より与えられ
る量子化幅の値による量子化処理を行う。可変長符号化
回路261は量子化回路263より出力された変換係数
を一次元の系列に変換し、変換した系列を可変長符号化
する。可変長符号化後のデータは、符号化ビットレート
の制限により、量子化幅をマクロブロック毎に適応的に
変更する処理である量子化制御により制御されなければ
ならない。量子化制御は、量子化制御回路263で実行
される。以上のようにして出力されたデータは、復号時
のバッファ状態をシミュレートするためのVBV(Vide
o Buffering Verifier)と呼ばれる仮想的なバッファ2
62を通して、ビデオストリーム290として出力され
る。
The differentiator 282 calculates the difference between the data output from the motion estimation circuit 231 and the data output from the motion compensation circuit 232. The video signal output from the differentiator 282 is an original image when the video signal input to the differentiator 282 is an I picture, and a differential image after motion compensation when the video signal is a P or B picture. In either case, the picture is divided into blocks of fixed size and the DCT circuit 24
1, the Discrete Cosine Transform (DCT) process, which is an important process for reducing the amount of information, is performed. The quantization circuit 251 performs a quantization process on the transform coefficient output from the DCT circuit 241, according to the value of the quantization width given by the quantization control circuit 263. The variable length coding circuit 261 converts the transform coefficient output from the quantization circuit 263 into a one-dimensional sequence, and performs variable length coding on the transformed sequence. The data after variable-length coding must be controlled by quantization control, which is a process of adaptively changing the quantization width for each macroblock due to the limitation of the coding bit rate. The quantization control is executed by the quantization control circuit 263. The data output as described above is VBV (Vide) for simulating the buffer state at the time of decoding.
Virtual buffer 2 called o Buffering Verifier)
Through 62, it is output as a video stream 290.

【0006】次に、ソフトウェアで符号化を行う場合の
処理について簡単に説明する。図16にMPEG2に基
づいた符号化処理のブロック図を示す。まず、フレーム
読込み処理522が行われる。ここではフレームの符号
化順への並べ替えも同時に行われる。次に、Iフレーム
でない場合は、動き推定処理531により動きベクトル
が算出され、フレーム差分処理582により差分画像の
生成が行われる。ブロック分割処理510にて、ピクチ
ャはマクロブロックに分割される。
[0006] Next, a process when encoding is performed by software will be briefly described. FIG. 16 shows a block diagram of encoding processing based on MPEG2. First, the frame reading process 522 is performed. Here, the frames are rearranged in the coding order at the same time. Next, when it is not an I frame, a motion vector is calculated by the motion estimation processing 531 and a difference image is generated by the frame difference processing 582. In block division processing 510, the picture is divided into macroblocks.

【0007】分割された各マクロブロックに対して、D
CT処理541、量子化処理551、可変長符号化処理
561が行われる。可変長符号化後のデータは、バッフ
ァリング及び量子化制御処理562にて、VBVバッフ
ァリングおよび量子化制御が行われる。全てのマクロブ
ロックの符号化が終了すると、次のフレームの予測ため
の再構成画像を生成する再構成処理532が行われる。
全てのフレームの符号化が完了すると、符号化を終了5
90する。
For each divided macroblock, D
CT processing 541, quantization processing 551, and variable length coding processing 561 are performed. The data after variable length coding is subjected to VBV buffering and quantization control in a buffering and quantization control processing 562. When all the macroblocks have been encoded, a reconstruction process 532 is performed to generate a reconstructed image for prediction of the next frame.
When the coding of all frames is completed, the coding ends 5
90.

【0008】一般的に、出力ビデオストリームの平均ビ
ットレートを高くする程、画質を良くすることができ
る。しかしDVDのような蓄積媒体の応用では、ストリ
ームを記録する容量が限られているため、平均ビットレ
ートが制限される。そのため、圧縮の容易なシーンには
少ないビットレートを割り当てて不要なビット量を削減
し、圧縮の難しいシーンには多くのビットレートを割り
当てる手法である、VBR(Variable Bit Rate)の符
号化が有効である。VBR符号化を用いることで、許容
される平均ビットレートの範囲内で、全体として画質を
改善することが可能となる。しかしVBR符号化を有効
に行うためには、符号化するシーンの難易度などの情報
を予め収集して利用することが必須となる。そのため、
リアルタイム性が要求される応用では、許容される遅延
時間を利用して映像の情報を収集し、符号化に利用する
手法が用いられる。また、コンテンツ制作のように、映
像の品質が重視されオフラインの符号化の方が望ましい
とされる分野では、2パスエンコードが用いられる。2
パスエンコードは、最初に予備的な符号化を行って画像
の複雑さなどの特徴量を収集しておき、2回目の本符号
化では、収集した特徴量に基づいて符号化を行う手法で
ある。
Generally, the higher the average bit rate of the output video stream, the better the image quality. However, in an application of a storage medium such as a DVD, the average bit rate is limited because the capacity for recording the stream is limited. Therefore, VBR (Variable Bit Rate) coding, which is a method of allocating a small bit rate to a scene that is easy to compress to reduce an unnecessary bit amount and a large bit rate to a scene that is difficult to compress, is effective. Is. By using VBR encoding, it is possible to improve the image quality as a whole within the range of the average bit rate allowed. However, in order to perform VBR encoding effectively, it is essential to collect and use information such as the difficulty level of the scene to be encoded in advance. for that reason,
For applications requiring real-time processing, a method is used in which video information is collected using an allowable delay time and used for encoding. Two-pass encoding is used in fields such as content production in which video quality is important and offline encoding is more desirable. Two
Path encoding is a method in which preliminary encoding is first performed to collect a feature amount such as image complexity, and in the second main encoding, encoding is performed based on the collected feature amount. .

【0009】2パスビデオエンコーダの一例を、図16
に示す。入力映像信号210は、選択器113に入力さ
れる。第1回目の符号化では選択器213は端子211
が接続されており、映像信号は予備符号化用ビデオエン
コーダ201に入力される。予備符号化用ビデオエンコ
ーダ201では、図14で説明したMPEG2のビデオ
エンコーダ201と同様の符号化が行われる。但し、第
1回目の符号化は、画像の複雑さなどを示す符号化情報
291を取得する目的で行われるため、図14のバッフ
ァ262の制限を考慮しない場合が多い。予備符号化用
ビデオエンコーダ201から出力された符号データもし
くは発生符号量などの符号化情報291は、本符号化に
おける目標符号量を割り当てるための映像符号量割当て
器300に入力される。映像符号量割当て器300は得
られた符号化情報と目標ビットレートなどの符号化条件
から、フレーム、スライス等の単位毎に目標符号量を算
出する。また、目標符号量に加えて量子化幅を計算して
おくことも可能である。以上のようにして計算した結果
を保存するためのディスク350を備えることもある。
An example of a 2-pass video encoder is shown in FIG.
Shown in. The input video signal 210 is input to the selector 113. In the first encoding, the selector 213 has the terminal 211.
Are connected, and the video signal is input to the video encoder 201 for preliminary encoding. The pre-encoding video encoder 201 performs the same encoding as the MPEG2 video encoder 201 described in FIG. However, since the first encoding is performed for the purpose of acquiring the encoding information 291 indicating the complexity of the image, the limitation of the buffer 262 in FIG. 14 is often not considered. The coded data 291 such as the coded data or the generated code amount output from the pre-encoding video encoder 201 is input to the video code amount assigner 300 for assigning the target code amount in the main encoding. The video code amount assigner 300 calculates a target code amount for each unit such as a frame or a slice from the obtained coding information and the coding conditions such as the target bit rate. It is also possible to calculate the quantization width in addition to the target code amount. A disk 350 for storing the result calculated as described above may be provided.

【0010】上記の目標符号量に基づいて、本符号化用
ビデオエンコーダ202にて正式な符号化が実行され
る。この場合、選択器213は端子212に接続されて
おり、予備符号化時と全く同じ映像信号が、本符号化用
ビデオエンコーダ202に入力される。本符号化用ビデ
オエンコーダ202は、予備符号化用ビデオエンコーダ
201と同様の構成を取るが、図14のバッファ262
の容量は有効にする必要がある。本符号化用ビデオエン
コーダ202は、映像符号量割当て器30において計算
された目標符号量に基づいて、正式な符号化を行い、ビ
デオストリーム290を出力する。
Formal encoding is executed by the main encoding video encoder 202 based on the above target code amount. In this case, the selector 213 is connected to the terminal 212, and the video signal exactly the same as in the pre-encoding is input to the main encoding video encoder 202. The main encoding video encoder 202 has the same configuration as the preliminary encoding video encoder 201, but the buffer 262 of FIG.
The capacity of must be enabled. The main encoding video encoder 202 performs formal encoding based on the target code amount calculated by the video code amount assigner 30, and outputs a video stream 290.

【0011】また、ソフトウェアで実現する際の2パス
映像符号化処理を図18に示す。2パス映像符号化処理
400は、まず予備的な符号化処理401を行う。次
に、予備的な符号化処理401により得られる符号化情
報に基づいて、映像符号量割当て処理100を行う。最
後に、映像符号量割当て処理43により得られる符号量
割当て情報に基づいて、正式な符号化処理402が行わ
れ、出力映像ストリームを得て終了490する。
Further, FIG. 18 shows a two-pass video encoding process when it is realized by software. In the 2-pass video encoding process 400, first, a preliminary encoding process 401 is performed. Next, the video code amount allocation process 100 is performed based on the coding information obtained by the preliminary coding process 401. Finally, the formal encoding process 402 is performed based on the code amount allocation information obtained by the video code amount allocation process 43, the output video stream is obtained, and the process ends 490.

【0012】以上のように2パス映像符号化は、予備的
な符号化処理で映像シーケンス全体に対して発生符号量
などの符号化情報を取得し、符号量割当て処理でシーケ
ンス全体の符号量割当てを行い、正式な符号化ではシー
ケンス全体に対して最適化された符号量割当てに基づい
て符号化を行うため、通常のCBR符号化を行う場合や
一定の遅延を許してVBR符号化を行う場合に比べ、高
い画質を得ることが得ることができる。
As described above, in the two-pass video coding, the coding information such as the generated code amount is obtained for the entire video sequence by the preliminary coding process, and the code amount allocation of the entire sequence is performed by the code amount allocation process. In the formal coding, since the coding is performed based on the optimized code amount allocation for the entire sequence, when the normal CBR coding is performed or when the VBR coding is performed with a certain delay allowed. It is possible to obtain a high image quality compared to.

【0013】[0013]

【発明が解決しようとする課題】以上のような2パス映
像符号化を行うものとしては、例えば、特開平11−1
36673号公報や特開平11−262003号公報な
どに記載のものがある。これらに記載の手法では、シー
ンチェンジやフェードといった現象を検出することで画
質改善を試みている。しかし実際の符号化では、以上の
ような現象だけでなく、輝度値及び色差値を単に数値計
算していることに起因して、輝度や色の違いにより画質
の劣化が目立ち易い部分が生じる。2パス映像符号化の
最大のメリットである高い画質を得るという目的に対
し、このような映像の視覚的感度に基づいて符号量割当
てを行う方式はなかった。
An example of the above-described two-pass video encoding is disclosed in Japanese Patent Laid-Open No. 11-1.
There are those described in Japanese Patent No. 36673 and Japanese Patent Laid-Open No. 11-262003. The methods described therein attempt to improve image quality by detecting phenomena such as scene changes and fades. However, in the actual encoding, not only the above-mentioned phenomenon but also the luminance value and the color difference value are simply numerically calculated, so that the deterioration of the image quality is apt to be noticeable due to the difference of the luminance and the color. For the purpose of obtaining high image quality, which is the greatest advantage of 2-pass video coding, there has been no method of allocating code amount based on such visual sensitivity of video.

【0014】また、視覚的感度に基づいて符号化を行う
ものとしては、特開平9−200760号公報に記載の
ものがあるが、1パス符号化であり、現在のフレームの
目標符号量を一つ前のフレームから予測するため、符号
量割当ての精度が十分でなかった。
There is a technique described in Japanese Unexamined Patent Publication No. 9-200760 that performs encoding based on visual sensitivity, but it is one-pass encoding, and the target code amount of the current frame is Since the prediction is performed from the immediately preceding frame, the accuracy of code amount allocation was not sufficient.

【0015】本発明は上記従来の問題点を解決するもの
で、映像の符号化情報を取得するための予備的な符号化
を行う機能を有する映像符号化方法において、予備的な
符号化により得られた発生符号量などの符号化情報に加
えて画素の輝度値及び色差値から得られる視覚的な感度
に基づいて符号量割当てを行うことにより、正式な符号
化時に視覚的感度に基づいた高い画質を得ることを目的
とする。
The present invention solves the above-mentioned conventional problems, and in a video encoding method having a function of performing a preliminary encoding for obtaining encoded information of a video, it is obtained by the preliminary encoding. By assigning the code amount based on the visual sensitivity obtained from the luminance value and color difference value of the pixel in addition to the encoded information such as the generated code amount, it is possible to increase the visual sensitivity based on the visual sensitivity at the time of formal encoding. The purpose is to obtain image quality.

【0016】[0016]

【課題を解決するための手段】上記目的を達成するため
に、本発明の映像符号化方法は、映像の符号化情報を取
得するための予備的な符号化において、画素の輝度値及
び色差値に基づいて第2の映像単位毎に視覚クラス値を
割り当てて、符号量割当て時には予備的な符号化により
得られた発生符号量などの符号化情報および視覚クラス
値に基づいて符号量割当てを行う。
In order to achieve the above object, a video coding method of the present invention uses a luminance value and a color difference value of a pixel in a preliminary coding for obtaining video coding information. The visual class value is allocated for each second video unit based on the above, and when the code amount is allocated, the code amount is allocated based on the coding information such as the generated code amount obtained by the preliminary coding and the visual class value. .

【0017】[0017]

【発明の実施の形態】本発明の第1の発明は、映像の符
号化情報を取得するための予備的な符号化ステップと、
前記符号化情報に基づいて正式な符号化のための符号量
割当てを行うための映像符号量割当てステップと、前記
符号量割当てステップにて割当てられた目標符号量に基
づいて正式な符号化を行う正式な符号化ステップを有す
る映像符号化方法であって、前記予備的な符号化ステッ
プは、第3の映像単位毎の輝度値と色差値に基づいて第
2の映像単位毎の視覚クラス値を算出する視覚クラス値
算出ステップを有し、前記符号量割当てステップは、前
記予備的な符号化ステップにて得られた第2の映像単位
の符号化情報と前記第2の映像単位毎の視覚クラス値に
基づいて、第2の映像単位に目標符号量を割り当てる第
2の目標符号量割当てステップを有することを特徴とす
る、映像符号化方法であり、予備的な符号化時に、第3
の映像単位(例えば画素など)毎の輝度値と色差値を用
いて第2の映像単位(例えばマクロブロックなど)毎に
視覚クラス値を算出しておき、符号量割当て時に、算出
した第1の映像単位(例えばフレームなど)の目標符号
量から第2の映像単位の目標符号量を割り当てる際、視
覚クラス値に基づく重み付けを行うことで、第1の映像
単位の内部(フレーム内)における色差値と輝度値の違
いによる視覚的感度の違いを吸収し、正式な符号化時に
より良好な符号化画質を与えることができる。
BEST MODE FOR CARRYING OUT THE INVENTION The first invention of the present invention comprises a preliminary coding step for obtaining coding information of video,
Video code amount allocation step for performing code amount allocation for formal encoding based on the encoding information, and formal encoding based on the target code amount assigned in the code amount allocation step A video encoding method having a formal encoding step, wherein the preliminary encoding step determines a visual class value for each second video unit based on a luminance value and a color difference value for each third video unit. A visual class value calculating step of calculating, wherein the code amount allocating step includes the coding information of the second video unit obtained in the preliminary coding step and the visual class of each second video unit. A video encoding method comprising a second target code amount allocation step of allocating a target code amount to a second video unit based on a value, wherein the video encoding method comprises:
The visual class value is calculated for each second video unit (for example, macroblock) using the luminance value and the color difference value for each video unit (for example, pixel), and the calculated visual class value is calculated when the code amount is allocated. When assigning the target code amount of the second video unit from the target code amount of the video unit (for example, a frame), weighting is performed based on the visual class value, so that the color difference value in the first video unit (inside the frame) It is possible to absorb the difference in the visual sensitivity due to the difference in the luminance value and to provide a better encoded image quality in the formal encoding.

【0018】本発明の第2の発明は、第1の発明におい
て、前記符号量割当てステップは、前記算出された第2
の映像単位毎の視覚クラス値を集計し第1の映像単位に
視覚クラス代表値を割り当てる視覚クラス代表値算出ス
テップと、前記予備的な符号化ステップにて得られた第
1の映像単位の符号化情報と前記第1の映像単位毎の視
覚クラス値に基づいて、第1の映像単位に目標符号量を
割り当てる第1の目標符号量割当てステップを有するこ
とを特徴とする、映像符号化方法であり、総符号量から
第1の映像単位に目標符号量を割り当てる際、視覚クラ
ス値に基づく重み付けを行うことで、第1の映像単位間
(フレーム間)における色差値と輝度値の違いによる視
覚的感度の違いを目標符号量に反映し、正式な符号化時
により良好な符号化画質を与えることができる。
In a second aspect of the present invention based on the first aspect, the code amount allocating step is performed in the calculated second number.
A visual class representative value calculating step of aggregating visual class values for each video unit and assigning a visual class representative value to the first video unit; and a code of the first video unit obtained in the preliminary encoding step. A video encoding method, comprising: a first target code amount allocating step for allocating a target code amount to the first video unit based on the encoding information and the visual class value for each of the first video units. Yes, when assigning the target code amount to the first video unit from the total code amount, by weighting based on the visual class value, the visual difference due to the difference in the color difference value and the luminance value between the first video units (between frames) is performed. It is possible to reflect the difference in the target sensitivity on the target code amount and to provide a better coded image quality at the time of formal coding.

【0019】本発明の第3の発明は、1回のみ符号化を
行う映像符号化方法において、ある有限長N(N>1)
個の第1の映像単位のデータを先読みして蓄積する先読
み処理ステップと、前記N個の第1の映像単位群に対し
て、第3の映像単位毎の輝度値と色差値に基づいて第2
の映像単位毎の視覚クラス値を算出する視覚クラス値割
当てステップと、前記算出された視覚クラス値を集計し
N個の第1の映像単位に視覚クラス代表値を割り当てる
視覚クラス代表値算出処理ステップと、N個の第1の映
像単位に対して符号化の複雑度を推定する複雑度推定処
理ステップと、少なくとも前記複雑度と前記視覚クラス
代表値とに基づいて、第1の映像単位に目標符号量を割
り当てる第1の目標符号量割当て処理ステップと、少な
くとも前記第1の映像単位の目標符号量と前記第2の映
像単位毎の視覚クラス値に基づいて、第2の映像単位に
目標符号量を割り当てて量子化制御を行う量子化制御処
理ステップを有することを特徴とする、映像符号化方法
であり、第1の映像単位(例えばフレーム)に対して有
限長N個の遅延を許して先読みを行うことで、第3の映
像単位毎の輝度値と色差値を用いて第2の映像単位毎に
視覚クラス値を算出しておき、N個の第1の映像単位に
ついて視覚クラス代表値を割り当てて、第1の映像単位
の目標符号量および第2の映像単位の目標符号量を割り
当てる際、視覚クラス値に基づく重み付けを行うこと
で、第1の映像単位間(フレーム間)及び第1の映像単
位の内部(フレーム内)における色差値と輝度値の違い
による視覚的感度の違いを吸収し、より良好な符号化画
質を与えることができる。
A third aspect of the present invention is a video encoding method which performs encoding only once, and has a certain finite length N (N> 1).
Pre-reading processing step of pre-reading and accumulating the data of the first video units, and for the N first video unit groups, based on the luminance value and the color difference value for each third video unit. Two
A visual class value assigning step of calculating a visual class value for each video unit, and a visual class representative value calculating processing step of totaling the calculated visual class values and assigning a visual class representative value to N first video units And a complexity estimation processing step of estimating encoding complexity for N first video units, and a target for the first video unit based on at least the complexity and the visual class representative value. A first target code amount allocation processing step of allocating a code amount, and a target code for a second video unit based on at least a target code amount of the first video unit and a visual class value for each of the second video units. A video encoding method, characterized by comprising a quantization control processing step for allocating an amount and performing a quantization control, wherein N finite length delays are applied to a first video unit (for example, a frame). Then, by performing pre-reading, the visual class value is calculated for each second video unit using the luminance value and the color difference value for each third video unit, and the visual class values for the N first video units are calculated. When assigning the representative value and assigning the target code amount of the first video unit and the target code amount of the second video unit, weighting is performed based on the visual class value, so that the first video unit (interframe) Also, it is possible to absorb a difference in visual sensitivity due to a difference between a color difference value and a luminance value inside the first video unit (within a frame), and to provide a better encoded image quality.

【0020】本発明の第4の発明は、映像の符号化情報
を取得するための予備符号化用ビデオエンコーダと、前
記符号化情報に基づいて正式な符号化のための符号量割
当てを行うための映像符号量割当て器と、前記符号量割
当て器にて割当てられた目標符号量に基づいて正式な符
号化を行う本符号化用エンコーダを有する映像符号化方
法であって、前記予備符号化用エンコーダは、第3の映
像単位毎の輝度値と色差値に基づいて第2の映像単位毎
の視覚クラス値を算出する視覚クラス値割当て回路を有
し、前記符号量割当て器は、前記算出された第2の映像
単位毎の視覚クラス値を集計し第1の映像単位に視覚ク
ラス代表値を割り当てる視覚クラス値集計器と、前記予
備符号化用エンコーダにて得られた第1の映像単位の符
号化情報と前記視覚クラス代表値に基づいて、第1の映
像単位に目標符号量を割り当てる第1の目標符号量割当
て器と、前記予備符号化用エンコーダから出力された第
2の映像単位の符号化情報と前記第2の映像単位毎の視
覚クラス値に基づいて、第2の映像単位に目標符号量を
割り当てる第2の目標符号量割当て器とを有することを
特徴とする、映像符号化方法であり、総符号量から第1
の映像単位に目標符号量を割り当てる際、視覚クラス値
に基づく重み付けを行うことで、第1の映像単位間(フ
レーム間)における色差値と輝度値の違いによる視覚的
感度の違いを目標符号量に反映し、正式な符号化時によ
り良好な符号化画質を与える映像符号化装置を提供でき
る。
According to a fourth aspect of the present invention, a pre-encoding video encoder for acquiring video encoding information and a code amount allocation for formal encoding based on the encoding information. And a video coding amount allocator for performing formal coding based on the target code amount allocated by the code amount allocator, The encoder has a visual class value assigning circuit that calculates a visual class value for each second video unit based on a luminance value and a color difference value for each third video unit, and the code amount assigner performs the calculation. And a visual class value aggregator for totaling visual class values for each second video unit and assigning a visual class representative value to the first video unit, and a first visual unit for the first video unit obtained by the precoding encoder. Coded information and the above A first target code amount assigner that assigns a target code amount to a first video unit based on a class representative value, coding information of a second video unit output from the preliminary coding encoder, and the first video code unit. And a second target code amount assigner that assigns a target code amount to a second video unit based on a visual class value for each of the two video units. Quantity to first
When assigning the target code amount to each video unit, the weighting is performed based on the visual class value so that the difference in the visual sensitivity due to the difference in the color difference value and the luminance value between the first video units (between frames) causes the target code amount. Therefore, it is possible to provide a video encoding device that gives better encoded image quality during formal encoding.

【0021】以下、本発明の実施の形態について、図面
を参照しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0022】(実施の形態1)本実施の形態では、予備
的な符号化処理において、第3の映像単位(例えば画素
など)毎の輝度値と色差値に基づいて第2の映像単位
(例えばマクロブロックなど)毎の視覚クラス値を算出
し、符号量割当て処理において、第2の映像単位の符号
化情報と前記第2の映像単位毎の視覚クラス値に基づい
て、第2の映像単位に目標符号量を割り当てることを特
徴とする、映像符号化方法について説明する。
(Embodiment 1) In this embodiment, in a preliminary encoding process, a second video unit (eg, pixel) is generated based on a luminance value and a color difference value for each third video unit (eg, pixel). A visual class value for each macro block, etc. is calculated, and in the code amount allocation processing, the second visual unit is set on the basis of the coding information of the second visual unit and the visual class value for each second visual unit. A video encoding method characterized by allocating a target code amount will be described.

【0023】実施の形態1における映像符号化方法は、
図18に示した2パス映像符号化処理において、予備的
な符号化処理401として図2に示すフローチャート
を、映像符号量割当て処理100として図1に示すフロ
ーチャートを用いるものである。
The video encoding method according to the first embodiment is
In the 2-pass video encoding process shown in FIG. 18, the flowchart shown in FIG. 2 is used as the preliminary encoding process 401, and the flowchart shown in FIG. 1 is used as the video code amount allocation process 100.

【0024】図2において、522はフレーム読込み処
理ステップ、110は視覚クラス値割当て処理ステッ
プ、583は当該フレームがIフレームか否か判断する
ための選択ステップ、531はIフレームでない場合に
実行される動き推定処理ステップ、582は再構成画像
との差分を求めるフレーム差分処理ステップ、510は
ブロック分割処理ステップ、541はDCT処理ステッ
プ、551は量子化処理ステップ、561は可変長符号
化処理ステップ、571はマクロブロックの発生符号量
を測定するための符号量測定処理ステップ、584はフ
レームの符号化の終了を判定する選択ステップ、532
は次の予測フレームのための再構成画像を構成する再構
成処理ステップ、585は全てのフレームの符号化の終
了を判定する選択ステップ、590は終了である。
In FIG. 2, reference numeral 522 is a frame reading processing step, 110 is a visual class value allocation processing step, 583 is a selection step for judging whether or not the frame is an I frame, and 531 is executed when it is not an I frame. Motion estimation processing step, 582 is a frame difference processing step for obtaining a difference from the reconstructed image, 510 is a block division processing step, 541 is a DCT processing step, 551 is a quantization processing step, 561 is a variable length coding processing step, 571. Is a code amount measurement processing step for measuring the generated code amount of a macroblock, 584 is a selection step for determining the end of frame encoding, 532.
Is a reconstruction processing step for forming a reconstructed image for the next prediction frame, 585 is a selection step for judging the end of encoding of all frames, and 590 is an end.

【0025】以上のように構成された予備的符号化処理
について、以下その動作について説明する。
The operation of the preliminary encoding process configured as above will be described below.

【0026】まずフレーム読込み処理522にて読込ま
れた入力フレームに対して、視覚クラス値割当て処理1
10が実行される。視覚クラス値割当て処理は、視覚的
に感度の高いマクロブロックには高いクラス値を、逆に
感度の低いマクロブロックには低いクラス値を割り当て
る処理である。
First, for the input frame read in the frame reading process 522, the visual class value assignment process 1
10 is executed. The visual class value assigning process is a process of assigning a high class value to a macroblock having high visual sensitivity and, conversely, assigning a low class value to a macroblock having low sensitivity.

【0027】視覚クラス割当て処理110の動作を図3
を用いて説明する。図3は視覚クラス割当て処理の流れ
を示すフローチャートである。
The operation of the visual class assignment process 110 is shown in FIG.
Will be explained. FIG. 3 is a flowchart showing the flow of visual class assignment processing.

【0028】図3において、1110はマクロブロック
番号B(Bは0以上の整数)の初期化ステップ、112
0は画素番号P(Pは0以上の整数)および合計値S
(Sは0以上の整数)の初期化ステップである。113
1は画素の色差値および輝度値を色空間上に変換する処
理ステップ、1132は色空間上の色の感度を算出する
処理ステップ、114は画素の輝度値から輝度の感度を
算出する処理ステップ、115は色の感度と輝度の感度
を合計値Sに加える処理ステップ、1121は画素番号
Pの加算ステップ、1111はマクロブロック番号Bの
加算ステップ、1122はマクロブロック内の全ての画
素について処理が終了したかどうか判断する処理ステッ
プ、116は現在のマクロブロックの視覚クラス値を算
出する処理ステップ、1112はフレーム内の全てのマ
クロブロックについて処理が終了したかどうか判断する
処理ステップ、117はフレーム内の視覚クラス値を出
力する処理である。
In FIG. 3, 1110 is an initialization step of a macroblock number B (B is an integer of 0 or more), 112
0 is the pixel number P (P is an integer of 0 or more) and the total value S
(S is an integer of 0 or more) is an initialization step. 113
1 is a processing step of converting the color difference value and luminance value of a pixel into a color space, 1132 is a processing step of calculating color sensitivity in the color space, 114 is a processing step of calculating luminance sensitivity from a pixel luminance value, 115 is a processing step of adding color sensitivity and luminance sensitivity to the total value S, 1121 is an adding step of the pixel number P, 1111 is an adding step of the macroblock number B, 1122 is processing for all pixels in the macroblock. 116 is a processing step for calculating the visual class value of the current macroblock, 1112 is a processing step for determining whether or not the processing has been completed for all macroblocks in the frame, 117 is a processing step for determining in the frame This is a process of outputting a visual class value.

【0029】まず、マクロブロック番号Bの初期化ステ
ップ1110および画素番号Pおよび合計値Sの初期化
ステップ1120が実行され、マクロブロックB=0お
よび画素P=0に対して処理が行われる。最初に、画素
の色差値および輝度値を色空間上に変換する処理ステッ
プ1131において、画素の色差値Cb(B,P)とC
r(B,P)と輝度値Y(B,P)を色空間にマッピン
グする。
First, the initialization step 1110 for the macro block number B and the initialization step 1120 for the pixel number P and the total value S are executed, and the processing is performed for the macro block B = 0 and the pixel P = 0. First, in the processing step 1131 for converting the color difference value and the luminance value of the pixel into the color space, the color difference values Cb (B, P) and C of the pixel are
The r (B, P) and the luminance value Y (B, P) are mapped in the color space.

【0030】ここで色空間としては、色空間上での距離
が視覚的な色の差を表わすことを目標として作成され
る、均等色空間(Uniform Color Space)を用いる。均
等色空間としては、CIEの勧告したCIE1976L
*u*vおよびCIE1976L*a*b*の2つがあ
り、その他にマンセル表色系などが考えられる。ここで
は、代表例として、CIE1976L*u*vへの変換
について簡単に説明しておく。
Here, as the color space, a uniform color space (Uniform Color Space), which is created with the goal that the distance in the color space represents a visual color difference, is used. As a uniform color space, CIE1976L recommended by CIE
There are two types, * u * v and CIE1976L * a * b *, and the Munsell color system is also considered. Here, as a typical example, conversion to CIE1976L * u * v will be briefly described.

【0031】まず、最初にY,Cb,Crを基本的な色
空間であるRGB空間の点へと変換する。次にRGB空
間をCIE1931XYZ空間へと変換する。ここで、
u’およびv’を、(数1)で定義する。
First, Y, Cb, and Cr are first converted into points in the RGB space, which is a basic color space. Next, the RGB space is converted into the CIE1931XYZ space. here,
u ′ and v ′ are defined by (Equation 1).

【0032】[0032]

【数1】 [Equation 1]

【0033】ここで、基準白色面の輝度値YをY↓0、
u’をu↓0、v’をv↓0とすると、L*、u*、v
*は(数2)にて定まる。
Here, the brightness value Y of the reference white surface is set to Y ↓ 0,
If u'is u ↓ 0 and v'is v ↓ 0, L *, u *, v
* Is determined by (Equation 2).

【0034】[0034]

【数2】 [Equation 2]

【0035】L*u*v*空間は均等色空間であるか
ら、視覚的な色の差は(数3)の距離の式で与えられ
る。
Since the L * u * v * space is a uniform color space, the visual color difference is given by the distance equation of (Equation 3).

【0036】[0036]

【数3】 [Equation 3]

【0037】以上のようにして、画素の色差値と輝度値
をL*u*v*空間にマッピングできる。
As described above, the color difference value and the luminance value of the pixel can be mapped in the L * u * v * space.

【0038】次に、色空間上の色の感度を算出する処理
ステップ1132を行う。本実施の形態では、先に説明
したL*u*v*空間に対して、色の感度(chrominous
efficiency )を定義する。微小変化dY、dCr、d
Cbに対してL*、u*、v*に生じる変分をそれぞれ
dL*、du*、dv*と定義すれば、色の感度E↓C
は(数4)で定義できる。
Next, a processing step 1132 for calculating the color sensitivity in the color space is performed. In the present embodiment, color sensitivity (chrominous) is applied to the L * u * v * space described above.
efficiency) is defined. Small changes dY, dCr, d
If the variations occurring in L *, u *, and v * with respect to Cb are defined as dL *, du *, and dv *, respectively, the color sensitivity E ↓ C
Can be defined by (Equation 4).

【0039】[0039]

【数4】 [Equation 4]

【0040】以上では、色空間上に変換する処理ステッ
プ1131および色の感度を算出する処理ステップ11
32は一回ずつ順に行うことにしているが、いくつかの
微少変化dY、dCr、dCbに対して繰り返し感度E
↓Cを算出してそれらの平均値や代表値を用いることが
可能なことは言うまでもない。また、色空間としてCI
E1976L*u*v*空間を例に取り説明したが、色
空間はこの空間や先に述べた空間に限定されるものでは
なく、例えば画像の動きや注目点に基づく空間を定義し
たり、マクロブロック内のアクティビティの大きさに基
づいて色空間を選択したりするといった、視覚的な感度
を定義するものであれば様々な方式が適用可能である。
In the above, processing step 1131 for converting into the color space and processing step 11 for calculating the color sensitivity.
32 is to be carried out once in order, but the repetitive sensitivity E for some slight changes dY, dCr, dCb.
Needless to say, it is possible to calculate ↓ C and use the average value or the representative value thereof. In addition, CI is used as a color space.
Although the E1976L * u * v * space has been described as an example, the color space is not limited to this space or the space described above. For example, a space based on the movement of an image or a point of interest is defined, or a macro is defined. Various methods can be applied as long as they define visual sensitivity, such as selecting a color space based on the size of activity in a block.

【0041】輝度値から輝度の感度を算出する処理ステ
ップ114では、画素の輝度値Y(B,P)から輝度の
感度(luminous efficiency )を算出する。輝度の感度
を表わすモデルとしては、1963年にBlackwell より
発表された増分閾曲線がある。この曲線において、画像
で用いられる物体色の輝度の範囲を考慮すると、(数
5)のウェーバー比で表わされる領域が輝度の感度のモ
デルとして定義できる。
In the processing step 114 for calculating the luminance sensitivity from the luminance value, the luminance efficiency (luminous efficiency) is calculated from the luminance value Y (B, P) of the pixel. As a model showing the sensitivity of brightness, there is an incremental threshold curve published by Blackwell in 1963. Considering the range of the brightness of the object color used in the image on this curve, the region represented by the Weber ratio of (Equation 5) can be defined as a model of the sensitivity of brightness.

【0042】[0042]

【数5】 [Equation 5]

【0043】ここでLは輝度値、ΔLは輝度弁別の閾値
である。ωは実験的な値であり、通常0.01〜0.0
2程度である。このモデルを用いて、輝度の感度E↓L
は、輝度の微小変化をdLとすると、(数6)で定義で
きる。
Here, L is a brightness value, and ΔL is a brightness discrimination threshold value. ω is an experimental value, usually 0.01 to 0.0
It is about 2. Using this model, the brightness sensitivity E ↓ L
Can be defined by (Equation 6), where dL is a minute change in luminance.

【0044】[0044]

【数6】 [Equation 6]

【0045】以上のようにして画素に対する視感度を算
出した後、色の感度と輝度の感度を合計値Sに加える処
理ステップ115を行う。このステップでは、色の感度
E↓Cと輝度の感度E↓Lを感度の合計値Sに反映す
る。この処理は様々な方法が考えられるが、最も簡明な
方法は、E↓CおよびE↓Lを上限値と下限値により閾
値処理Th↓C(X)またはTh↓L(X)した後、正
規化処理Nrm(X)した値をそれぞれSに加算するこ
とである。一般化すると色差の重みw(0<w<1)お
よび輝度の重み1−wを用いて、Sの増分ΔSは(数
7)にて定義できる。
After the luminosity for the pixel is calculated as described above, a processing step 115 for adding the color sensitivity and the luminance sensitivity to the total value S is performed. In this step, the color sensitivity E ↓ C and the luminance sensitivity E ↓ L are reflected in the total sensitivity value S. Although various methods are conceivable for this processing, the simplest method is to perform threshold processing Th ↓ C (X) or Th ↓ L (X) on E ↓ C and E ↓ L according to the upper limit value and the lower limit value, and then perform normalization. This is to add the respective values of the conversion processing Nrm (X) to S. When generalized, using the color difference weight w (0 <w <1) and the luminance weight 1-w, the increment ΔS of S can be defined by (Equation 7).

【0046】[0046]

【数7】 [Equation 7]

【0047】輝度と色差は直交しているので、色差の重
みp(0<p<∞)及び輝度の重み1/pを用いて、
(数8)のように積として与えることも可能である。
Since the luminance and the color difference are orthogonal to each other, using the color difference weight p (0 <p <∞) and the luminance weight 1 / p,
It is also possible to give it as a product as in (Equation 8).

【0048】[0048]

【数8】 [Equation 8]

【0049】以上のステップをマクロブロックB内の全
ての画素に対して繰り返し、マクロブロックの感度Sが
計算できる。また、この感度を計算する処理を、画像の
特徴に応じて行うことも可能である。その例として、マ
クロブロック内の輝度値や色差値の平均値を求め、その
平均値から離れた値を持つ画素に対しては感度計算を行
わないという手法や、マクロブロックの特徴を表わして
いる代表画素をいくつか算出して、その代表画素に対し
てのみ感度計算を行う手法などが考えられる。
By repeating the above steps for all the pixels in the macroblock B, the sensitivity S of the macroblock can be calculated. It is also possible to perform the process of calculating the sensitivity according to the characteristics of the image. As an example, it represents the method of obtaining the average value of the luminance value and the color difference value in the macroblock, and not performing the sensitivity calculation for the pixels having values apart from the average value, and the characteristics of the macroblock. A method in which some representative pixels are calculated and the sensitivity is calculated only for the representative pixels can be considered.

【0050】計算された感度Sを、視覚クラス値を算出
する処理ステップ116において視覚クラス値Cv
(B)にマッピングする。マッピングする関数は様々な
ものが考えられるが、単純には感度Sを量子化Qc
(X)して(数9)のように与えることができる。
The calculated sensitivity S is converted into the visual class value Cv in the processing step 116 for calculating the visual class value.
Map to (B). There are various possible mapping functions, but the sensitivity S is simply quantized Qc.
It can be given by (X) and (Equation 9).

【0051】[0051]

【数9】 [Equation 9]

【0052】量子化の代表レベル数は、マクロブロック
単位に情報を取得することも考慮すると8または16程
度が適当である。
The number of representative levels of quantization is appropriately about 8 or 16 in consideration of acquiring information in macroblock units.

【0053】以上の処理を繰り返してフレーム内の全て
のマクロブロックに対して視覚クラス値を算出すると、
フレーム内の視覚クラス値を出力する処理ステップ11
7を実行して終了119する。
When the visual class values are calculated for all macroblocks in the frame by repeating the above processing,
Processing step 11 for outputting the visual class value in the frame
7 is executed and the processing ends 119.

【0054】以上のようにして図2の視覚クラス値割当
て処理110が終了すると、予備的な符号化は図16を
用いて説明した通常の符号化と同様に行われる。予備的
な符号化では、通常図16で示したバッファリング及び
量子化制御処理562は行わない。代わりにマクロブロ
ック符号化情報出力処理571が行われる。マクロブロ
ック符号化情報の一例を図10に示す。マクロブロック
符号化情報は、少なくとも発生符号量と量子化幅の組を
含む情報であり、その他にマクロブロックタイプといっ
た付加情報を含んでいても良い。
When the visual class value assignment processing 110 of FIG. 2 is completed as described above, preliminary coding is performed in the same manner as the normal coding described with reference to FIG. In the preliminary encoding, the buffering and quantization control processing 562 shown in FIG. 16 is not normally performed. Instead, the macroblock encoded information output process 571 is performed. FIG. 10 shows an example of macroblock coding information. The macroblock coding information is information including at least a combination of a generated code amount and a quantization width, and may additionally include additional information such as a macroblock type.

【0055】フレームの符号化が終了すると、フレーム
符号化情報出力処理572が行われる。フレーム符号化
情報の一例を図11に示す。フレーム符号化情報は、少
なくとも発生符号量及びピクチャ符号化タイプを含む。
また、映像の輝度、動き、アクティビティ等の特徴情報
を含んでいても良く、それらを符号量割当てのパラメー
タとすることも可能である。全てのフレームの符号化が
終了すると、予備的な符号化処理401を終了する。
When the frame coding is completed, a frame coded information output process 572 is performed. FIG. 11 shows an example of the frame coding information. The frame coding information includes at least the generated code amount and the picture coding type.
Further, characteristic information such as video brightness, movement, and activity may be included, and these can be used as parameters for code amount allocation. When the coding of all the frames is completed, the preliminary coding process 401 is completed.

【0056】次に、映像符号量割当て処理100の動作
を図1を用いて説明する。図1は映像符号量割当て処理
の流れを示すフローチャートである。
Next, the operation of the video code amount allocation processing 100 will be described with reference to FIG. FIG. 1 is a flowchart showing the flow of a video code amount allocation process.

【0057】図1において、130はフレーム符号化情
報に基づきフレーム単位に目標符号量を割り当てる処理
ステップ、180はフレーム番号K(Kは自然数)の初
期化ステップ、121は予備的な符号化において画素毎
の輝度値と色差値に基づいて算出されたマクロブロック
毎の視覚クラス値を読込む処理ステップ、122はK番
目のフレームにおいて第2の映像単位の符号化情報と視
覚クラス値に基づきマクロブロックに符号量を割り当て
る処理ステップ、181はKの増分ステップ、182は
全てのフレームの割当て処理が終了したかどうかを判定
するステップ、142はフレーム及びマクロブロック単
位の目標符号量情報を出力する処理ステップである。
In FIG. 1, reference numeral 130 is a processing step for allocating a target code amount in frame units based on frame coding information, 180 is an initialization step of a frame number K (K is a natural number), 121 is a pixel in preliminary coding. A processing step of reading a visual class value for each macroblock calculated based on a luminance value and a color difference value for each macroblock; 122 is a macroblock based on the coding information and the visual class value of the second video unit in the Kth frame; , 181 is a step of incrementing K, 182 is a step of determining whether or not the allocation processing of all frames is completed, 142 is a processing step of outputting target code amount information in units of frames and macroblocks. Is.

【0058】以上のように構成された映像符号量割当て
処理について、以下その動作について説明する。
The operation of the video code amount allocation processing configured as described above will be described below.

【0059】まずフレーム符号化情報に基づきフレーム
単位に目標符号量を割り当てる処理ステップ130が実
行される。このステップでは、シーケンス全体の目標ビ
ットレートと予備的な符号化により得られた発生符号量
などの情報を含むフレーム符号化情報に基づいて、正式
な符号化時に与えるフレーム単位の目標符号量を計算す
る。
First, a processing step 130 of allocating a target code amount on a frame-by-frame basis based on the frame coding information is executed. In this step, the target code amount for each frame given at the formal encoding is calculated based on the frame encoding information including the target bit rate of the entire sequence and the generated code amount obtained by the preliminary encoding. To do.

【0060】次に、フレーム単位の目標符号量からマク
ロブロック単位の目標符号量を算出する一連のステップ
を行う。最初に予備的な符号化において画素毎の輝度値
と色差値に基づいて算出されたマクロブロック毎の視覚
クラス値を読込む処理ステップ121を行い、K番目の
フレームに対する視覚クラス値Cv(B)を全て読込
む。次に、K番目のフレームにおいて第2の映像単位の
符号化情報と視覚クラス値に基づきマクロブロックに符
号量を割り当てる処理ステップ122を実行する。この
ステップでは、マクロブロックの発生符号量と量子化幅
の情報とその他の付加情報を基にして算出され複雑度の
値を、視覚クラス値に応じて変調する。変調された複雑
度の値に基づき、フレームの目標符号量を各マクロブロ
ックに配分する。
Next, a series of steps for calculating the target code amount in macroblock units from the target code amount in frame units is performed. First, a processing step 121 of reading the visual class value for each macroblock calculated based on the luminance value and the color difference value for each pixel in the preliminary encoding is performed, and the visual class value Cv (B) for the Kth frame is performed. Read all. Next, in the Kth frame, the processing step 122 of allocating the code amount to the macroblock based on the coding information of the second video unit and the visual class value is executed. In this step, the complexity value calculated on the basis of the information of the generated code amount of the macroblock, the quantization width, and other additional information is modulated according to the visual class value. The target code amount of the frame is allocated to each macroblock based on the modulated complexity value.

【0061】このK番目のフレームにおけるマクロブロ
ック目標符号量の割当て処理を図12の例を用いて説明
する。予備的な符号化により得られたB番目のマクロブ
ロックの発生符号量D(B)(正確にはD(K,B)で
あるが以下同様の記述においてKは省略する)と量子化
幅Q(B)から、各マクロブロックの符号化の複雑度X
(B)を求める。例えば、(数10)により定義でき
る。
The process of allocating the macroblock target code amount in the Kth frame will be described with reference to the example of FIG. The generated code amount D (B) of the B-th macroblock obtained by preliminary encoding (correctly D (K, B), but K is omitted in the following description) and the quantization width Q. From (B), the encoding complexity X of each macroblock
Find (B). For example, it can be defined by (Equation 10).

【0062】[0062]

【数10】 [Equation 10]

【0063】この複雑度X(B)をCv(B)で重み付
けて、視覚的な複雑度Xv(B)を算出する。例えば
a,bを正の定数として、(数11)のような一般式で
定義できる。
The complexity X (B) is weighted by Cv (B) to calculate the visual complexity Xv (B). For example, with a and b as positive constants, they can be defined by a general expression such as (Equation 11).

【0064】[0064]

【数11】 [Equation 11]

【0065】この複雑度Xv(B)を全てのマクロブロ
ックに対して合計した結果のXv_KとK番目のフレー
ムの目標符号量T(K)を用いて、(数12)により各
マクロブロックに目標符号量T(B)を割り当てる。
Using Xv_K, which is the result of summing up the complexity Xv (B) for all macroblocks, and the target code amount T (K) of the Kth frame, the target for each macroblock is calculated by (Equation 12). A code amount T (B) is assigned.

【0066】[0066]

【数12】 [Equation 12]

【0067】このようにして図12の割当て結果が得ら
れる。視覚クラス値Cv(B)によりマクロブロック目
標符号量に重み付けされているのが確認できる。以上の
処理では、マクロブロックの複雑度X(B)及び視覚ク
ラス値Cv(B)のみに基づいて目標符号量を求めた
が、マクロブロックにおける固定符号量などの最低保証
ビット数やマクロブロックタイプ、ブロックのアクティ
ビティなどの付加情報を用いることができる。
In this way, the allocation result of FIG. 12 is obtained. It can be confirmed that the macroblock target code amount is weighted by the visual class value Cv (B). In the above process, the target code amount is obtained only based on the complexity X (B) of the macroblock and the visual class value Cv (B). However, the minimum guaranteed bit number such as the fixed code amount in the macroblock and the macroblock type are obtained. , Additional information such as block activity can be used.

【0068】全てのフレームに対してマクロブロックへ
の目標符号量を割当てる処理が終了すると、フレーム及
びマクロブロック単位の目標符号量情報を出力する処理
ステップ142を実行して終了190する。
When the process of allocating the target code amount to the macroblocks for all the frames is completed, the process step 142 of outputting the target code amount information in units of frames and macroblocks is executed and the process ends 190.

【0069】最後に正式な符号化処理402について図
4を用いて説明する。正式な符号化処理は、先の映像符
号量割当て処理100にて割り当てられた目標符号量に
従って最終的なストリームを生成することを目的とす
る。
Finally, the formal encoding process 402 will be described with reference to FIG. The formal encoding process aims to generate a final stream in accordance with the target code amount assigned in the previous video code amount assignment process 100.

【0070】まず、フレーム読込み処理522が行われ
た後、目標符号量読込み処理573が行われる。読込む
目標符号量は、フレーム目標符号量およびマクロブロッ
ク目標符号量である。マクロブロック目標符号量は、バ
ッファリング及び量子化制御処理562にて量子化制御
を行う際、量子化幅を算出するのに用いられる。
First, after the frame reading process 522 is performed, the target code amount reading process 573 is performed. The target code amount to be read is the frame target code amount and the macroblock target code amount. The macroblock target code amount is used to calculate the quantization width when performing the quantization control in the buffering and quantization control processing 562.

【0071】量子化幅の算出方法について説明する。量
子化幅Qとマクロブロックの符号化の複雑度Xの組に対
しマクロブロックの符号量D(Q,X)を関係づけるテ
ーブルを利用するのが一つの方法である。マクロブロッ
クの複雑度Xは、例えば一般的に知られるアクティビテ
ィなどの統計量をいくつかのレベル数に量子化した値な
どで表現できる。テーブルは、量子化幅Qと複雑度Xを
変えてテスト画像を符号化して符号量を測定することな
どにより作成し、予めエンコーダが持っておく。この算
出された量子化幅に対し、バッファ制御による重みが付
加されて、最終的な量子化幅が算出される。
A method of calculating the quantization width will be described. One method is to use a table that associates the macroblock coding amount D (Q, X) with the set of the quantization width Q and the macroblock coding complexity X. The complexity X of a macroblock can be expressed by a value obtained by quantizing a statistical amount of a generally known activity into several levels. The table is created by changing the quantization width Q and the complexity X, encoding the test image, measuring the code amount, and the like, and held in advance by the encoder. A final quantization width is calculated by adding a weight by buffer control to the calculated quantization width.

【0072】その他のステップは図16を用いて説明し
た通常の符号化の場合と同じである。
The other steps are the same as in the case of the normal encoding described with reference to FIG.

【0073】なお、以上の説明では、映像符号量割当て
処理100においてマクロブロックの目標符号量を算出
したが、正式な符号化処理402においてフレームの目
標符号量および視覚クラス値を読込んでマクロブロック
単位の目標符号量割当てを行うといった役割分担を入れ
替える構成も可能であることは言うまでもない。
In the above description, the target code amount of the macroblock is calculated in the video code amount allocation process 100. However, in the formal encoding process 402, the target code amount of the frame and the visual class value are read and the macroblock unit is read. It goes without saying that a configuration in which the division of roles, such as allocating the target code amount, is exchanged is also possible.

【0074】本実施の形態の利点は、画像の情報を取得
するために予備的な符号化を行う映像符号化方法におい
て、フレーム内の視覚的感度に基づいた重み付けを行う
ことであり、そのことにより、より視覚的に良好な符号
化画質を得ることが可能となる。
The advantage of this embodiment is that in a video coding method in which preliminary coding is performed to obtain image information, weighting is performed based on visual sensitivity in a frame. As a result, it becomes possible to obtain a visually good encoded image quality.

【0075】(実施の形態2)本実施の形態では、実施
の形態1において、符号量割当てステップは、前記算出
された第2の映像単位毎のクラス値を集計し第1の映像
単位に視覚クラス値を割り当てて、前記予備的な符号化
ステップにて得られた第1の映像単位の符号化情報と前
記第1の映像単位毎の視覚クラス値に基づいて、第1の
映像単位に目標符号量を割り当てる映像符号化方法につ
いて説明する。
(Embodiment 2) In the present embodiment, in the code amount allocating step in Embodiment 1, the calculated class value for each second video unit is aggregated and the visual value is calculated for each first video unit. A class value is assigned, and the first video unit is targeted based on the coding information of the first video unit obtained in the preliminary coding step and the visual class value for each of the first video units. A video encoding method for allocating the code amount will be described.

【0076】本実施の形態は、実施の形態1における映
像符号量割当て処理100において、フレーム間でのビ
ット割当てに対しても視覚的感度に基づく重み付けを行
えるようにしたものである。本実施の形態における映像
符号量割当て処理を示すフローチャートを図5に示す。
In the present embodiment, in the video code amount allocation processing 100 of the first embodiment, weighting based on visual sensitivity can be applied to bit allocation between frames. FIG. 5 is a flowchart showing the video code amount allocation processing in the present embodiment.

【0077】図5において、121は予備的な符号化に
おいて画素毎の輝度値と色差値に基づいて算出されたマ
クロブロック毎の視覚クラス値を読込む処理ステップ、
131は視覚クラス値を集計しフレーム単位に視覚クラ
ス代表値を算出する処理ステップ、132はフレーム符
号化情報と視覚クラス代表値に基づきフレームに目標符
号量を割り当てる処理ステップ、180はフレーム番号
Kの初期化ステップ、122はK番目のフレームにおい
てフレーム目標符号量と視覚クラス値に基づきマクロブ
ロックに符号量を割り当てる処理ステップ、181はK
の増分ステップ、182は全てのフレームの割当て処理
が終了したかどうかを判定するステップ、140はフレ
ーム及びマクロブロック単位の目標符号量情報を出力す
る処理ステップである。
In FIG. 5, reference numeral 121 denotes a processing step for reading the visual class value for each macroblock calculated based on the luminance value and the color difference value for each pixel in the preliminary encoding,
Reference numeral 131 is a processing step of totaling visual class values to calculate a visual class representative value for each frame, 132 is a processing step of allocating a target code amount to a frame based on frame coding information and a visual class representative value, and 180 is a frame number K Initialization step, 122 is a processing step of allocating the code amount to the macroblock based on the frame target code amount and the visual class value in the Kth frame, and 181 is K
Is an increasing step, 182 is a step of determining whether or not the allocation processing of all frames is completed, and 140 is a processing step of outputting target code amount information in units of frames and macroblocks.

【0078】まず、予備的な符号化において画素毎の輝
度値と色差値に基づいて算出された、マクロブロック毎
の視覚クラス値を読込む処理ステップ121が実行され
る。次に、視覚クラス値を集計しフレーム単位に視覚ク
ラス代表値を算出する処理ステップ131が実行され
る。ここで、視覚クラス代表値Cvr(K)は、例えば
視覚クラスCv(K,B)の平均値として(数13)に
より求めることができる。
First, a processing step 121 for reading the visual class value for each macroblock, which is calculated based on the luminance value and the color difference value for each pixel in the preliminary encoding, is executed. Next, the processing step 131 of totaling the visual class values and calculating the visual class representative value for each frame is executed. Here, the visual class representative value Cvr (K) can be obtained by (Equation 13) as an average value of the visual class Cv (K, B), for example.

【0079】[0079]

【数13】 [Equation 13]

【0080】ここでMB_numはフレーム内のマクロ
ブロックの数である。Cvr(K)は、Cv(K,B)
と異なり特に量子化せずとも良い。その理由は、情報量
が多くなることで処理に制約が出ることは殆どないため
である。
Here, MB_num is the number of macroblocks in the frame. Cvr (K) is Cv (K, B)
Unlike the above, it is not necessary to specifically quantize. The reason is that there is almost no restriction on the processing due to the large amount of information.

【0081】求められた視覚クラス代表値Cvr(K)
を利用して、フレーム符号化情報と視覚クラス代表値に
基づきフレームに目標符号量を割り当てる処理ステップ
132が行われる。この処理により、フレーム間の符号
量割当てにおいて視覚的な感度に基づく配分を行うこと
が可能となる。
Visual class representative value Cvr (K) obtained
Is used to perform the processing step 132 of allocating the target code amount to the frame based on the frame coding information and the visual class representative value. By this processing, it becomes possible to perform distribution based on visual sensitivity in code amount allocation between frames.

【0082】このフレーム目標符号量の割当て処理を図
13の例を用いて説明する。予備的な符号化により得ら
れたK番目のフレームの発生符号量D(K)と平均量子
化幅Qavg(K)から、各フレームの符号化の複雑度
X(K)を求める。例えば、(数14)により定義でき
る。
The process of allocating the frame target code amount will be described with reference to the example of FIG. The coding complexity X (K) of each frame is obtained from the generated code amount D (K) of the Kth frame obtained by the preliminary coding and the average quantization width Qavg (K). For example, it can be defined by (Equation 14).

【0083】[0083]

【数14】 [Equation 14]

【0084】この複雑度X(K)をCvr(K)で重み
付けて、視覚的な複雑度Xv(K)を算出する。例えば
a,bを正の定数として、(数15)のような一般式で
定義できる。
The complexity X (K) is weighted by Cvr (K) to calculate the visual complexity Xv (K). For example, a and b can be defined by a general expression such as (Equation 15), where a and b are positive constants.

【0085】[0085]

【数15】 [Equation 15]

【0086】この複雑度Xv(K)を全てのフレームに
対して合計した結果のXv_allとシーケンスの目標
符号量Tallを用いて、(数16)により各フレーム
に目標符号量T(K)を割り当てる。
The target code amount T (K) is assigned to each frame by (Equation 16) using Xv_all as a result of summing up the complexity Xv (K) for all frames and the target code amount Tall of the sequence. .

【0087】[0087]

【数16】 [Equation 16]

【0088】以上のようにして図13の割当て結果が得
られる。視覚クラス代表値Cvr(K)によりフレーム
目標符号量に重み付けされているのが確認できる。
The allocation result of FIG. 13 is obtained as described above. It can be confirmed that the frame target code amount is weighted by the visual class representative value Cvr (K).

【0089】フレームの目標符号量が求まると、以降の
処理は図1を用いて説明したのと同様である。
When the target code amount of the frame is obtained, the subsequent processing is the same as that described with reference to FIG.

【0090】本実施の形態の利点は、画像の情報を取得
するために予備的な符号化を行う映像符号化方法におい
て、フレーム内に加えてフレーム間の視覚的感度に基づ
いた重み付けを行うことであり、そのことにより、視覚
的に良好な符号化画質を得ることが可能となる。
The advantage of this embodiment is that in a video coding method in which preliminary coding is performed to obtain image information, weighting is performed based on visual sensitivity between frames in addition to within frames. Therefore, it is possible to obtain visually good encoded image quality.

【0091】(実施の形態3)本実施の形態では、映像
を1回のみ符号化する場合に、第1の映像単位(例えば
フレーム)に対して有限長N個の遅延を許して先読みを
行うことで、第3の映像単位毎の輝度値と色差値を用い
て第2の映像単位毎に視覚クラス値を算出しておき、N
個の第1の映像単位について視覚クラス代表値を割り当
てて、第1の映像単位の目標符号量および第2の映像単
位の目標符号量を割り当てる際、視覚クラス値に基づく
重み付けを行う映像符号化方法について説明する。
(Embodiment 3) In the present embodiment, when video is encoded only once, prefetching is performed by allowing a finite length of N delays for the first video unit (for example, frame). Therefore, the visual class value is calculated for each second image unit using the luminance value and the color difference value for each third image unit, and N
Video coding for assigning a visual class representative value to each of the first video units, and performing weighting based on the visual class value when allocating the target code amount of the first video unit and the target code amount of the second video unit The method will be described.

【0092】本実施の形態は、実施の形態2の映像符号
化方法を、一定の遅延量Nが許される場合に1回の符号
化で実現するための方法を実現したものである。本実施
の形態における映像符号化処理を示すフローチャートを
図6に示す。
The present embodiment realizes the video coding method of the second embodiment by a single coding when a fixed delay amount N is allowed. FIG. 6 is a flowchart showing the video encoding process according to this embodiment.

【0093】まず、N(N>1)枚分のフレーム先読み
処理523が行われ、蓄積される。ここではフレームの
符号化順への並べ替えも同時に行われる。次に、N枚の
フレームに対して、視覚クラス値割当て処理110が行
われる。視覚クラス値割当て処理110は、実施の形態
1において図3を用いて説明した通りである。次に、N
枚のフレームに対して、視覚クラス代表値算出処理13
1が行われる。視覚クラス代表値算出処理131は、実
施の形態2において図5を用いて説明した通りである。
First, the frame prefetch processing 523 for N (N> 1) sheets is performed and accumulated. Here, the frames are rearranged in the coding order at the same time. Next, the visual class value assignment processing 110 is performed on the N frames. The visual class value assignment processing 110 is as described with reference to FIG. 3 in the first embodiment. Then N
Visual class representative value calculation processing 13 for one frame
1 is performed. The visual class representative value calculation processing 131 is as described with reference to FIG. 5 in the second embodiment.

【0094】蓄積したN枚のフレームに対して複雑度推
定処理403が行われる。複雑度推定処理403は、以
降のN枚のフレームに対して、映像の符号化の複雑度を
推定する。推定の方法は様々なものが考えられるが、例
えば2パス映像符号化処理のように予備的な符号化をN
枚のフレームに対して行い、量子化幅や発生符号量など
の符号化情報を取得することが挙げられる。
The complexity estimation processing 403 is performed on the accumulated N frames. The complexity estimation processing 403 estimates the complexity of video encoding for the subsequent N frames. Although various estimation methods can be considered, preliminary encoding such as 2-pass video encoding processing is performed by N.
It is possible to perform it for one frame to obtain coding information such as the quantization width and the generated code amount.

【0095】求められたフレームの複雑度とフレームの
視覚クラス代表値に基づいて、N枚の目標符号量から現
在のフレームへと目標符号量を割り当てる処理132が
行われる。N枚のフレームに対する目標符号量はビット
レートやピクチャ符号化タイプ、さらにビットの蓄積余
り量などを利用して算出することができる。また、現在
のVBVバッファの状態から先のN枚のフレームに対し
てバッファ状態を予測し、現在のフレームの目標符号量
を算出するのに利用することも可能である。
On the basis of the calculated frame complexity and the visual class representative value of the frame, a process 132 of allocating the target code amount from the N target code amounts to the current frame is performed. The target code amount for N frames can be calculated by using the bit rate, the picture coding type, and the bit storage surplus amount. It is also possible to predict the buffer state for the previous N frames from the current VBV buffer state and use it to calculate the target code amount of the current frame.

【0096】フレーム目標符号量が算出されると、以降
の処理は図16を用いて説明した通常の映像符号化処理
と殆ど同じである。本実施の形態の特徴は、可変長符号
化処理561の後、バッファリング及び視覚クラス値に
基づく量子化制御処理123が行われる。この量子化制
御処理123では、フレームの目標符号量と複雑度推定
処理403にて算出されたマクロブロックの複雑度およ
び視覚クラス値から、次のマクロブロックのための量子
化幅を算出する処理を行う。
When the frame target code amount is calculated, the subsequent processing is almost the same as the normal video coding processing described with reference to FIG. The feature of this embodiment is that, after the variable length coding process 561, the quantization control process 123 based on the buffering and the visual class value is performed. In this quantization control processing 123, processing for calculating the quantization width for the next macroblock is performed from the target code amount of the frame, the macroblock complexity calculated in the complexity estimation processing 403, and the visual class value. To do.

【0097】本実施の形態ではフレーム数をN(N>
1)としたが、一般的な応用ではGOP(Group Of Pic
tures )数の整数倍とするのが実用的である。その理由
は、現在のフレームがどのフレームであろうと、それ以
降のGOP数の整数倍のフレームを集めると、含まれる
ピクチャタイプの構成比が一定となり、符号量割当てが
行い易いという利点があるからである。
In the present embodiment, the number of frames is N (N>
1), but in general applications GOP (Group Of Pic)
tures) It is practical to use an integer multiple of the number. The reason is that, regardless of which frame is the current frame, if frames that are an integral multiple of the number of GOPs thereafter are collected, the composition ratio of the included picture types becomes constant, and there is an advantage that code amount allocation is easy to perform. Is.

【0098】本実施の形態の利点は、N枚のフレームの
遅延が許容される場合には、1回の映像符号化のパスを
実行するだけで、フレーム内に加えてフレーム間の視覚
的感度に基づいた重み付けを行うことができることであ
り、そのことにより、より視覚的に良好な符号化画質を
得ることが可能となる。
The advantage of this embodiment is that, when the delay of N frames is allowed, it is only necessary to execute one pass of video coding, and the visual sensitivity between frames as well as between frames can be improved. It is possible to perform weighting based on, which makes it possible to obtain visually better encoded image quality.

【0099】(実施の形態4)本実施の形態では、実施
の形態2の符号化を実現した映像符号化装置について説
明する。
(Embodiment 4) In this embodiment, a video coding apparatus which realizes the coding of Embodiment 2 will be described.

【0100】本実施の形態の2パスビデオエンコーダは
既に図16を用いて説明した通りである。予備符号化用
エンコーダ201の構成を図7に示す。
The 2-pass video encoder of this embodiment is as already described with reference to FIG. The configuration of the pre-encoding encoder 201 is shown in FIG.

【0101】図7の予備符号化エンコーダは、図14で
説明したビデオエンコーダと同様の構成の部分について
は、同一の符号を振って説明を省略する。1101は視
覚クラス値割当て回路、270は符号化情報出力器、2
91は出力符号化情報、292は出力視覚クラス値であ
る。
The pre-encoding encoder in FIG. 7 has the same configuration as that of the video encoder described in FIG. 14, and the description thereof will be omitted. 1101 is a visual class value assignment circuit, 270 is an encoded information output device, 2
Reference numeral 91 is output encoded information, and 292 is an output visual class value.

【0102】まず入力映像210は、フレーム並べ替え
回路222に入力される。次に、視覚クラス値割当て回
路1101にて、入力フレームに対するマクロブロック
単位の視覚クラス値割当て処理が行われる。この処理
は、図3を用いて説明したのと同様である。得られた視
覚クラス値は、出力292される。以降の処理は、基本
的には図14で説明したビデオエンコーダと同様であ
る。可変長符号化回路261の出力から符号化情報出力
器270が発生符号量を測定して符号化情報291とし
て出力する。
First, the input video 210 is input to the frame rearrangement circuit 222. Next, the visual class value assigning circuit 1101 performs a visual class value assigning process for each input frame in units of macroblocks. This process is similar to that described with reference to FIG. The obtained visual class value is output 292. The subsequent processing is basically the same as that of the video encoder described in FIG. From the output of the variable length coding circuit 261, the coding information output device 270 measures the generated code amount and outputs it as the coding information 291.

【0103】図16における映像符号量割当て器300
の構成を、図8に示す。図8において、310はフレー
ム符号化情報、311はマクロブロック符号化情報、3
12は視覚クラス値情報、381はフレーム目標符号
量、382はマクロブロック目標符号量、383は視覚
クラス代表値、321はフレーム符号量381を割当て
るフレーム符号量割当て器、322はフレーム目標符号
量381に基づいてマクロブロック符号量382を割当
てるマクロブロック符号量割当て器、323は視覚クラ
ス値312をフレーム単位で集計して視覚クラス代表値
383を算出する視覚クラス集計器、340は目標符号
量などの情報を記憶するためのメモリ、330は割当て
た目標符号量をメモリ340から読込んで出力する割当
て情報出力器、350はディスク、390は出力される
目標符号量情報である。
The video code amount assigner 300 in FIG.
The configuration of is shown in FIG. In FIG. 8, 310 is frame coding information, 311 is macroblock coding information, 3
12 is visual class value information, 381 is a frame target code amount, 382 is a macroblock target code amount, 383 is a visual class representative value, 321 is a frame code amount assigner for allocating the frame code amount 381, and 322 is a frame target code amount 381. A macroblock code amount assigner 323 that assigns a macroblock code amount 382 based on the following, a visual class aggregator that aggregates the visual class values 312 in frame units to calculate a visual class representative value 383, and a visual class aggregator 340 that calculates a target code amount. A memory for storing information, 330 is an allocation information output device that reads and outputs the allocated target code amount from the memory 340, 350 is a disk, and 390 is output target code amount information.

【0104】以下図8の映像符号量割当て器の動作につ
いて説明する。
The operation of the video code amount assigner shown in FIG. 8 will be described below.

【0105】視覚クラス値情報312は、視覚クラス値
集計器323にてフレーム単位で視覚クラス代表値38
3の算出処理が行われる。この処理は実施の形態2で図
5のステップ131で説明したのと同様である。フレー
ム符号化情報310はフレーム符号量割当て器321に
入力される。フレーム符号量割当て器321は、シーケ
ンス全体の目標ビットレート及びフレーム符号化情報3
10及び視覚クラス代表値383に基づいて、フレーム
目標符号量381を割り当てる。この処理は、実施の形
態2で図5のステップ132で説明したのと同様であ
る。計算されたフレーム目標符号量381はメモリ34
0に記憶され、必要に応じてディスク350に記録され
る。
The visual class value information 312 is stored in the visual class value aggregator 323 in units of frames.
Calculation processing 3 is performed. This processing is the same as that described in step 131 of FIG. 5 in the second embodiment. The frame coding information 310 is input to the frame code amount assigner 321. The frame code amount assigner 321 determines the target bit rate of the entire sequence and the frame coding information 3
The frame target code amount 381 is assigned based on 10 and the visual class representative value 383. This processing is the same as that described in step 132 of FIG. 5 in the second embodiment. The calculated frame target code amount 381 is stored in the memory 34.
0, and is recorded on the disc 350 as needed.

【0106】マクロブロック符号量割当て器322は、
マクロブロック符号化情報311および視覚クラス値情
報312とフレーム目標符号量381に基づいて、マク
ロブロック目標符号量382を割り当てる処理を行う。
この処理は、実施の形態1で図1のステップ122で説
明したのと同様である。割り当てられたマクロブロック
目標符号量382はメモリ340に記憶される。全ての
処理が終了すると、割当て情報出力器330がメモリ3
40からフレーム目標符号量381及びマクロブロック
目標符号量382を読込んで目標符号量情報390とし
て出力する。
The macroblock code amount assigner 322 is
Based on the macroblock coding information 311, the visual class value information 312, and the frame target code amount 381, a process of assigning the macroblock target code amount 382 is performed.
This processing is the same as that described in step 122 of FIG. 1 in the first embodiment. The allocated macroblock target code amount 382 is stored in the memory 340. When all the processing is completed, the allocation information output device 330 causes the memory 3
The frame target code amount 381 and the macroblock target code amount 382 are read from 40 and output as target code amount information 390.

【0107】図16における本符号化用ビデオエンコー
ダ202の構成を図9に示す。図9の本符号化用ビデオ
エンコーダは、基本的には図14で説明したビデオエン
コーダと同様の構成を取る。273は目標符号量設定回
路、274はメモリである。
The configuration of the main encoding video encoder 202 in FIG. 16 is shown in FIG. The video encoder for main encoding in FIG. 9 basically has the same configuration as the video encoder described in FIG. Reference numeral 273 is a target code amount setting circuit, and 274 is a memory.

【0108】まず入力映像210は、フレーム並べ替え
回路222に入力される。次に、目標符号量設定回路2
73にて、入力フレームに対するフレーム目標符号量及
びマクロブロック目標符号量が設定され、メモリ274
に記憶される。この処理は、実施の形態1で図4のステ
ップ573で説明したのと同様である。以降の処理は、
基本的には図14で説明したビデオエンコーダと同様で
ある。量子化制御回路263は、バッファ262の出力
とメモリ274にある目標符号量を用いて量子化制御を
行う。この処理は、実施の形態1において図4のステッ
プ562で説明したのと同様である。以上のようにして
最終的なビデオストリーム290を得る。
First, the input video 210 is input to the frame rearrangement circuit 222. Next, the target code amount setting circuit 2
At 73, the frame target code amount and the macroblock target code amount for the input frame are set, and the memory 274
Memorized in. This processing is the same as that described in step 573 of FIG. 4 in the first embodiment. Subsequent processing,
Basically, it is similar to the video encoder described in FIG. The quantization control circuit 263 performs quantization control using the output of the buffer 262 and the target code amount stored in the memory 274. This processing is the same as that described in step 562 of FIG. 4 in the first embodiment. As described above, the final video stream 290 is obtained.

【0109】以上のように、本実施の形態により、実施
の形態2で説明した符号化処理を具体的なハードウェア
構成で実現することが可能となる。
As described above, according to the present embodiment, it is possible to realize the coding processing described in the second embodiment with a specific hardware configuration.

【0110】[0110]

【発明の効果】以上の説明から明らかなように、本発明
によれば、DVDオーサリングシステムなどに用いられ
る、オフラインでコンテンツを制作するための映像符号
化方法における、映像の符号化情報を取得するための予
備的な符号化において、画素の輝度値及び色差値に基づ
いて第2の映像単位毎に視覚クラス値を割り当てて、符
号量割当て時には予備的な符号化により得られた発生符
号量などの符号化情報および視覚クラス値に基づいて符
号量割当てを行うことにより、正式な符号化時に視覚的
感度に基づいた高い画質を得ることができる。
As is apparent from the above description, according to the present invention, video coding information is obtained in a video coding method for producing contents offline, which is used in a DVD authoring system or the like. In the preliminary encoding for, the visual class value is assigned to each second video unit based on the luminance value and the color difference value of the pixel, and when the code amount is assigned, the generated code amount obtained by the preliminary encoding, etc. By allocating the code amount based on the coding information and the visual class value of, the high image quality based on the visual sensitivity can be obtained at the time of formal coding.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態1における映像符号量割当
て処理を示すフローチャート
FIG. 1 is a flowchart showing a video code amount allocation process according to a first embodiment of the present invention.

【図2】同予備的な符号化処理を示すフローチャートFIG. 2 is a flowchart showing the preliminary encoding process.

【図3】同視覚クラス値割当て処理を示すフローチャー
FIG. 3 is a flowchart showing the visual class value assignment processing.

【図4】同正式な符号化処理を示すフローチャートFIG. 4 is a flowchart showing the formal encoding process.

【図5】本発明の実施の形態2における映像符号量割当
て処理を示すフローチャート
FIG. 5 is a flowchart showing a video code amount allocation process according to the second embodiment of the present invention.

【図6】本発明の実施の形態3における映像符号化処理
を示すフローチャート
FIG. 6 is a flowchart showing video encoding processing according to the third embodiment of the present invention.

【図7】本発明の実施の形態4における予備符号化用ビ
デオエンコーダの構成を示すブロック図
FIG. 7 is a block diagram showing the configuration of a video encoder for preliminary coding according to Embodiment 4 of the present invention.

【図8】同映像符号量割当て器の構成を示すブロック図FIG. 8 is a block diagram showing a configuration of the same video code amount assigner.

【図9】同本符号化用ビデオエンコーダの構成を示すブ
ロック図
FIG. 9 is a block diagram showing the configuration of the same-coding video encoder.

【図10】本発明の実施の形態1におけるマクロブロッ
ク符号化情報の一例を示す図
FIG. 10 is a diagram showing an example of macroblock coding information according to Embodiment 1 of the present invention.

【図11】同フレーム符号化情報の一例を示す図FIG. 11 is a diagram showing an example of the same frame encoded information.

【図12】同フレーム目標符号量算出の一例を示す図FIG. 12 is a diagram showing an example of calculating the target code amount of the frame.

【図13】同マクロブロック目標符号量算出の一例を示
す図
FIG. 13 is a diagram showing an example of calculating the macroblock target code amount.

【図14】MPEG2に基づくビデオエンコーダの構成
を示すブロック図
FIG. 14 is a block diagram showing the configuration of a video encoder based on MPEG2.

【図15】2パスビデオエンコーダの構成を示すブロッ
ク図
FIG. 15 is a block diagram showing the configuration of a 2-pass video encoder.

【図16】MPEG2に基づく映像符号化処理を示すフ
ローチャート
FIG. 16 is a flowchart showing a video encoding process based on MPEG2.

【図17】2パス映像符号化処理を示すフローチャートFIG. 17 is a flowchart showing a 2-pass video encoding process.

【符号の説明】[Explanation of symbols]

100 映像符号量割当て処理 110 視覚クラス値割当て処理 1101 視覚クラス値割当て回路 1131 色空間上への変換処理 1132 色の感度の算出処理 114 輝度の感度の算出処理 115 色及び輝度の感度の加算処理 116 視覚クラス値算出処理 117 視覚クラス値出力処理 121 視覚クラス値読込み処理 122 マクロブロック目標符号量割当て処理 123 バッファリング及び視覚クラス値に基づく量子
化制御処理 130 フレーム目標符号量の割当て処理 131 視覚クラス代表値算出処理 132 フレーム目標符号量の割当て処理 140 目標符号量情報の出力処理 201 予備符号化用ビデオエンコーダ 202 本符号化用ビデオエンコーダ 210 入力映像 222 フレーム並べ替え回路 231 動き推定回路 232 動き補償回路 241 DCT回路 242 逆DCT回路 251 量子化回路 252 逆量子化回路 261 可変長符号化回路 262 バッファ 263 量子化制御回路 270 符号化情報出力器 273 目標符号量設定回路 274 メモリ 290 ビデオストリーム 291 符号化情報 292 視覚クラス値 300 映像符号量割当て器 310 フレーム符号化情報 311 マクロブロック符号化情報 312 視覚クラス値情報 321 フレーム符号量割当て器 322 マクロブロック符号量割当て器 323 視覚クラス値集計器 340 メモリ 350 ディスク 381 フレーム目標符号量 382 マクロブロック目標符号量 383 視覚クラス代表値 390 目標符号量情報 400 映像符号化処理 401 予備的な符号化処理 402 正式な符号化処理 403 複雑度推定処理 510 ブロック分割処理 523 フレーム先読み処理 531 動き推定処理 532 再構成処理 541 DCT処理 551 量子化処理 561 可変長符号化処理 562 バッファリング及び量子化制御処理 571 マクロブロック符号化情報出力処理 572 フレーム符号化情報出力処理 573 目標符号量読込み処理 582 フレーム差分処理
100 video code amount allocation processing 110 visual class value allocation processing 1101 visual class value allocation circuit 1131 conversion into color space 1132 color sensitivity calculation processing 114 luminance sensitivity calculation processing 115 color and luminance sensitivity addition processing 116 Visual class value calculation process 117 Visual class value output process 121 Visual class value reading process 122 Macroblock target code amount allocation process 123 Quantization control process based on buffering and visual class value 130 Frame target code amount allocation process 131 Visual class representative Value calculation process 132 Frame target code amount allocation process 140 Target code amount information output process 201 Precoding video encoder 202 Main coding video encoder 210 Input video 222 Frame rearrangement circuit 231 Motion estimation circuit 232 Motion compensation circuit 24 1 DCT circuit 242 Inverse DCT circuit 251 Quantization circuit 252 Inverse quantization circuit 261 Variable length coding circuit 262 Buffer 263 Quantization control circuit 270 Encoding information output device 273 Target code amount setting circuit 274 Memory 290 Video stream 291 Encoding information 292 Visual class value 300 Video code amount allocator 310 Frame coding information 311 Macroblock coding information 312 Visual class value information 321 Frame code amount allocator 322 Macroblock code amount allocator 323 Visual class value aggregator 340 Memory 350 Disk 381 Frame target code amount 382 Macroblock target code amount 383 Visual class representative value 390 Target code amount information 400 Video coding process 401 Preliminary coding process 402 Formal coding process 403 Complexity estimation process 510 Block division Processing 523 Frame prefetching processing 531 Motion estimation processing 532 Reconstruction processing 541 DCT processing 551 Quantization processing 561 Variable length coding processing 562 Buffering and quantization control processing 571 Macroblock coding information output processing 572 Frame coding information output processing 573 Target code amount reading process 582 Frame difference process

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C053 FA24 GB28 GB38 KA04 KA30 5C057 AA10 EM04 EM09 EM13 EM16 GG01 5C059 KK02 MA05 MA23 MC01 MC30 ME01 SS13 SS20 TA60 TB04 TB08 TC00 TC19 TD00 UA00 UA02 UA38 5J064 AA01 BA09 BA16 BB01 BB03 BC01 BC08 BC16 BC21 BD03   ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5C053 FA24 GB28 GB38 KA04 KA30                 5C057 AA10 EM04 EM09 EM13 EM16                       GG01                 5C059 KK02 MA05 MA23 MC01 MC30                       ME01 SS13 SS20 TA60 TB04                       TB08 TC00 TC19 TD00 UA00                       UA02 UA38                 5J064 AA01 BA09 BA16 BB01 BB03                       BC01 BC08 BC16 BC21 BD03

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 少なくともフレーム以上の単位である第
1の映像単位と、少なくともブロック以上の単位である
第2の映像単位と、少なくとも画素以上の単位である第
3の映像単位で構成される映像信号を符号化する映像符
号化方法であって、第3の映像単位毎の色差値と輝度値
に基づいて、第2の映像単位毎に視覚的な感度を表わす
視覚クラス値を割り当て、前記視覚クラス値および第1
の映像単位の目標符号量に基づいて、第2の映像単位の
目標符号量割当てを行うことを特徴とする映像符号化方
法。
1. A video composed of a first video unit which is a unit of at least a frame or more, a second video unit which is a unit of at least a block or more, and a third video unit which is a unit of at least pixels or more. A video coding method for coding a signal, wherein a visual class value representing visual sensitivity is assigned to each second video unit based on a color difference value and a luminance value for each third video unit, Class value and first
The video coding method, wherein the target code amount is allocated for the second video unit based on the target code amount for the video unit.
【請求項2】 N個(Nは1以上の整数)の第1の映像
単位群に対して、前記視覚クラス値に基づいて、第1の
映像単位毎の視覚クラス代表値を算出し、前記視覚クラ
ス代表値および前記第1の映像単位群の目標符号量に基
づいて、第1の映像単位の目標符号量割当てを行うこと
を特徴とする請求項1記載の映像符号化方法。
2. A visual class representative value for each first video unit is calculated based on the visual class value for N (N is an integer of 1 or more) first video unit group, 2. The video encoding method according to claim 1, wherein the target code amount allocation of the first video unit is performed based on the visual class representative value and the target code amount of the first video unit group.
【請求項3】 前記第1の映像単位はフレームであり、
前記NはGOP長のM倍(Mは自然数)であることを特
徴とする請求項2記載の映像符号化方法。
3. The first video unit is a frame,
The video encoding method according to claim 2, wherein the N is M times the GOP length (M is a natural number).
【請求項4】 前記第1の映像単位群で構成される映像
シーケンスに対して、映像シーケンスの情報を取得する
ための予備的な符号化を行い、前記予備的な符号化によ
り得られた符号化情報に基づき映像シーケンス全体の符
号量割当てを行う機能を有する映像符号化方法であっ
て、前記予備的な符号化において、第3の映像単位毎の
色差値と輝度値に基づいて第2の映像単位毎に視覚的な
感度を表わす視覚クラス値を割り当てて、前記符号量割
当てにおいて、前記視覚クラス値および第1の映像単位
の目標符号量に基づいて第2の映像単位の目標符号量割
当てを行うことを特徴とする請求項1記載の映像符号化
方法。
4. A code obtained by performing preliminary coding for obtaining information of a video sequence on a video sequence composed of the first video unit group and obtaining the code by the preliminary coding. A video encoding method having a function of allocating the code amount of the entire video sequence based on the encoding information, wherein in the preliminary encoding, the second encoding is performed based on the color difference value and the luminance value for each third image unit. A visual class value representing visual sensitivity is assigned to each video unit, and in the code amount allocation, a target code amount allocation of a second video unit is performed based on the visual class value and the target code amount of the first video unit. The video encoding method according to claim 1, wherein
【請求項5】 前記符号量割当ては、前記視覚クラス値
に基づいて、第1の映像単位毎の視覚クラス代表値を算
出し、前記視覚クラス代表値および前記映像シーケンス
の目標符号量に基づいて、第1の映像単位の目標符号量
割当てを行うことを特徴とする請求項4記載の映像符号
化方法。
5. The code amount allocation calculates a visual class representative value for each first video unit based on the visual class value, and based on the visual class representative value and a target code amount of the video sequence. 5. The video coding method according to claim 4, wherein the target code amount allocation for each of the first video units is performed.
【請求項6】 前記視覚クラス値の割当ては、少なくと
も画素の色差値および輝度値を色の感度を表わす色空間
上に変換し、前記色空間の点の視覚的な感度である色感
度を算出し、少なくとも前記色感度を第2の映像単位毎
に集計した値を用いて視覚クラス値を求めることを特徴
とする請求項1から5のいずれかに記載の映像符号化方
法。
6. The assignment of the visual class value converts at least the color difference value and the luminance value of a pixel into a color space representing color sensitivity, and calculates a color sensitivity which is a visual sensitivity of a point in the color space. The video encoding method according to claim 1, wherein the visual class value is obtained using at least the value obtained by summing up the color sensitivity for each second video unit.
【請求項7】 前記色空間は、CIE1976L*a*
b*空間およびCIE1976L*u*v*空間および
マンセル表色系を含む均等色空間であり、前記色感度の
算出は、映像信号の属するYCbCr空間の微小変化量
に対して生じる前記色空間上の距離に基づくことを特徴
とする請求項6記載の映像符号化方法。
7. The color space is CIE1976L * a *.
b * space and CIE1976L * u * v * space and a uniform color space including Munsell color system, and the calculation of the color sensitivity is performed on the color space caused by the minute change amount of the YCbCr space to which the video signal belongs. 7. The video coding method according to claim 6, wherein the video coding method is based on distance.
【請求項8】 前記視覚クラス値の割当ては、少なくと
も画素の輝度値から輝度感度モデルを用いた視覚的な感
度である輝度感度を算出し、少なくとも前記輝度感度を
第2の映像単位毎に集計した値を用いて視覚クラス値を
求めることを特徴とする請求項1から7のいずれかに記
載の映像符号化方法。
8. The allocation of the visual class value is performed by calculating a luminance sensitivity which is a visual sensitivity using a luminance sensitivity model from at least a luminance value of a pixel, and at least the luminance sensitivity is aggregated for each second image unit. 8. The video encoding method according to claim 1, wherein the visual class value is obtained using the value.
【請求項9】 前記輝度感度モデルは、ウェーバー比Δ
L/L(L:輝度値、ΔL:輝度弁別の閾値)に基づく
ことを特徴とする請求項8記載の映像符号化方法。
9. The luminance sensitivity model comprises a Weber ratio Δ
9. The video encoding method according to claim 8, which is based on L / L (L: luminance value, ΔL: threshold value for luminance discrimination).
【請求項10】 少なくともフレーム以上の単位である
第1の映像単位と、少なくともブロック以上の単位であ
る第2の映像単位と、少なくとも画素以上の単位である
第3の映像単位で構成される映像信号を符号化する映像
符号化装置であって、第3の映像単位毎の色差値と輝度
値に基づいて、第2の映像単位毎に視覚的な感度を表わ
す視覚クラス値を割り当てる視覚クラス値割当て手段
と、前記視覚クラス値および第1の映像単位の目標符号
量に基づいて、第2の映像単位の目標符号量割当てを行
う第2の目標符号量割当て手段とを有することを特徴と
する映像符号化装置。
10. A video composed of a first video unit which is a unit of at least a frame or more, a second video unit which is a unit of at least a block or more, and a third video unit which is a unit of at least pixels or more. A video coding device for coding a signal, wherein a visual class value for allocating a visual class value representing visual sensitivity for each second video unit based on a color difference value and a luminance value for each third video unit It has an allocating means and a second target code amount allocating means for allocating a target code amount of the second video unit based on the visual class value and the target code amount of the first video unit. Video coding device.
【請求項11】 N個(Nは1以上の整数)の第1の映
像単位群に対して、前記視覚クラス値に基づいて、第1
の映像単位毎の視覚クラス代表値を算出する視覚クラス
代表値算出手段と、前記視覚クラス代表値および前記第
1の映像単位群の目標符号量に基づいて、第1の映像単
位の目標符号量割当てを行う第1の目標符号量割当て手
段とを有することを特徴とする請求項10記載の映像符
号化装置。
11. A first group of N (N is an integer equal to or greater than 1) first image unit group based on the visual class value.
The visual class representative value calculating means for calculating the visual class representative value for each image unit, and the target code amount of the first image unit based on the visual class representative value and the target code amount of the first image unit group. 11. The video coding apparatus according to claim 10, further comprising a first target code amount allocation unit that performs allocation.
【請求項12】 前記第1の映像単位はフレームであ
り、前記NはGOP長のM倍(Mは自然数)であること
を特徴とする請求項11記載の映像符号化装置。
12. The video encoding apparatus according to claim 11, wherein the first video unit is a frame, and the N is M times a GOP length (M is a natural number).
【請求項13】 前記第1の映像単位群で構成される映
像シーケンスに対して、映像シーケンスの情報を取得す
るための予備的な符号化手段と、前記予備的な符号化手
段により得られた符号化情報に基づき映像シーケンス全
体の符号量割当てを行う符号量割当て手段とを有する映
像符号化装置であって、前記予備的な符号化手段は、第
3の映像単位毎の色差値と輝度値に基づいて第2の映像
単位毎に視覚的な感度を表わす視覚クラス値を割り当て
る視覚クラス値割当て手段を有し、前記符号量割当て手
段は、前記視覚クラス値および第1の映像単位の目標符
号量に基づいて第2の映像単位の目標符号量割当てを行
う第2の目標符号量割当て手段とを有することを特徴と
する請求項10記載の映像符号化装置。
13. A preliminary coding means for acquiring information of a video sequence for a video sequence composed of the first video unit group, and the preliminary coding means. A video encoding device having a code amount assigning means for assigning a code amount of an entire video sequence based on encoding information, wherein the preliminary encoding means is a third color difference value and a luminance value for each video unit. A visual class value allocating means for allocating a visual class value representing visual sensitivity for each second video unit based on the above, and the code amount allocating means has the visual class value and the target code of the first video unit. 11. The video encoding apparatus according to claim 10, further comprising a second target code amount assigning unit that assigns a target code amount for each second video unit based on the amount.
【請求項14】 前記符号量割当て手段は、前記視覚ク
ラス値に基づいて、第1の映像単位毎の視覚クラス代表
値を算出する視覚クラス代表値算出手段と、前記視覚ク
ラス代表値および前記映像シーケンスの目標符号量に基
づいて、第1の映像単位の目標符号量割当てを行う第1
の目標符号量割当て手段とを有することを特徴とする請
求項13記載の映像符号化装置。
14. The code amount assigning means calculates a visual class representative value for each first image unit based on the visual class value, a visual class representative value calculating means, the visual class representative value and the image. A first code amount allocation for the first video unit based on the target code amount of the sequence
14. The video encoding device according to claim 13, further comprising: a target code amount assigning unit.
【請求項15】 前記視覚クラス値割当て手段は、少な
くとも画素の色差値および輝度値を色の感度を表わす色
空間上に変換する色空間変換手段と、前記色空間の点の
視覚的な感度即ち色感度を算出する色感度算出手段と、
少なくとも前記色感度を第2の映像単位毎に集計した値
を用いて視覚クラス値を求める視覚クラス値算出手段こ
とを特徴とする請求項10から14のいずれかに記載の
映像符号化装置。
15. The visual class value assigning means transforms at least a color difference value and a luminance value of a pixel into a color space representing a color sensitivity, and a visual sensitivity of a point of the color space, that is, Color sensitivity calculation means for calculating color sensitivity,
15. The video encoding device according to claim 10, further comprising a visual class value calculating unit that obtains a visual class value using at least the value obtained by summing up the color sensitivity for each second video unit.
【請求項16】 前記色空間は、CIE1976L*a
*b*空間およびCIE1976L*u*v*空間およ
びマンセル表色系を含む均等色空間であり、前記色感度
算出手段は、映像信号の属するYCbCr空間の微小変
化量に対して生じる前記色空間上の距離に基づいて算出
することを特徴とする請求項15記載の映像符号化装
置。
16. The color space is CIE1976L * a.
An * b * space, a CIE1976L * u * v * space, and a uniform color space including the Munsell color system, wherein the color sensitivity calculation means is on the color space caused by a minute change amount of the YCbCr space to which the video signal belongs. The video encoding device according to claim 15, wherein the video encoding device calculates the distance based on the distance.
【請求項17】 前記視覚クラス値割当て手段は、少な
くとも画素の輝度値から輝度感度モデルを用いた視覚的
な感度即ち輝度感度を算出する輝度感度算出手段と、少
なくとも前記輝度感度を第2の映像単位毎に集計した値
を用いて視覚クラス値を求めること視覚クラス値算出手
段とを有することを特徴とする請求項10から16のい
ずれかに記載の映像符号化装置。
17. The visual class value assigning means calculates a visual sensitivity, that is, a luminance sensitivity using a luminance sensitivity model from at least a luminance value of a pixel, and at least the luminance sensitivity in a second image. The video encoding device according to any one of claims 10 to 16, further comprising: a visual class value calculating unit that obtains a visual class value using a value aggregated for each unit.
【請求項18】 前記輝度感度モデルは、ウェーバー比
ΔL/L(L:輝度値、ΔL:輝度弁別の閾値)に基づ
くことを特徴とする請求項17記載の映像符号化装置。
18. The video encoding device according to claim 17, wherein the luminance sensitivity model is based on a Weber ratio ΔL / L (L: luminance value, ΔL: threshold value for luminance discrimination).
【請求項19】 請求項1から18に記載の映像符号化
方法または装置を用いて生成したストリームを記録した
記録媒体。
19. A recording medium on which a stream generated by using the video encoding method or apparatus according to claim 1 is recorded.
JP2001352740A 2001-11-19 2001-11-19 Video encoding method and apparatus, and recording medium Pending JP2003153268A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001352740A JP2003153268A (en) 2001-11-19 2001-11-19 Video encoding method and apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001352740A JP2003153268A (en) 2001-11-19 2001-11-19 Video encoding method and apparatus, and recording medium

Publications (1)

Publication Number Publication Date
JP2003153268A true JP2003153268A (en) 2003-05-23

Family

ID=19164873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001352740A Pending JP2003153268A (en) 2001-11-19 2001-11-19 Video encoding method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP2003153268A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509013A (en) * 2008-11-13 2012-04-12 トムソン ライセンシング Multithreaded video coding using GOP merging and bit allocation
JP2019083491A (en) * 2017-10-31 2019-05-30 日本電信電話株式会社 Code amount estimation device and code amount estimation program
WO2019172179A1 (en) * 2018-03-06 2019-09-12 日本電信電話株式会社 Code amount estimation device, code amount estimation method, and code amount estimation program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509013A (en) * 2008-11-13 2012-04-12 トムソン ライセンシング Multithreaded video coding using GOP merging and bit allocation
US9210431B2 (en) 2008-11-13 2015-12-08 Thomson Licensing Multiple thread video encoding using GOP merging and bit allocation
JP2019083491A (en) * 2017-10-31 2019-05-30 日本電信電話株式会社 Code amount estimation device and code amount estimation program
WO2019172179A1 (en) * 2018-03-06 2019-09-12 日本電信電話株式会社 Code amount estimation device, code amount estimation method, and code amount estimation program
JPWO2019172179A1 (en) * 2018-03-06 2021-02-04 日本電信電話株式会社 Code amount estimation device, code amount estimation method and code amount estimation program
US11039132B2 (en) 2018-03-06 2021-06-15 Nippon Telegraph And Telephone Corporation Code amount estimation device, code amount estimation method, and code amount estimation program
JP7041379B2 (en) 2018-03-06 2022-03-24 日本電信電話株式会社 Code amount estimation device, code amount estimation method and code amount estimation program

Similar Documents

Publication Publication Date Title
US5686964A (en) Bit rate control mechanism for digital image and video data compression
JP3115199B2 (en) Image compression coding device
KR100756596B1 (en) Video data encoder and video data encoding method
JP2963416B2 (en) Video encoding method and apparatus for controlling bit generation amount using quantization activity
US6625214B1 (en) Apparatus and method for fade detecting and information encoding
EP1869895B1 (en) Scene-by-scene digital video processing
JPH05252507A (en) Motion video compression system using adaptive bit allocation and quantization
US7388995B2 (en) Quantization matrix adjusting method for avoiding underflow of data
JP2005102170A (en) Method and system for filtering adaptive to discrete cosine transformation factor in video encoder
KR20070110517A (en) Encoding device and dynamic image recording system having the encoding device
JP2003018603A (en) Method and device for encoding moving image
CN102271257A (en) Image processing device, method, and program
KR20000023174A (en) Encoding apparatus and method
KR101405549B1 (en) Video coding
JPH10164577A (en) Dynamic image encoder
JP4345024B2 (en) Image encoding apparatus, image encoding method, and recording medium recording image encoding program
JPH0998427A (en) Dynamic image encoding device
JP3815665B2 (en) Variable bit rate video encoding apparatus and recording medium
US20010014123A1 (en) Method for processing video
JP2003153268A (en) Video encoding method and apparatus, and recording medium
JPH07203456A (en) Coder, decoder and video recording device
JP2003018593A (en) Method and apparatus for encoding video, method and apparatus for allocating video coding quantity, and recording medium
JP3149673B2 (en) Video encoding device, video encoding method, video reproducing device, and optical disc
JPH10164588A (en) Video-signal encoding method, video-signal encoder and recording medium
JPH10108197A (en) Image coder, image coding control method, and medium storing image coding control program