JP2000350211A - Method and device for encoding moving picture - Google Patents

Method and device for encoding moving picture

Info

Publication number
JP2000350211A
JP2000350211A JP15948199A JP15948199A JP2000350211A JP 2000350211 A JP2000350211 A JP 2000350211A JP 15948199 A JP15948199 A JP 15948199A JP 15948199 A JP15948199 A JP 15948199A JP 2000350211 A JP2000350211 A JP 2000350211A
Authority
JP
Japan
Prior art keywords
encoding
frame
scene
parameter
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP15948199A
Other languages
Japanese (ja)
Inventor
Rieko Furukawa
理恵子 古川
Takeshi Nagai
剛 永井
Yoshihiro Kikuchi
義浩 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP15948199A priority Critical patent/JP2000350211A/en
Priority to TW89119075A priority patent/TW502542B/en
Publication of JP2000350211A publication Critical patent/JP2000350211A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving picture encoding device which can encode an image with picture quality matching its scene contents while maintaining the encoding bit rate at a specified value. SOLUTION: This device has a feature quantity calculation part 31 which divides an input moving picture signal 100 into temporally successive scenes consisting of at least one frame and calculates statistical feature quantities by the scenes, an encoding parameter generation part 32 which generates encoding parameters by the scenes according to the calculated statistical feature quantities, an encoding quantity decision part 33 which decides how much the generated code quantity 133 of a code sequence 111 generated by an encoding part 10 encoding the input moving picture signal 100 is larger or smaller than a target code quantity 134, and an encoding parameter correction part 34 which corrects the encoding parameters according to the decision result; and the code sequence generated by encoding the input moving picture signal 100 according to the corrected encoding parameters is sent out of a buffer 21 as an encoding output 200 to a transmission line or storage medium.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インターネットな
どによる動画像伝送システムや画像データベースシステ
ムに使用されるMPEG方式などの動画像圧縮符号化技
術に係り、特にシーンの内容に応じた符号化パラメータ
に従って符号化を行うことで、データサイズを大きくす
ることなくシーン毎にまとまりのある見やすい復号画像
を提供できる動画像符号化方法および動画像符号化装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture compression coding technique such as the MPEG system used for a moving picture transmission system or a picture database system over the Internet or the like. The present invention relates to a moving picture coding method and a moving picture coding apparatus capable of providing a coherent and easy-to-view decoded image for each scene without increasing the data size by performing coding.

【0002】[0002]

【従来の技術】動画像符号化の国際標準であるMPEG
方式は、周知のように動き補償予測とDCT(離散コサ
イン変換)および可変長符号化を組み合わせて動画像の
圧縮を行う技術であり、例えば文献1:『MPEG』テ
レビジョン学会編、オーム社、などに詳しく述べられて
いる。
2. Description of the Related Art MPEG which is an international standard for video coding
The method is a technique for compressing a moving image by combining motion compensation prediction, DCT (discrete cosine transform) and variable-length coding, as is well known. For example, reference 1: "MPEG" edited by the Television Society, Ohmsha, And so on.

【0003】MPEG方式に基づく従来の動画像符号化
装置では、圧縮動画像データを伝送レートが規定されて
いる伝送路によって伝送したり、記録容量に限りのある
蓄積媒体に記録するために、出力される符号化ビットス
トリームのビットレートが指定された値となるようにフ
レームレートや量子化幅などの符号化パラメータを設定
して符号化を行うレート制御という処理が行われる。従
来のレート制御では、一定の量子化幅に対して前フレー
ムの符号化での発生符号量に応じてフレームレートを決
める方法が多くとられている。
[0003] In a conventional moving picture encoding apparatus based on the MPEG system, the compressed moving picture data is transmitted over a transmission path with a prescribed transmission rate or recorded on a storage medium having a limited recording capacity. A process called rate control is performed in which encoding is performed by setting encoding parameters such as a frame rate and a quantization width so that the bit rate of the encoded bit stream to be transmitted has a specified value. In the conventional rate control, a method of determining a frame rate in accordance with a generated code amount in encoding of a previous frame for a fixed quantization width is often used.

【0004】図10は、従来のレート制御について示す
図である。符号化ビットストリームを一時記憶するバッ
ファの容量に応じて予め設定されたフレームスキップし
きい値と、現時点でのバッファ量との差(余裕度)を基
にフレームレートを決め、バッファ量がしきい値よりも
小さい時には一定のフレームレートで符号化を行い、バ
ッファ量がしきい値を上回るとフレームスキップを行っ
てフレームレートを下げるように制御する。
FIG. 10 is a diagram showing a conventional rate control. A frame rate is determined based on a difference (margin) between a frame skip threshold preset in accordance with a capacity of a buffer for temporarily storing an encoded bit stream and a current buffer amount, and a buffer amount is determined. When the value is smaller than the value, encoding is performed at a constant frame rate, and when the buffer amount exceeds a threshold value, frame skip is performed to control the frame rate to be reduced.

【0005】しかし、この方法では図10に示されるよ
うに前フレームで発生した符号量が大きい場合、バッフ
ァ量がフレームスキップしきい値以下になるまでフレー
ムスキップするために、前記フレームから次フレームま
での間隔が開き過ぎて、動画としては不自然なものにな
ってしまう。
However, in this method, when the code amount generated in the previous frame is large as shown in FIG. 10, the frame is skipped until the buffer amount becomes equal to or less than the frame skip threshold. Is too wide, which makes it unnatural for a movie.

【0006】すなわち、従来のレート制御では、基本的
に画像の内容に無関係にフレームレートや量子化幅を設
定しているため、画像中のオブジェクトの動きが激しい
シーンでフレーム間隔が広くなり過ぎて動きが不自然に
なったり、量子化幅が適切でないために画像が歪んで視
覚的に見づらさを感じさせてしまうことがあった。
That is, in the conventional rate control, since the frame rate and the quantization width are basically set irrespective of the content of the image, the frame interval becomes too wide in a scene in which the motion of the object in the image is severe. In some cases, the motion becomes unnatural or the image is distorted due to an inappropriate quantization width, making the image visually difficult to see.

【0007】一方、2パス符号化と呼ばれる手法により
レート制御を行う方式も知られている。これは例えば文
献2:特開平10−336675号に示されているよう
に、同じ動画像ファイルに対して2回符号化を行い、第
1回目の符号化で動画像ファイル全体の特性を分析し、
これに基づき最適な符号化パラメータを設定して第2回
目の符号化を行い、第2回目の符号化で得られた符号化
ビットストリームを伝送したり記録する方式である。し
かし、2パス符号化においても従来では基本的に符号化
パラメータを画像の内容に無関係に設定しており、上述
と同様の問題があった。
On the other hand, there is also known a method of performing rate control by a technique called two-pass encoding. For example, as shown in Document 2: Japanese Patent Laid-Open No. Hei 10-336675, the same moving image file is encoded twice, and the characteristics of the entire moving image file are analyzed in the first encoding. ,
Based on this, the second encoding is performed by setting an optimal encoding parameter, and the encoded bit stream obtained in the second encoding is transmitted or recorded. However, also in the two-pass encoding, conventionally, the encoding parameters are basically set irrespective of the content of the image, and have the same problem as described above.

【0008】[0008]

【発明が解決しようとする課題】上述したように、従来
の動画像符号化装置においては、レート制御に際して画
像の内容に無関係にフレームレートや量子化幅などの符
号化パラメータを設定しているため、特に画像中のオブ
ジェクトの動きが激しいシーンで急激にフレームレート
が低くなって動きが不自然になったり、量子化幅が適切
でないために画像が歪むなど画質劣化が目立ち易いとい
う問題点があった。
As described above, in the conventional moving picture coding apparatus, the coding parameters such as the frame rate and the quantization width are set at the time of rate control regardless of the contents of the picture. In particular, in a scene in which the movement of an object in an image is severe, the frame rate sharply lowers and the movement becomes unnatural, or the image quality is easily deteriorated such that the image is distorted due to an inappropriate quantization width. Was.

【0009】そこで、本発明は符号化ビットレートを指
定された値に保ちつつ、画像のシーン内容に適した画質
で符号化できる動画像符号化方法および装置を提供する
ことを目的とする。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a moving picture coding method and apparatus capable of coding with an image quality suitable for the scene content of an image while maintaining a coding bit rate at a designated value.

【0010】[0010]

【課題を解決するための手段】圧縮動画像データを記憶
容量に限りのある蓄積媒体に記録したり、インターネッ
トなどでダウンロードする場合には、定められたデータ
サイズの下でなるべくシーンの状況に適したフレームレ
ートや量子化幅で効率よく符号化することが重要であ
る。このためには、発生符号量が必ずしもシーンの内容
と関係しているわけではないので、見やすい画像を得る
にはシーン内のオブジェクトの動きやシーンの内容に基
づいて符号化パラメータを決定することが望まれる。
When compressed moving image data is recorded on a storage medium having a limited storage capacity or downloaded over the Internet or the like, it is suitable for a scene situation under a predetermined data size as much as possible. It is important to perform efficient coding at the set frame rate and quantization width. For this purpose, the amount of generated code is not always related to the content of the scene, so in order to obtain an easy-to-view image, it is necessary to determine the encoding parameters based on the movement of objects in the scene and the content of the scene. desired.

【0011】上記の課題を解決するため、本発明は入力
動画像信号を時間的に連続した少なくとも一つのフレー
ムからなるシーンに分割して各シーン毎に統計的特徴量
を算出し、この統計的特徴量に基づいて各シーン毎に符
号化パラメータを生成し、この符号化パラメータを用い
て入力動画像信号を符号化することを基本的な特徴とす
る。
In order to solve the above problems, the present invention divides an input moving image signal into scenes composed of at least one frame that is temporally continuous, calculates a statistical feature for each scene, and The basic feature is that an encoding parameter is generated for each scene based on the feature amount, and the input moving image signal is encoded using the encoding parameter.

【0012】ここで、統計的特徴量は、例えば入力動画
像信号の各フレーム内に存在する動きベクトルの大きさ
と分布をシーン毎に集計することにより算出される。符
号化パラメータは、例えば少なくともフレームレートや
量子化幅を含む。
Here, the statistical feature amount is calculated by, for example, summing up the magnitude and distribution of motion vectors existing in each frame of the input moving image signal for each scene. The encoding parameters include, for example, at least a frame rate and a quantization width.

【0013】統計的特徴量として各フレーム内に存在す
る動きベクトルの大きさと分布をシーン毎に集計するこ
とに加えて、動きベクトルの大きさと分布から入力動画
像信号を得るときに使用したカメラの動きおよび画像内
のオブジェクトの動きに基づきフレームのタイプ分けを
行って該フレームのタイプ別にシーンを分類し、このシ
ーンの分類を考慮して符号化パラメータを生成してもよ
い。
[0013] In addition to counting the size and distribution of motion vectors present in each frame as statistical features for each scene, the camera used to obtain the input video signal from the size and distribution of motion vectors. A scene may be classified according to the type of the frame based on the motion and the motion of the object in the image, and the encoding parameter may be generated in consideration of the classification of the scene.

【0014】符号化パラメータとしてマクロブロック単
位の量子化幅を生成する場合、符号化されるフレーム中
のマクロブロックのうち隣接するマクロブロックとの輝
度値の分散の差が所定値以上のマクロブロックおよびオ
ブジェクトのエッジが存在するマクロブロックブロック
の量子化幅を他のマクロブロックに比して相対的に小さ
くするようにしてもよい。
When a quantization width in units of macroblocks is generated as an encoding parameter, among macroblocks in a frame to be encoded, a macroblock whose luminance value variance from an adjacent macroblock is equal to or larger than a predetermined value is determined. The quantization width of a macroblock block in which an edge of an object exists may be made relatively smaller than that of other macroblocks.

【0015】このように本発明では、入力動画像信号の
各シーン毎に算出した統計的特徴量に基づいて、各シー
ン毎に入力動画像信号の符号化に用いる符号化パラメー
タを生成することによって、オブジェクトやカメラの動
きが激しい時にフレームレートが低下して復号画像の視
覚的品質が低下することを防ぐことができる。
As described above, according to the present invention, an encoding parameter used for encoding an input video signal is generated for each scene based on a statistical feature calculated for each scene of the input video signal. Further, it is possible to prevent the frame rate from decreasing when the movement of the object or the camera is intense and the visual quality of the decoded image from decreasing.

【0016】また、画像内のオブジェクトの動きやカメ
ラの動き等に基づく画像の特徴量を符号化パラメータに
反映させ、それに基づきフレームレートを変化させたり
マクロブロック毎に量子化幅を変化させることで、同じ
発生符号量でもシーン毎にまとまりのある良好な復号画
像を得るようにすることができる。
Further, by reflecting the feature amount of the image based on the motion of the object in the image, the motion of the camera, and the like in the coding parameter, the frame rate is changed based on the feature amount, or the quantization width is changed for each macroblock. It is possible to obtain a coherent and good decoded image for each scene even with the same generated code amount.

【0017】さらに、本発明は同じ動画像ファイルの入
力動画像信号に対して2回あるいはそれ以上の回数にわ
たって符号化を行う動画像符号化装置にも適用できる。
すなわち、入力動画像信号の各シーン毎に算出された統
計的特徴量に基づいて各シーン毎に生成された第1の符
号化パラメータを用いて入力動画像信号を符号化する第
1回目の符号化を行い、この符号化により生成された符
号列の発生符号量の目標符号量に対する過不足を判定
し、この判定結果に基づき第1の符号化パラメータを修
正して第2の符号化パラメータとし、この第2の符号化
パラメータを用いて入力動画像信号について第2回目の
符号化を行って符号列を生成し、これを符号化出力とし
て出力する。
Further, the present invention can be applied to a moving picture coding apparatus for coding an input moving picture signal of the same moving picture file twice or more times.
That is, a first code for encoding an input video signal using a first encoding parameter generated for each scene based on a statistical feature amount calculated for each scene of the input video signal And determining whether the generated code amount of the code string generated by this coding is larger or smaller than the target code amount, and correcting the first coding parameter based on the determination result to obtain the second coding parameter. The second coding parameter is used to perform a second coding on the input video signal to generate a code sequence, which is output as a coded output.

【0018】このように先のように生成された符号化パ
ラメータを発生符号量を常に監視しながら修正して、2
回あるいはそれ以上符号化を繰り返すことで、目標符号
量以下のデータサイズで良好な復号画質を得ることが可
能な符号化を実現することができる。
The coding parameters generated as described above are corrected while constantly monitoring the generated code amount, and
By repeating the coding one or more times, it is possible to realize coding capable of obtaining good decoded image quality with a data size equal to or smaller than the target code amount.

【0019】[0019]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1は、本発明の一実施形態に係
る動画像符号化装置の構成を示すブロック図である。入
力動画像信号100は、同じ信号を繰り返し複数回再生
可能なディジタルVTRやDVDシステムのようなビデ
オ記録再生機器によって再生される動画像信号(映像信
号)であり、符号化部10に入力される。符号化部10
は、この例ではMPEG方式に基づく動画像符号化装置
と同様の構成である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a video encoding device according to an embodiment of the present invention. The input moving image signal 100 is a moving image signal (video signal) reproduced by a video recording / reproducing device such as a digital VTR or a DVD system capable of repeatedly reproducing the same signal a plurality of times, and is input to the encoding unit 10. . Encoding unit 10
Has the same configuration as the moving picture coding apparatus based on the MPEG system in this example.

【0020】符号化部10においては、まずフレームメ
モリ11に入力動画像信号100から選択された符号化
対象フレームの画像信号が格納される。フレームメモリ
11から読み出された符号化対象フレームの動画像信号
101は、減算器12と動き補償予測器19に入力され
る。動き補償予測器19は、動きベクトル検出回路を内
蔵しており、動き補償予測により予測信号109を生成
する。
In the encoding unit 10, first, the frame memory 11 stores the image signal of the encoding target frame selected from the input moving image signal 100. The moving image signal 101 of the encoding target frame read from the frame memory 11 is input to the subtractor 12 and the motion compensation predictor 19. The motion compensation predictor 19 has a built-in motion vector detection circuit, and generates a prediction signal 109 by motion compensation prediction.

【0021】符号化対象フレームにはIピクチャ、Pピ
クチャおよびBピクチャの3種類の画像タイプがある
が、動き補償予測器19は符号化対象フレームがIピク
チャの場合は動きベクトル検出を行わず、予測信号10
9として0を出力し、符号化対象フレームがPピクチャ
またはBピクチャの場合は、符号化対象フレームの動画
像信号101からマクロブロック毎に動きベクトルを検
出し、予測信号109を生成する。
Although there are three types of picture types, ie, I picture, P picture and B picture, in the current frame to be coded, the motion compensation predictor 19 does not perform motion vector detection when the current frame to be coded is an I picture. Prediction signal 10
When the encoding target frame is a P picture or a B picture, a motion vector is detected for each macro block from the video signal 101 of the encoding target frame, and a prediction signal 109 is generated.

【0022】動きベクトルの検出は、符号化対象フレー
ムの動画像信号101とビデオメモリ18に記憶されて
いる既に符号化がなされたフレームの局部復号信号から
なる参照画像信号との間でマクロブロックと呼ばれる単
位で行われる。具体的には、符号化対象フレームの動画
像信号101のマクロブロックに対して参照画像信号の
最も相関の高いマクロブロックを検出することにより、
動画像信号101のマクロブロックが参照画像信号のど
のマクロブロックから動いたものかを示す情報が動きベ
クトルとして検出される。
The detection of the motion vector is performed by converting the macroblock between the moving picture signal 101 of the frame to be coded and the reference picture signal, which is stored in the video memory 18 and is a local decoded signal of the already coded frame. This is done in units called. Specifically, by detecting the macroblock having the highest correlation of the reference image signal with respect to the macroblock of the moving image signal 101 of the encoding target frame,
Information indicating from which macro block of the reference image signal the macro block of the moving image signal 101 has been detected is detected as a motion vector.

【0023】動き補償予測器19では、この動きベクト
ルを用いて参照画像信号に対して動き補償が行われ、予
測信号109が生成される。すなわち、動き補償予測器
19においては、動き補償フレーム間予測と符号化対象
フレームの動画像信号101をそのまま符号化するフレ
ーム内符号化(予測信号=0)のうち、好適な方の予測
モードが選択され、その予測モードに対応する予測信号
109が出力される。
The motion compensation predictor 19 performs motion compensation on the reference image signal using the motion vector, and generates a prediction signal 109. That is, in the motion compensation predictor 19, a preferred prediction mode is selected from the motion compensation inter-frame prediction and the intra-frame encoding (prediction signal = 0) for directly encoding the moving image signal 101 of the encoding target frame. The prediction signal 109 corresponding to the selected prediction mode is output.

【0024】減算器12では、符号化対象フレームの動
画像信号101と動き補償予測器19からの予測信号1
09との差がとられ、予測誤差信号102が生成され
る。この予測誤差信号102は、離散コサイン変換器1
3により一定の大きさのブロック単位で離散コサイン変
換(DCT)される。離散コサイン変換により得られた
DCT係数データ103は、量子化器14で量子化され
る。量子化器14で量子化されたDCT係数データ10
4は二分岐され、一方で可変長符号化器20に入力さ
れ、他方で逆量子化器15により逆量子化される。逆量
子化されたDCT係数データ105は、さらに逆離散コ
サイン変換器16で逆離散コサイン変換(逆DCT)さ
れる。
In the subtracter 12, the video signal 101 of the encoding target frame and the prediction signal 1 from the motion compensation
09 and a prediction error signal 102 is generated. The prediction error signal 102 is calculated by the discrete cosine converter 1
3, a discrete cosine transform (DCT) is performed for each block of a fixed size. The DCT coefficient data 103 obtained by the discrete cosine transform is quantized by the quantizer 14. DCT coefficient data 10 quantized by the quantizer 14
4 is bifurcated, and is input to the variable length encoder 20 on the one hand, and is inversely quantized by the inverse quantizer 15 on the other hand. The inversely quantized DCT coefficient data 105 is further subjected to inverse discrete cosine transform (inverse DCT) by the inverse discrete cosine transformer 16.

【0025】逆離散コサイン変換器16からの出力10
6は、加算器17で予測信号109と加算されて局部復
号信号107となり、ビデオメモリ18に参照画像信号
として記憶される。ビデオメモリ18に記憶された参照
画像信号は、動き補償予測器19に読み出され、動き補
償フレーム間予測が行われる。
Output 10 from inverse discrete cosine transformer 16
6 is added to the prediction signal 109 by the adder 17 to form a local decoded signal 107, which is stored in the video memory 18 as a reference image signal. The reference image signal stored in the video memory 18 is read out by a motion compensation predictor 19, and motion compensation inter-frame prediction is performed.

【0026】動き補償予測器19からは動き補償予測の
予測モードと動きベクトルを示す予測モード/動きベク
トル情報110も出力され、可変長符号化器20に入力
される。可変長符号化器20では、量子化されたDCT
係数データ104と予測モード/動きベクトル情報11
0がそれぞれ可変長符号化され、得られた可変長符号の
符号列(以下、符号化ビットストリームという)111
が出力される。符号化ビットストリーム111は、バッ
ファ21に一時記憶される。
The motion compensation predictor 19 also outputs a prediction mode of motion compensation prediction and prediction mode / motion vector information 110 indicating a motion vector, and inputs the information to the variable length encoder 20. In the variable length encoder 20, the quantized DCT
Coefficient data 104 and prediction mode / motion vector information 11
0 are respectively subjected to variable-length coding, and a code string of the obtained variable-length code (hereinafter, referred to as a coded bit stream) 111
Is output. The coded bit stream 111 is temporarily stored in the buffer 21.

【0027】本実施形態では、同一の動画像ファイル、
つまり同じ映画などの同一内容の入力動画像信号100
に対して、2回の符号化が上述した基本動作によって行
われる。さらに、本実施形態においては画像特徴量算出
部31、符号化パラメータ生成部32、符号量判定部3
3および符号化パラメータ修正部34が設けられてお
り、第1回目の符号化時に画像特徴量の算出とそれに基
づく符号化パラメータの設定が行われ、第2回目の符号
化時に符号化ビットストリーム111の発生符号量の判
定とそれに基づく符号化パラメータの修正が行われる。
In this embodiment, the same moving image file,
That is, the input moving image signal 100 of the same content such as the same movie
In contrast, two encodings are performed by the basic operation described above. Further, in the present embodiment, the image feature amount calculation unit 31, the encoding parameter generation unit 32, and the code amount determination unit 3
3 and an encoding parameter correction unit 34, which calculate an image feature amount and set an encoding parameter based on the image feature amount at the first encoding, and the encoded bit stream 111 at the second encoding. Is determined and the encoding parameters are corrected based on the determination.

【0028】すなわち、第1回目の符号化時には、入力
動画像信号100はフレームメモリ11に入力される前
に画像特徴量算出部31に入力され、ここで画像の統計
的特徴量(以下、画像特徴量という)130が算出され
る。この画像特徴量130は後に詳しく説明するよう
に、少なくとも入力動画像信号100の各フレーム内の
動きベクトルの大きさと分布をシーン毎に集計した統計
的特徴量である。画像特徴量130の算出に際しては、
まず入力動画像信号100のフレーム間差分値から急激
に輝度が変化するフレームを検出して、そのフレームを
シーンの区切りの先頭フレームとし、この後に入力動画
像信号100から各フレームに対して動きベクトルの
数、分布、大きさ、輝度・色差の分散等を算出し、これ
らをシーン毎に平均化することによって、シーン毎の特
徴量の代表値を画像特徴量130として得る。
That is, at the time of the first encoding, the input moving image signal 100 is input to the image characteristic amount calculating section 31 before being input to the frame memory 11, where the statistical characteristic amount of the image (hereinafter referred to as image 130 is calculated. As will be described in detail later, the image feature amount 130 is a statistical feature amount in which at least the magnitude and distribution of a motion vector in each frame of the input moving image signal 100 are totaled for each scene. When calculating the image feature amount 130,
First, a frame whose luminance changes rapidly from the inter-frame difference value of the input moving image signal 100 is detected, and the detected frame is set as the first frame of a scene break. By calculating the number, distribution, size, variance of luminance / color difference, and the like, and averaging these for each scene, a representative value of the feature amount for each scene is obtained as the image feature amount 130.

【0029】こうして算出されたシーン毎の画像特徴量
130の情報は、符号化パラメータ生成部32に入力さ
れる。符号化パラメータ生成部32は、可変長符号化器
20で生成された符号化ビットストリーム111のデー
タサイズがユーザにより指定されたサイズ以下となるよ
うに符号化を行うための符号化パラメータ131を生成
するものであり、画像特徴量130を後述の符号化パラ
メータ作成式に当てはめることで符号化パラメータ13
1を生成する。ここで得られる符号化パラメータ131
は、フレームレートFRと量子化幅QPである。
The information on the image characteristic amount 130 for each scene calculated in this way is input to the encoding parameter generation unit 32. The encoding parameter generation unit 32 generates an encoding parameter 131 for performing encoding such that the data size of the encoded bit stream 111 generated by the variable length encoder 20 is equal to or smaller than the size specified by the user. By applying the image feature amount 130 to an encoding parameter creation formula described later, the encoding parameter 13
1 is generated. Encoding parameter 131 obtained here
Is a frame rate FR and a quantization width QP.

【0030】第1回目の符号化時には、符号化パラメー
タ生成部32で生成されたフレームレートFRの値に従
って、符号化対象フレームの動画像信号101が入力動
画像信号100の中から選択され、フレームメモリ10
に格納される。このフレームがシーンの区切りのような
Iピクチャならば、動きベクトル検出は行われず、フレ
ーム内符号化が行われ、PピクチャまたはBピクチャな
らば動き補償予測に基づくフレーム間符号化が行われる
ことになる。
At the time of the first encoding, the moving image signal 101 of the encoding target frame is selected from the input moving image signal 100 in accordance with the value of the frame rate FR generated by the encoding parameter generating unit 32. Memory 10
Is stored in If this frame is an I picture such as a scene break, motion vector detection is not performed and intra-frame coding is performed. If this frame is a P picture or B picture, inter-frame coding based on motion compensation prediction is performed. Become.

【0031】また、フレーム内符号化、フレーム間符号
化のいずれの場合も、離散コサイン変換器13から出力
されるDCT係数データ103は、量子化器14におい
て符号化パラメータ生成部32によってシーン毎に生成
された量子化幅QPに従って量子化器14で量子化され
る。量子化されたDCT係数データ104は、前述のよ
うに可変長符号化器20で予測モード/動きベクトル情
報110と共に可変長符号化器20で符号化され、さら
に量子化幅QPの情報と結合されて符号化ビットストリ
ーム111としてバッファ21に出力される。
In either case of intra-frame encoding or inter-frame encoding, the DCT coefficient data 103 output from the discrete cosine transformer 13 is encoded by the encoding parameter generator 32 in the quantizer 14 for each scene. The quantization is performed by the quantizer 14 according to the generated quantization width QP. The quantized DCT coefficient data 104 is encoded by the variable length encoder 20 together with the prediction mode / motion vector information 110 by the variable length encoder 20 as described above, and further combined with the information of the quantization width QP. And output to the buffer 21 as an encoded bit stream 111.

【0032】こうして第1回目の符号化が終了すると、
符号化量判定部33でバッファ21に格納されている符
号化ビットストリーム111の発生符号量133の目標
符号量134に対する過不足が判定される。そして、こ
の判定結果に従って、符号化パラメータ生成部32で生
成された符号化パラメータが符号化パラメータ修正部3
4により修正される。
When the first encoding is completed,
The coding amount determination unit 33 determines whether the generated code amount 133 of the coded bit stream 111 stored in the buffer 21 is larger or smaller than the target code amount 134. Then, according to the determination result, the encoding parameter generated by the encoding parameter generation unit 32 is
4 to be modified.

【0033】すなわち、符号量判定部33において発生
符号量133とユーザにより指定されている目標符号量
134との差が閾値を越えていると判定されると、符号
化パラメータ修正部34で発生符号量133が目標符号
量134に近くなるように符号化パラメータの修正が行
われ、この修正された符号化パラメータ136に従って
第2回目の符号化が行われる。この第2回目の符号化に
より発生符号量133と目標符号量134との差が閾値
以下になると、バッファ21に記憶されている符号化ビ
ットストリームが符号化出力200として出力される。
この符号化出力200は、伝送路に送出されるか、また
は蓄積媒体に記憶される。
That is, when the code amount determining section 33 determines that the difference between the generated code amount 133 and the target code amount 134 specified by the user exceeds the threshold, the coding parameter correcting section 34 generates the generated code amount. The coding parameter is corrected so that the amount 133 approaches the target code amount 134, and the second coding is performed according to the corrected coding parameter 136. When the difference between the generated code amount 133 and the target code amount 134 becomes equal to or smaller than the threshold value by the second encoding, the encoded bit stream stored in the buffer 21 is output as the encoded output 200.
This encoded output 200 is sent out on a transmission line or stored in a storage medium.

【0034】本実施形態の動画像符号化装置において、
画像特徴量算出部31で前述のようにして算出される画
像特徴量130は、各シーンの画像の動きの激しさや画
像の細かさを示す値であり、これが符号化パラメータ生
成部32で生成される符号化パラメータ131や符号化
パラメータ修正部34で修正される符号化パラメータ1
36に反映されて符号化が行われる。
In the moving picture coding apparatus of the present embodiment,
The image feature amount 130 calculated by the image feature amount calculation unit 31 as described above is a value indicating the intensity of the motion of the image of each scene and the fineness of the image, which is generated by the encoding parameter generation unit 32. Encoding parameter 131 or encoding parameter 1 modified by the encoding parameter modifying unit 34
The encoding is performed by reflecting the result on the line 36.

【0035】この結果、図2に示すようにシーンの内容
に適した符号化パラメータ(フレームレート、量子化
幅)に従って符号化を行うことができる。すなわち、動
きの少ないシーン(j)ではフレームレートを低くし、
かつ各フレーム内でマクロブロック毎に量子化幅を変化
させることによって、復号画像が比較的細かい画像とな
るようにして、オブジェクトやテロップ等の視覚的に注
目されやすい領域の画質劣化を防止するようにする。
As a result, as shown in FIG. 2, encoding can be performed according to the encoding parameters (frame rate, quantization width) suitable for the contents of the scene. That is, in scene (j) with little motion, the frame rate is lowered,
In addition, by changing the quantization width for each macroblock in each frame, the decoded image is made to be a relatively fine image, and the image quality of an area that is easily noticed, such as an object or a telop, is prevented. To

【0036】逆に、動きの激しいシーン(j+1)では
フレームレートを高くし、かつ量子化幅を大きくするこ
とによって、動きの不自然さのない復号画像が得られる
ようにする。量子化幅を大きくすると、復号画像は粗く
なるが、動きの激しいシーンでは画像の粗さは目立たな
いので、あまり問題とならない。
On the other hand, in a scene (j + 1) in which the movement is intense, the frame rate is increased and the quantization width is increased, so that a decoded image free from unnatural movement can be obtained. When the quantization width is increased, the decoded image becomes coarse, but in a scene with a lot of motion, the image roughness is inconspicuous, so that there is not much problem.

【0037】図3に示すフローチャートを用いて、本実
施形態の動画像符号化装置の処理手順について説明す
る。まず、動画像信号100を入力し(ステップS1
1)、前述したシーン毎の画像の統計的特徴量である画
像特徴量を算出する(ステップS12)。この画像特徴
量算出ステップS12は、本実施形態ではシーン分割、
特徴量算出およびシーン分類の3つの処理からなってい
る。
The processing procedure of the moving picture coding apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG. First, the moving image signal 100 is input (step S1).
1) The image feature amount, which is the statistical feature amount of the image for each scene described above, is calculated (step S12). In the present embodiment, the image feature amount calculating step S12 includes scene division,
It consists of three processes of feature amount calculation and scene classification.

【0038】次に、符号化パラメータを生成する(ステ
ップS13)。この符号化パラメータ生成ステップS1
3は、フレームレートの算出、量子化幅の算出、フレー
ムレートの調整およびマクロブロック毎の量子化幅の設
定の4つの処理からなっている。
Next, an encoding parameter is generated (step S13). This encoding parameter generation step S1
Reference numeral 3 includes four processes of calculating a frame rate, calculating a quantization width, adjusting a frame rate, and setting a quantization width for each macroblock.

【0039】次に、生成された符号化パラメータに従っ
て動画像信号の符号化を行う(ステップS14)。この
符号化ステップS14の処理は前述した通りである。
Next, the moving picture signal is coded according to the generated coding parameters (step S14). The processing of the encoding step S14 is as described above.

【0040】符号化ステップS14で第1回目の符号化
が終了すると、符号量の判定、すなわち発生符号量と目
標符号量との差が閾値以下かどうかの判定を行う(ステ
ップS15)。
When the first encoding is completed in the encoding step S14, the code amount is determined, that is, whether the difference between the generated code amount and the target code amount is equal to or smaller than a threshold is determined (step S15).

【0041】符号量判定ステップS15での判定の結
果、発生符号量と目標符号量との差が閾値を越えていれ
ば、発生符号量と目標符号量との差が小さくなるように
符号化パラメータを修正し(ステップS16)、ステッ
プS16に戻って第2回目の符号化を行う。
As a result of the determination in the code amount determination step S15, if the difference between the generated code amount and the target code amount exceeds the threshold, the encoding parameter is set so that the difference between the generated code amount and the target code amount becomes small. Is corrected (step S16), and the process returns to step S16 to perform the second encoding.

【0042】そして、符号量判定ステップS15におい
て発生符号量と目標符号量との差が閾値以下であれば符
号化を終了し、符号化ステップS14で得られた符号化
ビットストリームを符号化出力として出力する(ステッ
プS17)。従って、符号化は1回で終了することもあ
るし、2回あるいはそれ以上の回数にわたって行われる
こともある。
If the difference between the generated code amount and the target code amount is equal to or smaller than the threshold value in the code amount determination step S15, the coding is terminated, and the coded bit stream obtained in the coding step S14 is used as a coded output. Output (Step S17). Therefore, the encoding may be completed once, or may be performed twice or more times.

【0043】次に、本実施形態の特徴部分である画像特
徴量算出部31、符号化パラメータ生成部32、符号量
判定部33および符号化パラメータ修正部34の個々の
処理についてさらに詳しく説明する。
Next, the individual processes of the image feature amount calculation unit 31, the coding parameter generation unit 32, the code amount determination unit 33, and the coding parameter correction unit 34, which are characteristic parts of the present embodiment, will be described in further detail.

【0044】[特徴量算出部31について]特徴量算出
部31は、以下に示すようにまずシーン分割を行った
後、特徴量の算出を行い、最後にシーンの分類を行う。
[Regarding Feature Amount Calculating Unit 31] The feature amount calculating unit 31 first divides a scene as described below, calculates a feature amount, and finally classifies a scene.

【0045】<シーン分割>入力動画像信号100は、
隣接フレーム間の差分によりフラッシュフレームや雑音
フレームなどのフレームを除いて複数のシーンに分割さ
れる。ここで、フラッシュフレームとは例えばニュース
番組でのインタビューシーンで、フラッシュ(ストロ
ボ)が発光した瞬間のように、輝度が急激に高くなるフ
レームである。また、雑音フレームとはカメラの振れ等
により画像が大きく劣化したフレームである。このシー
ン分割処理の具体例について、図4に示すフローチャー
トと図5および図6を用いて説明する。
<Scene Division> The input moving image signal 100 is
The scene is divided into a plurality of scenes excluding frames such as a flash frame and a noise frame by a difference between adjacent frames. Here, the flash frame is, for example, an interview scene in a news program, and is a frame in which the luminance sharply increases, such as at the moment when a flash (flash) is emitted. A noise frame is a frame in which an image is greatly deteriorated due to camera shake or the like. A specific example of the scene division processing will be described with reference to the flowchart shown in FIG. 4 and FIGS.

【0046】まず、i番目のフレームとi+1番目のフ
レーム間の輝度の差分値(以下、フレーム間差分値とい
う)を計算する(ステップS21)。そして、このフレ
ーム間差分値をユーザにより予め定められたある閾値T
hreと比較する(ステップS22)。この比較の結
果、フレーム間差分値がThheに満たない場合は、i
=i+1として(ステップS23)、ステップS21に
戻る。
First, a difference value of luminance between the i-th frame and the (i + 1) -th frame (hereinafter, referred to as an inter-frame difference value) is calculated (step S21). Then, this inter-frame difference value is set to a certain threshold T predetermined by the user.
hre (step S22). As a result of this comparison, if the inter-frame difference value is less than Theh, i
= I + 1 (step S23), and the process returns to step S21.

【0047】i番目のフレームとi+1番目のフレーム
のフレーム間差分値がThhe以上の場合は、次にi+
1番目のフレームとi+2番目のフレームのフレーム間
差分値を計算する(ステップS24)。そして、このフ
レーム間差分値を同様に閾値Threと比較する(ステ
ップS25)。
If the inter-frame difference value between the i-th frame and the (i + 1) -th frame is equal to or greater than Theh, then i +
An inter-frame difference value between the first frame and the (i + 2) th frame is calculated (step S24). Then, the inter-frame difference value is similarly compared with the threshold value Threshold (step S25).

【0048】ステップS25の比較の結果、フレーム間
差分値がThhe以上の場合、つまり図5に示すように
i番目のフレームとi+1番目のフレームのフレーム間
差分値と、i+1番目のフレームとi+2番目のフレー
ムのフレーム間差分値のいずれも閾値Thre以上(差
分大)の場合は、i番目のフレームとi+1番目のフレ
ームはそれぞれ異なるシーンに属すると判断し、i+1
番目のフレームをシーンの区切りとする。すなわち、i
番目のフレームをシーンの区切りの後尾フレームとし、
i+1番目のフレームをシーンの区切りの先頭フレーム
とする。
As a result of the comparison in step S25, when the inter-frame difference value is equal to or greater than Theh, that is, as shown in FIG. 5, the inter-frame difference value between the i-th frame and the (i + 1) -th frame, the i + 1-th frame and the (i + 2) -th frame If all of the inter-frame difference values of the frames are equal to or larger than the threshold value Thr (large difference), it is determined that the i-th frame and the (i + 1) -th frame belong to different scenes, and i + 1
The ith frame is a scene break. That is, i
The frame at the end is the last frame of the scene break,
The (i + 1) th frame is set as the first frame of a scene break.

【0049】一方、ステップS25の比較の結果、フレ
ーム間差分値がThheに満たない場合、つまりi番目
のフレームとi+1番目のフレームのフレーム間差分値
は閾値Thre以上であるが、i+1番目のフレームと
i+2番目のフレームのフレーム間差分値は閾値Thr
eに満たない場合は、例えば図6に示すようにi+1番
目のフレームはフラッシュフレーム(あるいは雑音フレ
ーム)であって、i番目、i+1番目およびi+2番目
のフレームは同じシーンに属しており、i+1番目のフ
レームはシーンの区切りではないと判断し、i=i+2
として(ステップS26)、ステップS21に戻る。
On the other hand, as a result of the comparison in step S25, if the inter-frame difference value is less than Theh, that is, the inter-frame difference value between the i-th frame and the (i + 1) -th frame is equal to or larger than the threshold value Thr, but the (i + 1) -th frame And the (i + 2) th frame have a threshold value Thr
If the number of frames is less than e, for example, as shown in FIG. 6, the (i + 1) th frame is a flash frame (or a noise frame), and the (i) th, (i + 1) th and (i + 2) th frames belong to the same scene, and (i + 1) th Frame is not a scene delimiter, and i = i + 2
(Step S26), and returns to step S21.

【0050】同様に、フラッシュフレームが多い映像等
に対処するために、フラッシュフレームがkフレーム連
続しているときにシーンの区切りと誤判定することを防
ぐ方法として、次のような方法も挙げられる。
Similarly, in order to cope with an image having a large number of flash frames, the following method can be used as a method for preventing erroneous determination as a scene break when k flash frames are continuous. .

【0051】すなわち、i番目のフレームとi+1番
目、i+2番目、…i+k番目のフレームのフレーム間
差分値がいずれもThre以上で、かつi番目のフレー
ムとi+k+1番目のフレームのフレーム間差分値もT
hre以上である場合に、i番目のフレームとi+1番
目のフレームはそれぞれ異なるシーンに属するとし、i
+1番目のフレームをシーンの区切りとする。
That is, the inter-frame difference values between the i-th frame and the (i + 1) -th, (i + 2) -th,... I + k-th frames are all greater than or equal to Thr, and the inter-frame difference values between the i-th frame and the (i + k + 1) -th frame are also T
hre or more, the i-th frame and the (i + 1) -th frame belong to different scenes, and i
The + 1st frame is defined as a scene break.

【0052】一方、i番目のフレームと、i+1番目、
i+2番目、…i+k番目のフレームのフレーム間差分
値がThre以上で、かつi番目のフレームとi+k+
1番目のフレームのフレーム間差分値がThre未満で
あるときは、i+1番目、i+2番目、…i+k番目の
フレームはフラッシュフレームあるいは雑音フレーム
で、i番目、…(i+k)番目、(i+k+1)番目の
フレームは同じシーンに属すると判断して、シーンの区
切りとはしない。
On the other hand, the i-th frame, the (i + 1) -th frame,
The inter-frame difference value of the (i + 2) -th, (i + k) -th frame is greater than or equal to Thr, and the i-th frame and i + k +
When the inter-frame difference value of the first frame is less than Threshold, the (i + 1) th, (i + 2) th,... I + kth frames are flash frames or noise frames, and the (i) th, ((i + k) th, (i + k + 1) th) frames are noise frames. The frames are determined to belong to the same scene, and are not set as scene breaks.

【0053】なお、上記のように連続したフラッシュフ
レームや雑音フレームをシーンの区切りとして扱うか否
かは、ユーザが予め選択して設定できるようにすること
が望ましい。
It is desirable that the user can select and set in advance whether to treat consecutive flash frames or noise frames as scene breaks as described above.

【0054】<特徴量算出>次に、入力動画像信号10
0の全フレームについて、フレーム内の動きベクトルが
存在する(動きベクトルが0でない)マクロブロックの
数・動きベクトルの大きさの平均、輝度・色差の分散等
の画像特徴量を計算する。このとき、前述のシーン分割
によりシーン区切りのフレーム、フラッシュフレームお
よび雑音フレームのいずれかと判定されたフレーム以外
のフレームに対してのみ、特徴量を計算する。さらに、
シーン分割により決定されたシーン毎に特徴量を平均化
し、その平均値を各シーンの特徴量の代表値とする。
<Characteristic Calculation> Next, the input moving image signal 10
For all 0 frames, the image feature amount such as the number of macroblocks in which a motion vector exists in the frame (the motion vector is not 0), the average of the magnitude of the motion vector, and the variance of luminance and color difference are calculated. At this time, the feature amount is calculated only for frames other than the frames determined to be any of the scene-separated frame, the flash frame, and the noise frame by the above-described scene division. further,
The feature amount is averaged for each scene determined by the scene division, and the average value is used as a representative value of the feature amount of each scene.

【0055】<シーンの分類>本実施形態では、上述の
ようにシーン分割、特徴量の算出に加えて、さらに動き
ベクトルを用いて次のようなシーンの分類を行う。
<Scene Classification> In the present embodiment, the following scene classification is performed using a motion vector in addition to the scene division and the calculation of the feature amount as described above.

【0056】各々のフレームに対する動きベクトルを算
出した後、動きベクトルの分布を調べ、シーンを分類す
る。具体的には、まず1フレーム中の動きベクトルの分
布を計算して、各フレームが図7(a)〜(e)に示す
5つのタイプのどれに属するかを調べる。
After calculating the motion vector for each frame, the distribution of the motion vector is examined to classify the scene. Specifically, first, the distribution of motion vectors in one frame is calculated, and it is checked which of the five types shown in FIGS. 7A to 7E each frame belongs to.

【0057】(a)フレーム中に動きベクトルがほとん
ど存在しない(動きベクトルが0でないマクロブロック
の数がMmin以下)。 (b)同じ向き・大きさの動きベクトルが画面全体に分
布している(動きベクトルの現れるマクロブロックの数
がMmax以上で、大きさと方向がある範囲内にあ
る)。 (c)フレーム中で特定の部分にだけ動きベクトルが現
れている(動きベクトルの現れるマクロブロックの位置
が特定の部分に集中している)。 (d)フレーム中に放射状に動きベクトルが分布してい
る。 (e)フレーム中の動きベクトルの数が多く、方向も不
揃いである。
(A) There is almost no motion vector in the frame (the number of macroblocks whose motion vector is not 0 is Mmin or less). (B) Motion vectors having the same direction and magnitude are distributed over the entire screen (the number of macroblocks in which the motion vectors appear is equal to or greater than Mmax, and the magnitude and direction are within a certain range). (C) A motion vector appears only in a specific portion in a frame (the position of a macroblock where a motion vector appears is concentrated in a specific portion). (D) Motion vectors are distributed radially in the frame. (E) The number of motion vectors in the frame is large, and the directions are also irregular.

【0058】これら(a)〜(e)のケースは、いずれ
も入力動画像信号100を得るときに使用したカメラ
や、撮影された画像内のオブジェクトの動きと密接に関
係している。すなわち、(a)ではカメラもオブジェク
トもいずれも静止している。(b)ではカメラが平行移
動している。(c)では静止している背景の中でオブジ
ェクトが動いている。(d)ではカメラがズーミングを
行っている。(e)ではカメラ、オブジェクトが共に動
いている。
Each of the cases (a) to (e) is closely related to the camera used to obtain the input moving image signal 100 and the movement of an object in a captured image. That is, in (a), both the camera and the object are stationary. In (b), the camera is moving in parallel. In (c), the object is moving in a stationary background. In (d), the camera is performing zooming. In (e), the camera and the object are both moving.

【0059】次に、以上のようにフレームが(a)〜
(e)のどのタイプに属するかのタイプ分けを行った
後、フレームのタイプ別に先のように分割されたシーン
の分類を行う。すなわち、各シーンが(a)〜(e)の
どのタイプのフレームで構成されているかどうかを判定
する。そして、判定されたシーンの分類結果(シーンを
構成するフレームのタイプ)と、先のようにして算出さ
れた特徴量を用いて、符号化パラメータ生成部で32で
以下のように符号化パラメータであるフレームレートと
量子化幅をシーン毎に決定する。
Next, as described above, the frames are (a) to
After the type is classified as to which type of (e), the scene divided as described above is classified by frame type. That is, it is determined whether each scene is composed of what type of frames (a) to (e). Then, using the classification result of the determined scene (the type of a frame constituting the scene) and the feature amount calculated as described above, the encoding parameter generation unit 32 uses the encoding parameter as follows. A certain frame rate and quantization width are determined for each scene.

【0060】[符号化パラメータ生成部32について]
符号化パラメータ生成部32は、以下に示すようにフレ
ームレート、量子化幅を順次算出し、さらに算出したフ
レームおよび量子化幅を修正する。また、マクロブロッ
クブロック毎に量子化幅を変化させる処理も行う。
[About the encoding parameter generation unit 32]
The encoding parameter generation unit 32 sequentially calculates the frame rate and the quantization width as described below, and further corrects the calculated frame and quantization width. Further, a process of changing the quantization width for each macroblock block is also performed.

【0061】<フレームレート算出>符号化パラメータ
生成部32では、まずフレームレートを決定する。特徴
量算出部31において、前述のようにシーン毎の特徴量
の代表値として動きベクトルの代表値を算出しているも
のとする。例えば、j番目のシーンの動きベクトル代表
値MVnum_jは、次式のようにそのシーンで動きの
あった平均マクロブロック数に関係する値である。すな
わち、i番目のフレーム中で動きベクトルが0でないマ
クロブロックの数をMVnum(i)とすると、MVn
um_jは次式で表される。 MVnum_j)=(j番目のシーンに含まれる全フレームのMVnum (i)の平均)×(定数倍) …(1) このj番目のシーンの動きベクトル代表値MVnum_
jを用いて、同じj番目のシーンのフレームレートFR
(j)を次式により算出する。 FR(j)=a×MVnum_j+b+w_FR …(2) ここで、a,bはユーザが指定したビットレートまたは
データサイズに対する係数、w_FRは後述する重みパ
ラメータである。
<Calculation of Frame Rate> The encoding parameter generator 32 first determines a frame rate. It is assumed that the feature value calculation unit 31 has calculated the representative value of the motion vector as the representative value of the feature value for each scene as described above. For example, a motion vector representative value MVnum _ j of the j-th scene is a value related to the average number of macroblocks for which the motion in the scene as follows. That is, assuming that the number of macroblocks whose motion vector is not 0 in the i-th frame is MVnum (i), MVn
um _ j is represented by the following equation. MVnum _ j) = average of (j-th MVnum (i of all frames included in the scene)) × (fixed multiple) ... (1) motion vector representative value of the j-th scene MVnum _
j, the frame rate FR of the same j-th scene
(J) is calculated by the following equation. FR (j) = a × MVnum _ j + b + w _ FR ... (2) where, a, b are coefficients for the bit rate or data size user specifies, the w _ FR is a weighting parameter, which will be described later.

【0062】式(2)は、シーン内の動きベクトル代表
値MVnum_jが大きくなるほど、同じシーン内のフ
レームレートFR(j)を高くすることを意味してい
る。すなわち、動きの大きいシーンほどフレームレート
を高くするということになる。
[0062] Equation (2) means that motion vector representative value MVnum _ j in the scene increases, to increase the frame rate FR (j) in the same scene. That is, the frame rate is higher for a scene with a larger motion.

【0063】なお、動きベクトル代表値MVnum_
は、フレーム中の動きベクトルの数の他に、フレーム中
の動きベクトルの大きさの絶対値和、密度なども用いる
こともある。
[0063] In addition, the motion vector representative value MVnum _ j
In addition to the number of motion vectors in a frame, the sum of absolute values of the magnitudes of motion vectors in a frame, the density, and the like may be used.

【0064】<量子化幅の算出>上述のように各々のシ
ーンに対するフレームレートを算出すると、次に各シー
ンに対する量子化幅を計算する。j番目のシーンに対す
る量子化幅QP(j)はフレームレートFR(j)と同
様、シーン内の動きベクトル代表値Mvnum_jを用
いて次式により算出する。 QP(j)=c×MVnum_j+d+w_QP …(3) ここで、c,dはユーザが指定したビットレートまたは
データサイズに対する係数、w_QPは後述する重みパ
ラメータである。
<Calculation of Quantization Width> After calculating the frame rate for each scene as described above, the quantization width for each scene is calculated. similar to the quantization scale QP (j) is the frame rate FR (j) for the j-th scene is calculated by the following equation using the motion vector representative value Mvnum _ j in the scene. QP (j) = c × MVnum _ j + d + w _ QP ... (3) where, c, d are coefficients for the bit rate or data size user specifies, the w _ QP is a weighting parameter, which will be described later.

【0065】式(3)は、動きベクトル代表値MVnu
_jが大きくなるほど、量子化幅QP(j)を大きく
することを意味している。すなわち、動きの大きいシー
ンほど量子化幅をきくし、逆に動きの小さいシーンほど
量子化幅を小さくして画像を鮮明にするということにな
る。
The equation (3) is equivalent to the motion vector representative value MVnu.
m _ j becomes larger, which means increasing the quantization width QP (j). In other words, a scene with a large motion has a larger quantization width, and a scene with a smaller motion has a smaller quantization width to sharpen an image.

【0066】<フレームレートと量子化幅の修正>上述
のように各シーンに対するフレームレートFR(j)を
算出すると、次に画像特徴量算出部31において<シー
ンの分類>の処理で得られたシーンの分類結果(シーン
を構成するフレームのタイプ)を用いて、式(2)に重
みパラメータw_FR、式(3)に重みパラメータw_
QPをそれぞれ加えて、フレームレートと量子化幅の修
正を行う。
<Correction of Frame Rate and Quantization Width> After calculating the frame rate FR (j) for each scene as described above, the image feature amount calculation unit 31 obtained the result of the <scene classification> processing. scene classification results using (type of frames constituting the scene), the weight parameter w _ FR in the formula (2), the weighting parameters in equation (3) w _
The frame rate and the quantization width are corrected by adding the QPs respectively.

【0067】すなわち、シーン分類結果がフレーム中に
動きベクトルがほとんど存在しない(a)の場合には、
フレームレートを下げて量子化幅を小さくする(w_
R、w_QPともに小さくする)。(b)の場合には、
カメラの動きが不自然にならないようになるべくフレー
ムレートを上げ、量子化幅は大きくする(w_FR、w
_QPともに大きくする)。(c)の場合には、動いて
いるオブジェクトの動き、つまり動きベクトルの大きさ
が大きいときには、フレームレートを修正する(w_
Rを大きくする)。(d)の場合は、ズーミング時にほ
とんどオブジェクトについては注目されていないと思わ
れることから、量子化幅は大きくとり、フレームレート
をできる限り上げる(w_FRを大きくし、w_QPも
大きくする)。(e)の場合でも、フレームレートを上
げ量子化幅を大きくとる(w_FR、w_QPともに大
きくする)。
That is, when the scene classification result indicates that there is almost no motion vector in the frame (a),
Decrease the frame rate and reduce the quantization width ( w_F
R, w _ QP together to reduce). In the case of (b),
The movement of the camera is raised as much as possible frame rate so as not to be unnatural, quantization width is larger (w _ FR, w
_ Increase both QP). In the case (c), when the motion of the moving object, that is, the size of the motion vector is large, the frame rate is corrected ( w_F).
R is increased). For the (d), since for most object during zooming does not seem to be of interest, the quantization width is made large, increasing as much as possible the frame rate (increasing the w _ FR, also increases w _ QP ). Even in the case of (e), a large quantization width increasing the frame rate (w _ FR, w _ QP together to increase).

【0068】このようにして設定された重みパラメータ
_FR、w_QP式(2)(3)にそれぞれ加えるこ
とにより、フレームレートと量子化幅の修正を行う。
[0068] In this way, the set weighting parameter w _ FR, by adding each of w _ QP formula (2) (3), to correct the frame rate and the quantization width.

【0069】<マクロブロック毎に量子化幅を変化させ
る場合>フレーム中にモスキートノイズが出やすいと判
定されたマクロブロックやテロップ文字のように強いエ
ッジが存在すると判定されたマクロブロックに対して、
他のマクロブロックよりも量子化幅を小さく設定するこ
とで、画質改善を図るようにしてもよい。
<When the quantization width is changed for each macroblock> For a macroblock determined to have mosquito noise likely to appear in a frame or a macroblock determined to have a strong edge such as a telop character in a frame,
The image quality may be improved by setting the quantization width smaller than that of other macroblocks.

【0070】すなわち、図5に示した符号化処理の手順
(ステップS11〜S15)において、マクロブロック
毎に量子化幅を変化させるようにユーザにより定義され
た場合には、フレーム中にモスキートノイズが出やすい
と判定されたマクロブロックやテロップ文字のように強
いエッジが存在すると判定されたマクロブロックに対し
て、他のマクロブロックよりも相対的に量子化幅を小さ
く設定することで部分的な画質改善を行う。
That is, in the coding procedure shown in FIG. 5 (steps S11 to S15), if the quantization width is changed for each macroblock by the user, mosquito noise is generated in the frame. For macroblocks that are determined to be easy to appear or macroblocks that are determined to have strong edges such as telop characters, partial image quality is set by setting the quantization width relatively smaller than other macroblocks Make improvements.

【0071】ここでは、式(5)で得られたシーン毎の
量子化幅QP(j)をさらに修正する方法を示す。符号
化対象フレームについて、図8に示すようにマクロブロ
ックをさらに4つに分けた小さなブロック毎に輝度値の
分散を計算する。この分散が大きいブロックと小さいブ
ロックが隣り合う場合に、量子化幅が大きいとモスキー
トノイズが発生しやすい。つまり、テクスチャが複雑な
ブロックの隣にテクスチャの平坦なブロックが存在する
時に、モスキートノイズが出やすくなる。
Here, a method for further correcting the quantization width QP (j) for each scene obtained by the equation (5) will be described. For the encoding target frame, as shown in FIG. 8, the variance of the luminance value is calculated for each small block obtained by further dividing the macroblock into four. When a block having a large variance is adjacent to a block having a small variance, mosquito noise is likely to occur if the quantization width is large. In other words, when a block with a flat texture exists next to a block with a complicated texture, mosquito noise is likely to appear.

【0072】そこで、輝度値の分散が大きいブロックに
小さいブロックが隣接している場合には、小さいブロッ
クの量子化幅を前述のようにして符号化パラメータとし
て生成される量子化幅QP(j)よりも小さくするよう
に設定する。逆に、モスキートノイズが出にくいと判定
されたブロックに対しては、QP(j)よりも大きい量
子化幅を設定し、発生符号量の増加を防ぐ。
Therefore, when a small block is adjacent to a block having a large variance of the luminance value, the quantization width of the small block is determined by the quantization width QP (j) generated as an encoding parameter as described above. Set to be smaller than Conversely, a quantization width larger than QP (j) is set for a block for which it is determined that mosquito noise is unlikely to appear, thereby preventing the generated code amount from increasing.

【0073】例えば、j番目のフレーム内のm番目のマ
クロブロックについて、マクロブロック内に小さな4つ
のブロックがあるとする。このとき、図8に示すよう
に、(ブロックkの分散)≧MBVarThre かつ (ブロックkに隣接するブロックの分散)<MBVarThre …(4) という組み合わせを満たす小さなブロックがあるなら
ば、このm番目のマクロブロックをモスキートノイズが
出やすいマクロブロックであると判定する。このような
モスキートノイズが出やすいマクロブロックについて
は、 QP(j)_m=QP(j)−q1 …(5) のように量子化幅QP(j)_mを小さくする。
For example, suppose that there are four small blocks in the macroblock for the mth macroblock in the jth frame. At this time, as shown in FIG. 8, if there is a small block satisfying the combination of (variance of block k) ≧ MBVarThre and (variance of block adjacent to block k) <MBVarThre (4), this m-th block It is determined that the macroblock is a macroblock in which mosquito noise is likely to appear. For such a macroblock in which mosquito noise is likely to appear, the quantization width QP (j) _m is reduced as QP (j) _m = QP (j) -q1 (5).

【0074】一方、モスキートノイズが出やすいと判定
されなかったマクロブロックについては、 QP(j)_(ノイズが出にくいMB)=QP(j)+q2 …(6) のように量子化幅を上げることで、発生符号量の増加を
防ぐ。
On the other hand, for a macroblock for which it is not determined that mosquito noise is likely to occur, the quantization width is increased as follows: QP (j) _ (MB where noise is unlikely to occur) = QP (j) + q2 (6) This prevents an increase in the generated code amount.

【0075】但し、式(4)においてMBVarThr
eはユーザにより定義される閾値である。式(5)のq
1、式(6)のq2は正の数であり、QP(j)−q1
≧(量子化幅の最小値)、QP(j)+q2≦(量子化
幅の最大値)を満たす。ここで、前述した(b)のカメ
ラの平行移動シーン、(d)のカメラのズーミングのシ
ーンと分類されたシーンについては、カメラの動きに支
配されるために画像中のオブジェクトに対する視覚的注
目度が低いと思われることからq1,q2を小さくと
る。(a)の静止シーン、(c)の動いている部分が集
中しているシーンでは、画像中のオブジェクトに対する
視覚的注目度が高いと思われることからq1,q2を大
きくとる。
However, in equation (4), MBVarThr
e is a threshold defined by the user. Q in equation (5)
1, q2 in equation (6) is a positive number, and QP (j) -q1
≧ (minimum value of quantization width), QP (j) + q2 ≦ (maximum value of quantization width). Here, the scenes classified as the above-described camera translation scene (b) and the camera zooming scene (d) are visually noticed to objects in the image because they are governed by camera movement. Are considered to be low, q1 and q2 are set small. In the still scene of (a) and the scene in which moving parts are concentrated in (c), q1 and q2 are set to be large because it is considered that the degree of visual attention to the object in the image is high.

【0076】また、文字のようなエッジが存在するマク
ロブロックについても、量子化幅を小さくすることで、
文字の部分を明瞭にさせる。具体的には、図9に示すよ
うにフレームの輝度値データに対してエッジ強調フィル
タを施し、マクロブロック毎に濃淡値の勾配が強い画素
を調べる。そして、このような濃淡値の勾配が強い画素
の位置を集計し、勾配の大きい画素が部分的に集中して
いるマクロブロックをエッジが存在するマクロブロック
であると判断し、式(5)に従いそのマクロブロックに
ついて量子化幅を小さくし、式(6)によりその他のマ
クロブロックの量子化幅を大きくする。
Also, for a macroblock having an edge such as a character, by reducing the quantization width,
Make the character parts clear. Specifically, as shown in FIG. 9, an edge emphasis filter is applied to the luminance value data of the frame, and a pixel having a strong gradient of the gray value is examined for each macroblock. Then, the positions of such pixels having a strong gradient of the gray value are totaled, and a macroblock in which pixels having a large gradient are partially concentrated is determined to be a macroblock having an edge. The quantization width is reduced for the macroblock, and the quantization widths of the other macroblocks are increased according to equation (6).

【0077】[符号化部10について]符号化部10の
処理は、従来のMPEG方式の動画像符号化装置と同様
であるが、ここでは上記のようにして符号化パラメータ
生成部31で生成された符号化パラメータに従って第1
回目の符号化を行う。この場合、区切られた個々のシー
ンの中では、基本的に固定のフレームレート、固定の量
子化幅で符号化を行う。すなわち、j番目のシーンに対
しては、シーンの最初のフレーム(j_start)か
ら最後のフレーム(j_end)までフレームレートF
R(j)、量子化幅QP(j)で符号化する。
[Regarding the Encoding Unit 10] The processing of the encoding unit 10 is the same as that of the conventional moving picture encoding apparatus of the MPEG system, but here, the encoding parameter is generated by the encoding parameter generation unit 31 as described above. First according to the coding parameters
Perform the third encoding. In this case, encoding is basically performed at a fixed frame rate and a fixed quantization width in each divided scene. That is, for the j th scene, frame rate F from the first frame of a scene (j_start) to the last frame (j _ end The)
R (j) and the quantization width QP (j).

【0078】ただし、符号化パラメータ生成部31にお
いて、前述の<マクロブロック毎に量子化幅を変化させ
る場合>の処理を行った場合は、同じシーン内、同じフ
レーム内でもマクロブロック毎に設定した量子化幅を用
いて符号化を行う[符号量判定部33について]符号量
判定部33では、前述したように符号化部10から出力
される符号化ビットストリーム111の発生符号量13
3と目標符号量134とを比較し、発生符号量133と
目標符号量134の差が閾値を越えていれば、符号量判
定部33は符号化パラメータ修正部34に符号化パラメ
ータを修正する旨の指示を出し、符号化パラメータ修正
後、第2回目の符号化を行うように符号化部10を図示
しないシステム制御部を介して制御する。発生符号量1
33が目標符号量134以下の値で、かつその差が閾値
以下であってほぼ妥当な範囲内で両者が近ければ符号化
終了とし、バッファ21に記憶された符号化ビットスト
リームを符号化出力200として伝送路または蓄積媒体
へ送出する。
However, in the case where the above-described processing of <in the case where the quantization width is changed for each macroblock> is performed in the encoding parameter generation unit 31, the setting is made for each macroblock even in the same scene or the same frame. [Regarding the Code Amount Determining Unit 33] for Encoding Using the Quantization Width The code amount determining unit 33 generates the generated code amount 13 of the encoded bit stream 111 output from the encoding unit 10 as described above.
3 and the target code amount 134, and if the difference between the generated code amount 133 and the target code amount 134 exceeds the threshold, the code amount determination unit 33 instructs the coding parameter correction unit 34 to correct the coding parameter. And the encoding unit 10 is controlled via a system control unit (not shown) so as to perform the second encoding after the encoding parameters are corrected. Generated code amount 1
If 33 is a value equal to or less than the target code amount 134 and the difference is equal to or less than the threshold value and the two are close to each other within a substantially reasonable range, the encoding is terminated, and the encoded bit stream stored in the buffer 21 is encoded. To the transmission path or storage medium.

【0079】[符号化パラメータ修正部34について]
符号化パラメータ修正部34では、符号量判定部33の
判定結果を受けて符号化パラメータを修正する。例えば
目標符号量134より発生符号量134が大きい場合に
は全体的にフレームレートを下げたり、あるいは量子化
幅を大きくしたり、量子化幅につける傾斜を小さくす
る。発生符号量133が目標符号量134より小さい場
合には、全体的にフレームレートを上げたり、あるいは
量子化幅を小さくしたり、量子化幅につける傾斜を大き
くしたりする。量子化幅に傾斜をつけるとは、フレーム
中で中央部分のマクロブロックの量子化幅を小さく、周
辺部分のマクロブロックの量子化幅を大きくするなど、
同一フレーム内でマクロブロックの位置によって量子化
幅に差を付けることである。
[Regarding the Coding Parameter Correction Unit 34]
The coding parameter correction unit 34 corrects the coding parameter based on the determination result of the code amount determination unit 33. For example, when the generated code amount 134 is larger than the target code amount 134, the frame rate is reduced as a whole, the quantization width is increased, or the gradient applied to the quantization width is reduced. When the generated code amount 133 is smaller than the target code amount 134, the frame rate is increased as a whole, the quantization width is reduced, or the gradient applied to the quantization width is increased. Increasing the quantization width means that the quantization width of the central macroblock in the frame is reduced and the quantization width of the peripheral macroblock is increased in the frame.
This is to provide a difference in quantization width depending on the position of a macroblock in the same frame.

【0080】この符号化パラメータの修正は、具体的に
は符号化パラメータ生成部31で生成されたフレームレ
ートFR(j)、量子化幅QP(j)に対してそれぞれ
重みw_refFR、w_refQPを加えることによ
り実現される。修正後のフレームレートFR′(j)、
量子化幅QP′(j)は次式のようになる。 FR′(j)=FR(j)+w_refFR …(7) QP′(j)=QP(j)+w_refQP …(8) 符号化部10では、こうして修正された符号化パラメー
タであるフレームレートFR′(j)、量子化幅QP′
(j)を用いて第2回目の符号化を行うことになる。
The modification of the encoding parameters is performed by adding weights w_refFR and w_refQP to the frame rate FR (j) and the quantization width QP (j) generated by the encoding parameter generation unit 31, respectively. Is realized by: The corrected frame rate FR '(j),
The quantization width QP '(j) is as follows. FR ′ (j) = FR (j) + w_refFR (7) QP ′ (j) = QP (j) + w_refQP (8) In the encoding unit 10, the frame rate FR ′ ( j), quantization width QP '
The second encoding is performed using (j).

【0081】なお、第2回目の符号化を終了しても、発
生符号量131と目標符号量134との間に閾値を越え
るような大きな差がまだ残る場合には、重みw_ref
FR、w_refQPを修正しながら図3のステップS
14〜S16の処理を繰り返し、最終的に発生符号量1
33が目標符号量134以下の値でほぼ妥当な範囲で近
くなった時点で符号化終了とし、符号化出力200を出
力する。
If a large difference exceeding the threshold value still remains between the generated code amount 131 and the target code amount 134 even after the second encoding is completed, the weight w_ref is used.
Step S in FIG. 3 while modifying FR and w_refQP
14 to S16 are repeated, and finally the generated code amount 1
When the value of 33 becomes equal to or less than the target code amount of 134 and is almost within a reasonable range, the encoding is terminated, and the encoded output 200 is output.

【0082】なお、上述の実施形態は2パス符号化を行
う場合について説明したが、本発明は一つの動画像ファ
イルの動画像信号を1回のみの符号化で終了する通常の
動画像符号化装置にも適用が可能である。
Although the above embodiment has been described with respect to the case where two-pass encoding is performed, the present invention relates to ordinary moving image encoding in which a moving image signal of one moving image file is completed only once. It is also applicable to the device.

【0083】[0083]

【発明の効果】以上説明したように、本発明によれば入
力動画像信号を時間的に連続した少なくとも一つのフレ
ームからなるシーンに分割して各シーン毎に統計的特徴
量を算出し、この統計的特徴量に基づいて各シーン毎に
符号化パラメータを生成して入力動画像信号を符号化す
ることにより、例えば動きの大きいシーンではフレーム
レートを高く設定してオブジェクトの動きを滑らかに
し、静止したシーンでは画像中の注目されやすい部分で
あるエッジやテロップ文字の部分周辺の量子化幅を小さ
く設定して画像を明瞭にすることができる。
As described above, according to the present invention, an input moving image signal is divided into scenes consisting of at least one frame that is temporally continuous, and a statistical feature amount is calculated for each scene. By generating an encoding parameter for each scene based on the statistical feature and encoding the input moving image signal, for example, in a scene with a large motion, the frame rate is set high to smooth the motion of the object, In such a scene, it is possible to set a small quantization width around an edge or a telop character portion, which is a portion that is easily noticed in the image, to clarify the image.

【0084】従って、本発明では画像中のオブジェクト
の動きやカメラの動きを考慮しない従来の動画像符号化
装置に比較して、シーン毎にまとまりのある復号画像を
得ることが可能となり、符号化ビットレートを伝送路の
伝送レートや蓄積媒体の容量等に応じて指定された値に
保ちつつ、良好な画質改善効果が得られる。
Therefore, according to the present invention, it is possible to obtain a united decoded image for each scene as compared with a conventional moving image encoding apparatus which does not consider the movement of an object in an image or the movement of a camera. Good image quality improvement effects can be obtained while maintaining the bit rate at a value specified according to the transmission rate of the transmission path, the capacity of the storage medium, and the like.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る動画像符号化装置の
構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a moving picture coding apparatus according to an embodiment of the present invention.

【図2】同実施形態の概要を説明するためのシーンの内
容に応じた符号化の例を示す図
FIG. 2 is a view showing an example of encoding according to the contents of a scene for explaining the outline of the embodiment;

【図3】同実施形態における符号化の処理手順を示すフ
ローチャート
FIG. 3 is an exemplary flowchart showing an encoding processing procedure according to the embodiment;

【図4】同実施形態におけるシーン分割の処理手順を示
すフローチャート
FIG. 4 is an exemplary flowchart showing a procedure of scene division in the embodiment;

【図5】同実施形態におけるシーン分割のためのシーン
区切りの判定動作を説明する図
FIG. 5 is an exemplary view for explaining an operation for determining a scene break for scene division in the embodiment;

【図6】同実施形態におけるフラッシュフレームの判定
動作を説明する図
FIG. 6 is an exemplary view for explaining a flash frame determination operation in the embodiment;

【図7】同実施形態における動きベクトルによるフレー
ムのタイプ分けについて説明する図
FIG. 7 is an exemplary view for explaining frame classification by a motion vector in the embodiment;

【図8】同実施形態におけるモスキートノイズの発生し
易いマクロブロックの判定について説明する図
FIG. 8 is a view for explaining determination of a macroblock in which mosquito noise is likely to occur in the embodiment.

【図9】同実施形態におけるエッジが存在するマクロブ
ロックの判定について説明する図
FIG. 9 is an exemplary view for explaining determination of a macroblock having an edge in the embodiment;

【図10】従来の動画像符号化装置におけるレート制御
の問題点を説明するためのバッファ量とフレームレート
および符号化されたフレームについての関係を示す図
FIG. 10 is a diagram illustrating a relationship between a buffer amount, a frame rate, and an encoded frame for describing a problem of rate control in a conventional moving image encoding device.

【符号の説明】[Explanation of symbols]

10…符号化部 11…フレームメモリ 13…離散コサイン変換器 14…量子化器 15…逆量子化器 16…逆離散コサイン変換器 18…ビデオメモリ 19…動き補償予測器 20…可変長符号化器 21…バッファ 31…画像特徴量算出部 32…符号化パラメータ生成部 33…符号量判定部 34…符号化パラメータ修正部 100…入力動画像信号 130…画像特徴量 131…符号化パラメータ(第1の符号化パラメータ) 133…発生符号量 134…目標符号量 135…符号量判定結果 136…修正後の符号化パラメータ(第2の符号化パラ
メータ)
DESCRIPTION OF SYMBOLS 10 ... Encoding part 11 ... Frame memory 13 ... Discrete cosine transformer 14 ... Quantizer 15 ... Inverse quantizer 16 ... Inverse discrete cosine transformer 18 ... Video memory 19 ... Motion compensation predictor 20 ... Variable length encoder DESCRIPTION OF SYMBOLS 21 ... Buffer 31 ... Image feature quantity calculation part 32 ... Coding parameter generation part 33 ... Code quantity judgment part 34 ... Coding parameter correction part 100 ... Input moving image signal 130 ... Image feature quantity 131 ... Coding parameter (first 133: generated code amount 134: target code amount 135: code amount determination result 136: corrected coding parameter (second coding parameter)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 菊池 義浩 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5C059 KK02 KK25 MA00 MA23 MA32 MB04 MC31 NN03 NN28 NN36 PP04 SS08 TA46 TA50 TA63 TB02 TC12 TC19 TC37 TC42 TD04 TD10 TD12 UA02  ────────────────────────────────────────────────── ─── Continuing from the front page (72) Inventor Yoshihiro Kikuchi 1 Tokoba R & D Center, Komukai Toshiba-cho, Kawasaki-shi, Kanagawa F-term (reference) 5C059 KK02 KK25 MA00 MA23 MA32 MB04 MC31 NN03 NN28 NN36 PP04 SS08 TA46 TA50 TA63 TB02 TC12 TC19 TC37 TC42 TD04 TD10 TD12 UA02

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】入力動画像信号を時間的に連続した少なく
とも一つのフレームからなるシーンに分割して各シーン
毎に統計的特徴量を算出し、 前記統計的特徴量に基づいて前記各シーン毎に符号化パ
ラメータを生成し、 前記符号化パラメータを用いて前記入力動画像信号を符
号化することを特徴とする動画像符号化方法。
1. An input moving image signal is divided into scenes composed of at least one frame that is temporally continuous, a statistical feature amount is calculated for each scene, and each of the scenes is calculated based on the statistical feature amount. A coding parameter is generated, and the input moving image signal is coded using the coding parameter.
【請求項2】入力動画像信号を時間的に連続した少なく
とも一つのフレームからなるシーンに分割して各シーン
毎に統計的特徴量を算出する特徴量算出ステップと、 前記特徴量算出ステップにより算出された統計的特徴量
に基づいて前記各シーン毎に第1の符号化パラメータを
生成する符号化パラメータ生成ステップと、 前記第1の符号化パラメータを用いて前記入力動画像信
号を符号化して符号列を生成する第1の符号化ステップ
と、 前記第1の符号化ステップにより生成された符号列の発
生符号量の目標符号量に対する過不足を判定する判定ス
テップと、 前記判定手段の判定結果に基づき第1の符号化パラメー
タを修正して第2の符号化パラメータを得る符号化パラ
メータ修正ステップと、 前記第2の符号化パラメータを用いて前記入力動画像信
号を符号化して符号列を生成する第2の符号化ステップ
と、 前記第2の符号化ステップにより生成された符号列を符
号化出力として出力する出力ステップとを有することを
特徴とする動画像符号化方法。
2. A feature amount calculating step of dividing an input moving image signal into scenes composed of at least one frame that is temporally continuous, and calculating a statistical feature amount for each scene; An encoding parameter generating step of generating a first encoding parameter for each of the scenes based on the statistical feature amount obtained, and encoding the input video signal using the first encoding parameter. A first encoding step of generating a sequence; a determining step of determining whether the generated code amount of the code sequence generated by the first encoding step is more or less than a target code amount; An encoding parameter modification step of modifying a first encoding parameter to obtain a second encoding parameter based on the first encoding parameter, A second encoding step of encoding the dynamic video signal to generate a code sequence; and an output step of outputting the code sequence generated by the second encoding step as an encoded output. Video encoding method.
【請求項3】入力動画像信号を時間的に連続した少なく
とも一つのフレームからなるシーンに分割し、各シーン
毎に統計的特徴量を算出する特徴量算出手段と、 前記特徴量算出手段により算出された統計的特徴量に基
づいて前記各シーン毎に符号化パラメータを生成する符
号化パラメータ生成手段と、 前記符号化パラメータを用いて前記入力動画像信号を符
号化する符号化手段とを有することを特徴とする動画像
符号化装置。
3. A feature amount calculating unit that divides an input moving image signal into scenes composed of at least one temporally continuous frame and calculates a statistical feature amount for each scene; Encoding parameter generating means for generating an encoding parameter for each of the scenes based on the statistical feature amount obtained, and encoding means for encoding the input video signal using the encoding parameter. A video encoding device characterized by the above-mentioned.
【請求項4】入力動画像信号を時間的に連続した少なく
とも一つのフレームからなるシーンに分割し、各シーン
毎に統計的特徴量を算出する特徴量算出手段と、 前記特徴量算出手段により算出された統計的特徴量に基
づいて前記各シーン毎に第1の符号化パラメータを生成
する符号化パラメータ生成手段と、 前記第1の符号化パラメータまたは該第1の符号化パラ
メータを修正した第2の符号化パラメータを用いて前記
入力動画像信号を符号化して符号列を生成する符号化手
段と、 前記符号化手段が前記第1の符号化パラメータに従って
前記入力動画像信号を符号化したときに生成される符号
列の発生符号量の目標符号量に対する過不足を判定する
判定手段と、 前記判定手段の判定結果に基づき第1の符号化パラメー
タを修正して前記第2の符号化パラメータを得る符号化
パラメータ修正手段と、 前記符号化手段が前記第2の符号化パラメータに従って
前記入力動画像信号を符号化としたときに生成される符
号列を符号化出力として出力する出力手段とを有するこ
とを特徴とする動画像符号化装置。
4. A feature amount calculating unit that divides an input moving image signal into scenes composed of at least one frame that is temporally continuous, and calculates a statistical feature amount for each scene; Coding parameter generating means for generating a first coding parameter for each of the scenes based on the statistical features obtained, and a second coding parameter obtained by correcting the first coding parameter or the first coding parameter. Encoding means for encoding the input video signal using an encoding parameter of the formula (1) to generate a code sequence; and wherein the encoding means encodes the input video signal according to the first encoding parameter. Determining means for determining whether the generated code amount of the generated code string is more or less than a target code amount; and correcting the second coding parameter based on a determination result of the determining means. Coding parameter correction means for obtaining the coding parameter of the following; and a coding sequence generated when the coding means codes the input video signal in accordance with the second coding parameter, as a coded output. A moving picture coding apparatus comprising output means.
【請求項5】前記特徴量算出手段は、少なくとも前記入
力動画像信号の各フレーム内に存在する動きベクトルの
大きさと分布をシーン毎に集計して前記統計的特徴量と
することを特徴とする請求項3または4記載の動画像符
号化装置。
5. The statistical feature amount, wherein the feature amount calculating means tabulates at least the magnitude and distribution of a motion vector present in each frame of the input moving image signal for each scene. The moving picture coding apparatus according to claim 3.
【請求項6】前記符号化パラメータ生成手段は、少なく
ともフレームレートと量子化幅を符号化パラメータとし
て生成することを特徴とする請求項3または4記載の動
画像符号化装置。
6. The moving picture coding apparatus according to claim 3, wherein said coding parameter generating means generates at least a frame rate and a quantization width as coding parameters.
【請求項7】前記特徴量算出手段は、少なくとも前記入
力動画像信号の各フレーム内に存在する動きベクトルの
大きさと分布をシーン毎に集計して前記統計的特徴量と
すると共に、該動きベクトルの大きさと分布から前記入
力動画像信号を得るときに使用したカメラの動きおよび
画像内のオブジェクトの動きに基づきフレームのタイプ
分けを行って該フレームのタイプ別にシーンを分類し、 前記符号化パラメータ生成手段は、該シーンの分類を考
慮して前記符号化パラメータを生成することを特徴とす
る請求項2記載の動画像符号化装置。
7. The feature amount calculating means sums up at least the magnitude and distribution of a motion vector present in each frame of the input moving image signal for each scene to obtain the statistical feature amount. Classifying scenes according to the type of frame based on the motion of the camera and the motion of an object in the image used to obtain the input video signal from the size and the distribution of the input video signal; 3. The moving picture coding apparatus according to claim 2, wherein the means generates the coding parameter in consideration of the scene classification.
【請求項8】前記符号化パラメータ生成手段は、前記符
号化手段により符号化されるフレーム中のマクロブロッ
クのうち隣接するマクロブロックとの輝度値の分散の差
が所定値以上のマクロブロックおよびオブジェクトのエ
ッジが存在するマクロブロックブロックの量子化幅を他
のマクロブロックに比して相対的に小さくすることを特
徴とする請求項6記載の動画像符号化装置。
8. An encoding parameter generating unit comprising: a macroblock and an object having a difference in variance of luminance values between adjacent macroblocks of a macroblock in a frame encoded by the encoding unit which is equal to or greater than a predetermined value. 7. The moving picture coding apparatus according to claim 6, wherein a quantization width of a macroblock block in which the edge of the macroblock exists is made relatively smaller than that of other macroblocks.
JP15948199A 1999-06-07 1999-06-07 Method and device for encoding moving picture Abandoned JP2000350211A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15948199A JP2000350211A (en) 1999-06-07 1999-06-07 Method and device for encoding moving picture
TW89119075A TW502542B (en) 1999-06-07 2000-09-16 Video encoding method and video encoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15948199A JP2000350211A (en) 1999-06-07 1999-06-07 Method and device for encoding moving picture

Publications (1)

Publication Number Publication Date
JP2000350211A true JP2000350211A (en) 2000-12-15

Family

ID=15694723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15948199A Abandoned JP2000350211A (en) 1999-06-07 1999-06-07 Method and device for encoding moving picture

Country Status (2)

Country Link
JP (1) JP2000350211A (en)
TW (1) TW502542B (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193990A (en) * 2002-12-11 2004-07-08 Sony Corp Information processing system, information processor, information processing method, recording medium and program
JP2005524304A (en) * 2002-04-23 2005-08-11 ノキア コーポレイション Method and apparatus for displaying quantizer parameters in a video coding system
US7075982B2 (en) 2001-06-29 2006-07-11 Kabushiki Kaisha Toshiba Video encoding method and apparatus
JP2007267020A (en) * 2006-03-28 2007-10-11 Casio Hitachi Mobile Communications Co Ltd Mobile communication terminal and program
JP2009177353A (en) * 2008-01-22 2009-08-06 Canon Inc Encoder, method of controlling the same, and computer program
JP2009232148A (en) * 2008-03-24 2009-10-08 Mega Chips Corp Transcoder
JP2009231905A (en) * 2008-03-19 2009-10-08 Mega Chips Corp Transcoder
JP2011091794A (en) * 2009-10-20 2011-05-06 Intel Corp Method and apparatus for adaptively choosing a search range for motion estimation
WO2011111292A1 (en) * 2010-03-09 2011-09-15 パナソニック株式会社 Signal processing device and moving image capturing device
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9509995B2 (en) 2010-12-21 2016-11-29 Intel Corporation System and method for enhanced DMVD processing
JP2017500830A (en) * 2013-11-04 2017-01-05 マグナム セミコンダクター, インコーポレイテッド Method and apparatus for multipath adaptive quantization
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
US10250885B2 (en) 2000-12-06 2019-04-02 Intel Corporation System and method for intracoding video data
CN110149517A (en) * 2018-05-14 2019-08-20 腾讯科技(深圳)有限公司 Method, apparatus, electronic equipment and the computer storage medium of video processing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003275672C1 (en) 2002-11-25 2009-04-30 Godo Kaisha Ip Bridge 1 Moving Picture Coding Method and Moving Picture Decoding Method

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10701368B2 (en) 2000-12-06 2020-06-30 Intel Corporation System and method for intracoding video data
US10250885B2 (en) 2000-12-06 2019-04-02 Intel Corporation System and method for intracoding video data
US7075982B2 (en) 2001-06-29 2006-07-11 Kabushiki Kaisha Toshiba Video encoding method and apparatus
JP2005524304A (en) * 2002-04-23 2005-08-11 ノキア コーポレイション Method and apparatus for displaying quantizer parameters in a video coding system
JP4586328B2 (en) * 2002-12-11 2010-11-24 ソニー株式会社 Information processing system, information processing apparatus and method, recording medium, and program
JP2004193990A (en) * 2002-12-11 2004-07-08 Sony Corp Information processing system, information processor, information processing method, recording medium and program
JP2007267020A (en) * 2006-03-28 2007-10-11 Casio Hitachi Mobile Communications Co Ltd Mobile communication terminal and program
JP2009177353A (en) * 2008-01-22 2009-08-06 Canon Inc Encoder, method of controlling the same, and computer program
US8548046B2 (en) 2008-03-19 2013-10-01 Megachips Corporation Transcoder
JP2009231905A (en) * 2008-03-19 2009-10-08 Mega Chips Corp Transcoder
JP2009232148A (en) * 2008-03-24 2009-10-08 Mega Chips Corp Transcoder
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9955179B2 (en) 2009-07-03 2018-04-24 Intel Corporation Methods and systems for motion vector derivation at a video decoder
US9445103B2 (en) 2009-07-03 2016-09-13 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
US11765380B2 (en) 2009-07-03 2023-09-19 Tahoe Research, Ltd. Methods and systems for motion vector derivation at a video decoder
US9538197B2 (en) 2009-07-03 2017-01-03 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
US10404994B2 (en) 2009-07-03 2019-09-03 Intel Corporation Methods and systems for motion vector derivation at a video decoder
JP2011091794A (en) * 2009-10-20 2011-05-06 Intel Corp Method and apparatus for adaptively choosing a search range for motion estimation
US9854167B2 (en) 2010-03-09 2017-12-26 Panasonic Intellectual Property Management Co., Ltd. Signal processing device and moving image capturing device
WO2011111292A1 (en) * 2010-03-09 2011-09-15 パナソニック株式会社 Signal processing device and moving image capturing device
JP2011188243A (en) * 2010-03-09 2011-09-22 Panasonic Corp Signal processing apparatus and moving picture image capturing apparatus
US9509995B2 (en) 2010-12-21 2016-11-29 Intel Corporation System and method for enhanced DMVD processing
JP2017500830A (en) * 2013-11-04 2017-01-05 マグナム セミコンダクター, インコーポレイテッド Method and apparatus for multipath adaptive quantization
CN110149517A (en) * 2018-05-14 2019-08-20 腾讯科技(深圳)有限公司 Method, apparatus, electronic equipment and the computer storage medium of video processing
CN110149517B (en) * 2018-05-14 2022-08-23 腾讯科技(深圳)有限公司 Video processing method and device, electronic equipment and computer storage medium

Also Published As

Publication number Publication date
TW502542B (en) 2002-09-11

Similar Documents

Publication Publication Date Title
US7023914B2 (en) Video encoding apparatus and method
US6834080B1 (en) Video encoding method and video encoding apparatus
JP3190002B2 (en) Quantization method and circuit
US5719986A (en) Video signal encoding method
US5969764A (en) Adaptive video coding method
JP4186242B2 (en) Image signal processing apparatus and image signal processing method
EP1006731B1 (en) Code amount control method and encoding apparatus for carrying it out
US5812197A (en) System using data correlation for predictive encoding of video image data subject to luminance gradients and motion
US6438165B2 (en) Method and apparatus for advanced encoder system
JP3825615B2 (en) Moving picture coding apparatus, moving picture coding method, and medium recording program
US5790196A (en) Adaptive video coding method
US20060165163A1 (en) Video encoding
JP2000350211A (en) Method and device for encoding moving picture
KR20040069210A (en) Sharpness enhancement in post-processing of digital video signals using coding information and local spatial features
US7031388B2 (en) System for and method of sharpness enhancement for coded digital video
JP3386603B2 (en) Luminance signal adaptive motion evaluation method
US4683494A (en) Inter-frame predictive coding apparatus for video signal
GB2459671A (en) Scene Change Detection For Use With Bit-Rate Control Of A Video Compression System
JP3907875B2 (en) Coding rate control device and information coding device
JP3982615B2 (en) System for converting encoded video data
JP3551666B2 (en) Moving picture coding method and moving picture coding apparatus
KR100390167B1 (en) Video encoding method and video encoding apparatus
EP0520789B1 (en) Video coder and coding method
JP2001309384A (en) Picture compressor
JP2005005862A (en) Picture coding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20070427