JP3877043B2 - Scene adaptive video encoder - Google Patents

Scene adaptive video encoder Download PDF

Info

Publication number
JP3877043B2
JP3877043B2 JP2000263900A JP2000263900A JP3877043B2 JP 3877043 B2 JP3877043 B2 JP 3877043B2 JP 2000263900 A JP2000263900 A JP 2000263900A JP 2000263900 A JP2000263900 A JP 2000263900A JP 3877043 B2 JP3877043 B2 JP 3877043B2
Authority
JP
Japan
Prior art keywords
motion
index
picture
predetermined
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000263900A
Other languages
Japanese (ja)
Other versions
JP2002077924A (en
Inventor
整 内藤
正裕 和田
修一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2000263900A priority Critical patent/JP3877043B2/en
Publication of JP2002077924A publication Critical patent/JP2002077924A/en
Application granted granted Critical
Publication of JP3877043B2 publication Critical patent/JP3877043B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
この発明はシーン適応型動画像符号化装置に関し、特に、シーン特性を基にフレーム間符号化を行うピクチャタイプを適応的に割当てるようにしたシーン適応型動画像符号化装置に関する。
【0002】
【従来の技術】
MPEG−2におけるGOP構造は、図7に示されているような構造が一般的である。すなわち、該GOP構造は、予測を使わずにフレーム内の画素値に直交変換をかけて量子化を行うI(イントラ)ピクチャと、時間的に過去に位置するIまたはPピクチャから予測符号化を行うPピクチャと、時間的に過去と未来に位置するIまたはPピクチャを用いて、両方向の画面から予測符号化を行うBピクチャから構成されており、該3種類のピクチャの組み合わせは、図示されているように、I,B,B,P,B,B,P,B,B,P,B,B,P,B,B,Iピクチャの順序にされているのが一般的である。
【0003】
【発明が解決しようとする課題】
しかしながら、前記GOP構造では、Bピクチャが、IまたはPピクチャと、該IまたはPピクチャより3画面後のP(またはI)ピクチャとにより予測されるため、動きの速い物体を映した動画像の場合、例えば図8に示すように、画面50の左端にあった物体が3画面後の画面51では、既にその右端に移動してしまっているといった場合には、Pピクチャは予測効率が低下し、予測外れを起こして、画質の低下をもたらすという問題があった。
【0004】
本発明の目的は、前記従来技術の問題点を解消し、動きの速い動画像においても画質が良好となる、シーン適応型動画像符号化装置を提供することにある。
【0005】
【課題を解決するための手段】
前記した目的を達成するために、本発明は、I,P,Bピクチャのいずれかのピクチャタイプで符号化を行う動画像符号化装置において、符号化に先立って、入力画像信号と局所復号画像信号と動き推定信号とが入力し、動き補償予測画像を生成すると共に、前記入力画像信号と動き補償予測画像との誤差を示す誤差指標Eと、前記動き補償予測画像の全マクロブロックの動きベクトルのうち予め定められた第1の閾値以上の動きベクトルが占める割合である動き指標Mとを求める動き補償部と、符号化に先立って、前記入力画像信号の全マクロブロックのうち予め定められた第2の閾値以上のマクロブロック単位の輝度分散を有するマクロブロックの割合である内挿予測指標Bを求めるシーン解析部と、前記誤差指標Eが予め定められた第3の閾値より大きくかつ前記動き指標Mが予め定められた第4の閾値より大きい時に、当該入力画像の符号化ピクチャタイプをPピクチャと決定し、前記誤差指標Eが予め定められた第3の閾値より小さくまたは前記動き指標Mが予め定められた第4の閾値より小さい時に、該内挿予測指標Bが小さいほど多くの枚数のBピクチャを挿入するピクチャタイプ選択部とを具備した点に特徴がある。
【0006】
この特徴によれば、画像の動きの大きさに応じて、符号化するピクチャタイプを決定できるので、動きの速い動画像においても画質が良好となる符号化を行えるようになる。
【0007】
【発明の実施の形態】
以下に、図面を参照して、本発明を詳細に説明する。図1は、本発明の一実施形態のシーン適応型動画像符号化装置の構成を示すブロック図である。
【0008】
図において、画像信号は、数フレーム分の画像信号を蓄積することのできるピクチャ蓄積部1と、シーン解析部3に入力する。該シーン解析部3は、後述の説明から明らかになるように、入力フレームの内挿予測指標Bを算出して、ピクチャタイプ選択部4に送る。ピクチャタイプ選択部4は、後述する動き補償部(MC部)6からの誤差指標E、動き指標M、および前記内挿予測指標Bを基に、符号化するピクチャタイプを決定する。なお、これらの動作については、後で詳しく説明する。
【0009】
ピクチャ並べ替え部2は、Bピクチャでは時間的に前後した画面を用いて符号化を行う必要があるため、ピクチャタイプ選択部4から指示されるピクチャタイプ(I,B,Pピクチャ)に合わせて画面の並べ替えを行う。該ピクチャ並べ替え部2で並べ替えられた画像信号は、減算部5に入力する。スイッチ部7a、7bは、Iピクチャの符号化時にそれぞれオン、オフにされ、P,Bピクチャの符号化時にそれぞれオフ、オンにされる。
【0010】
DCT部8は入力してきた画像信号または予測誤差信号を直交変換する。該直交変換された信号は、量子化部9で量子化され、可変長符号化部10で可変長符号化され、送信バッファ11に一旦蓄積されたあと、所定のレートでビデオビットストリームとして外部回線に送出される。一方、逆量子化部12は量子化部9で量子化された信号を逆量子化する。該逆量子化された信号は、逆DCT部13で逆直交変換されて局部復号され、加算器14で動き補償部6からの予測画像と加算され、フレームメモリ15に蓄積される。動き推定部16は、入力画像信号とフレームメモリ15に蓄積された局部復号画像から動き推定を行い、動きベクトルを動き補償部6に手渡す。動き補償部6は、前記予測画像を前記減算部5に出力すると共に、前記誤差指標Eおよび動き指標Mを算出して、前記ピクチャタイプ選択部4へ送出する。
【0011】
次に、前記ピクチャタイプ選択部4の動作を、図2のフローチャートを参照して、詳細に説明する。ステップS1では、符号化するピクチャがIピクチャであるか否かの判断をする。この判断が肯定の時には、ステップS2に進んで、当該ピクチャにIピクチャを選択して、処理を終了する。一方、ステップS1の判断が否定の時には、ステップS3に進む。
【0012】
ステップS3では、当該ピクチャがステップS11、S13で後述する予約ピクチャであるか否かの判定がなされる。この判定が肯定の時には、ステップS4に進んで、当該ピクチャに予約ピクチャが選択される。なお、予約ピクチャが選択されると、予約ピクチャ数は1減じられる。
【0013】
一方、ステップS3の判定が否定の時には、ステップS5に進む。ステップS5では、前記シーン解析部3より、内挿予測指標Bを取得する。次いで、ステップS6,S7では、動き補償部(MC部)から、それぞれ、判定ピクチャの誤差指標E、動き指標Mを取得する。続いて、ステップS8で、該誤差指標E、動き指標Mが、それぞれに対して設定された閾値δE 、δM より大きいか否かが判断される。そして、この判断が肯定の時には、ステップS9に進んで、当該ピクチャにPピクチャが選択される。この結果、動きの速い画像には、Pピクチャが選択されることになる。そして、処理を終了する。
【0014】
次に、前記ステップS8の判断が否定の時には、ステップS10に進んで、前記ステップS5で取得した内挿予測指標Bの大小に基づいて、連続して挿入するBピクチャの枚数NB が決定される。後述するように、本実施形態では、該内挿予測指標Bは、マクロブロックの輝度分散Aが所定の閾値δA 以上のマクロブロック数に比例するから、前記連続して挿入するBピクチャの枚数NB は、内挿予測指標Bが小さい程大きな枚数になる。
【0015】
ステップS11に進むと、当該ピクチャを含む後続のNB 枚のピクチャを、Bピクチャと予約する。ステップS12では、当該ピクチャから数えて(NB +1)目のピクチャをPピクチャと予約する。次いで、ステップS13に進んで当該ピクチャにBピクチャを選択して終了する。なお、前記(NB +1)目のピクチャがIピクチャと重なる時には、該Pピクチャの予約をキャンセルするようにしてもよい。
【0016】
以上の結果、動きの遅い画像の場合には、その遅さに応じた枚数のBピクチャが挿入されることになり、符号化効率を向上させることができるようになる。一方動きの速い画像の場合には、Pピクチャのみが用いられるようになり、画質の低下を防止できるようになる。
【0017】
次に、前記ステップS5の詳細を、図3のフローチャートを参照して説明する。ステップS31では、前記シーン解析部3は、入力フレームを取得する。ステップS32では、該入力フレームをマクロブロックに分割する。ステップS33では、該マクロブロック単位に、輝度分散Aを算出する。ステップS34では、該輝度分散Aがある閾値δA 以上となるマクロブロック数をカウントし、その数をCA とする。ステップS35では、前記内挿予測指標Bを、CA /MBcnt (ここに、MBcnt はフレーム内マクロブロック総数)から求める。なお、シーン解析部3は、上記に代えて、入力フレームの高周波成分の割合に基づいて、内挿予測指標Bを求めてもよい。
【0018】
次に、前記ステップS6の詳細を、図4のフローチャートを参照して説明する。ステップS41では、動き補償部6は、動き補償予測画像(MC画像)と原画像を入力とし、ステップS42では、これらの両画像から平均二乗誤差Epredを算出し格納する。ステップS43では、該平均二乗誤差Epredを前記誤差指標Eとする。なお、平均二乗誤差に代え、誤差二乗和、あるいは誤差絶対値和を用いてもよい。
【0019】
次に、前記ステップS7の詳細を、図5のフローチャートを参照して説明する。ステップS51では、動き補償部6は、フレーム予測動き補償の動きベクトルMVF を全マクロブロックについて取得する。ステップS52では、MVF に対する閾値をδMVとする時、MVF >δMVとなるマクロブロック数をカウントし、該カウント数CM を格納する。ステップS53では、CM /MBcnt (ここに、MBcnt はフレーム内マクロブロック総数)から、前記動き指標Mを求める。なお、全マクロブロックの動きベクトルの平均を、該動き指標Mとしてもよい。
【0020】
以上の説明から明らかなように、前記誤差指標Eと前記動き指標Mは共に、画像の動きが速いほど大きくなる。また、内挿予測指標Bは、画像に占める高域周波数成分の比率が高いほど大きくなる。したがって、本実施形態によれば、図6に示されているように、画像の動きが大きいと順方向予測のPピクチャが連続して選択されるようになり、動きが小さくなると、その程度に応じて、1枚、または複数枚のBピクチャがPピクチャ間に選択されることになる。
【0021】
なお、前記実施形態では、誤差指標Eと動き指標Mを用いて前記ステップS8の判定をしたが、本発明はこれに限定されず、いずれか一方のみを用いた判定であってもよく、さらには内挿予測指標Bとの併用による判定であってもよい。
【0022】
【発明の効果】
以上の説明から明らかなように、本発明によれば、画像の動きの大きさと動き補償予測の効果に応じて、符号化のピクチャタイプを選択できるようになり、適応的にピクチャタイプを選択できるようになる。すなわち、画像の動きが大きい場合にはPピクチャが選択され、一方、画像の動きが小さい場合には、複数枚のBピクチャが連続して選択されるようになるので、画質の劣化を最小限に抑制できると共に、符号化効率を向上できるようになる。
【図面の簡単な説明】
【図1】 本発明の一実施形態の構成を含む符号化装置のブロック図である。
【図2】 本発明の一実施形態の動作を示すフローチャートである。
【図3】 図2のステップS5の動作の詳細を示すフローチャートである。
【図4】 図2のステップS6の動作の詳細を示すフローチャートである。
【図5】 図2のステップS7の動作の詳細を示すフローチャートである。
【図6】 本発明の一実施形態により得られるピクチャタイプ配列の概念図である。
【図7】 従来のGOP構造の説明図である。
【図8】 動きの速い物体を有する画像の説明図である。
【符号の説明】
1…ピクチャ蓄積部、2…ピクチャ並べ替え部、3…シーン解析部、4…ピクチャタイプ選択部、6…動き補償部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a scene adaptive video encoding apparatus, and more particularly to a scene adaptive video encoding apparatus that adaptively assigns picture types for performing interframe encoding based on scene characteristics.
[0002]
[Prior art]
The GOP structure in MPEG-2 is generally a structure as shown in FIG. That is, the GOP structure performs predictive coding from an I (intra) picture that performs orthogonal transform on a pixel value in a frame without using prediction, and an I or P picture located in the past in time. P picture to be performed and B picture to perform predictive coding from the screen in both directions using I or P picture located in the past and the future in time, and the combination of the three types of pictures is shown in the figure As shown, the order of I, B, B, P, B, B, P, B, B, P, B, B, P, B, B, and I pictures is generally used.
[0003]
[Problems to be solved by the invention]
However, in the GOP structure, a B picture is predicted by an I or P picture and a P (or I) picture three screens after the I or P picture. In this case, for example, as shown in FIG. 8, when an object that has been at the left end of the screen 50 has already moved to the right end of the screen 51 after three screens, the prediction efficiency of the P picture decreases. There has been a problem that the image quality is lowered due to the unexpected prediction.
[0004]
An object of the present invention is to provide a scene-adaptive moving image encoding apparatus that solves the problems of the prior art and has good image quality even in a moving image that moves quickly.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides an input image signal and a locally decoded image prior to encoding in a video encoding apparatus that performs encoding with any one of I, P, and B picture types. A signal and a motion estimation signal are input to generate a motion compensated prediction image, an error index E indicating an error between the input image signal and the motion compensation prediction image, and motion vectors of all macroblocks of the motion compensation prediction image A motion compensation unit that obtains a motion index M that is a ratio occupied by a motion vector that is equal to or greater than a predetermined first threshold value, and a predetermined one of all macroblocks of the input image signal prior to encoding. A scene analysis unit for obtaining an interpolation prediction index B, which is a ratio of macroblocks having a luminance variance in units of macroblocks equal to or greater than a second threshold, and the error index E is predetermined. When the motion index M is greater than a predetermined fourth threshold value, the encoded picture type of the input image is determined to be a P picture, and the error index E is a predetermined third threshold value. When the motion index M is smaller or smaller than a predetermined fourth threshold, the picture type selection unit inserts a larger number of B pictures as the interpolation prediction index B is smaller. is there.
[0006]
According to this feature, since the picture type to be encoded can be determined according to the magnitude of the motion of the image, it is possible to perform encoding with good image quality even in a fast-moving moving image.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a scene adaptive moving image encoding apparatus according to an embodiment of the present invention.
[0008]
In the figure, an image signal is input to a picture storage unit 1 that can store image signals for several frames and a scene analysis unit 3. The scene analysis unit 3 calculates an interpolation prediction index B of the input frame and sends it to the picture type selection unit 4 as will be apparent from the description below. The picture type selection unit 4 determines a picture type to be encoded based on an error index E, a motion index M, and the interpolation prediction index B from a motion compensation unit (MC unit) 6 described later. These operations will be described in detail later.
[0009]
The picture rearrangement unit 2 needs to perform encoding using screens that are temporally changed in the B picture, so that the picture rearrangement unit 2 matches the picture type (I, B, P picture) specified by the picture type selection unit 4. Rearrange the screen. The image signals rearranged by the picture rearrangement unit 2 are input to the subtraction unit 5. The switch units 7a and 7b are turned on and off respectively when the I picture is encoded, and are turned off and turned on when the P and B pictures are encoded.
[0010]
The DCT unit 8 orthogonally transforms the input image signal or prediction error signal. The orthogonally transformed signal is quantized by the quantizing unit 9, variable-length coded by the variable-length coding unit 10, temporarily stored in the transmission buffer 11, and then external video as a video bit stream at a predetermined rate. Is sent out. On the other hand, the inverse quantization unit 12 inversely quantizes the signal quantized by the quantization unit 9. The inversely quantized signal is subjected to inverse orthogonal transform by the inverse DCT unit 13 and is locally decoded. The signal is added to the predicted image from the motion compensation unit 6 by the adder 14 and accumulated in the frame memory 15. The motion estimation unit 16 performs motion estimation from the input image signal and the locally decoded image stored in the frame memory 15 and hands the motion vector to the motion compensation unit 6. The motion compensation unit 6 outputs the prediction image to the subtraction unit 5, calculates the error index E and the motion index M, and sends them to the picture type selection unit 4.
[0011]
Next, the operation of the picture type selection unit 4 will be described in detail with reference to the flowchart of FIG. In step S1, it is determined whether the picture to be encoded is an I picture. When this determination is affirmative, the process proceeds to step S2, an I picture is selected as the picture, and the process ends. On the other hand, when the determination in step S1 is negative, the process proceeds to step S3.
[0012]
In step S3, it is determined whether or not the picture is a reserved picture described later in steps S11 and S13. When this determination is affirmative, the process proceeds to step S4, and a reserved picture is selected as the picture. When a reserved picture is selected, the number of reserved pictures is reduced by one.
[0013]
On the other hand, when the determination in step S3 is negative, the process proceeds to step S5. In step S5, an interpolation prediction index B is acquired from the scene analysis unit 3. Next, in steps S6 and S7, an error index E and a motion index M of the determination picture are obtained from the motion compensation unit (MC unit), respectively. Subsequently, in step S8, it is determined whether or not the error index E and the motion index M are larger than the threshold values δ E and δ M set for the respective parameters. When this determination is affirmative, the process proceeds to step S9, and a P picture is selected as the picture. As a result, the P picture is selected for the fast moving image. Then, the process ends.
[0014]
Next, when the determination in step S8 is negative, the process proceeds to step S10, and the number N of B pictures to be continuously inserted is determined based on the magnitude of the interpolation prediction index B acquired in step S5. The As described later, in the present embodiment, the inner interpolation predictor B, since the luminance dispersion A macroblock is proportional to a predetermined threshold value [delta] A more macro blocks, the number of B pictures to be inserted the succession N B becomes larger as the interpolation prediction index B is smaller.
[0015]
In step S11, the subsequent N B sheets of pictures including the picture book the B picture. In step S12, the (N B +1) th picture counted from the picture is reserved as a P picture. Next, the process proceeds to step S13, where a B picture is selected as the picture and the process ends. When the (N B +1) th picture overlaps with the I picture, the reservation of the P picture may be canceled.
[0016]
As a result, in the case of an image with slow motion, the number of B pictures corresponding to the slowness is inserted, and the coding efficiency can be improved. On the other hand, in the case of a fast-moving image, only the P picture is used, so that it is possible to prevent deterioration in image quality.
[0017]
Next, details of step S5 will be described with reference to the flowchart of FIG. In step S31, the scene analysis unit 3 acquires an input frame. In step S32, the input frame is divided into macro blocks. In step S33, the luminance variance A is calculated for each macroblock. In step S34, counting the number of macro blocks equal to or greater than the threshold value [delta] A there is luminance dispersion A, and the number and C A. In step S35, the interpolation prediction index B is obtained from C A / MB cnt (where MB cnt is the total number of macroblocks in the frame). Note that the scene analysis unit 3 may obtain the interpolation prediction index B based on the ratio of the high-frequency component of the input frame instead of the above.
[0018]
Next, details of step S6 will be described with reference to the flowchart of FIG. In step S41, the motion compensation unit 6 receives the motion compensated prediction image (MC image) and the original image, and in step S42, calculates and stores the mean square error E pred from both these images. In step S43, the mean square error E pred is set as the error index E. Instead of the mean square error, a sum of error squares or a sum of error absolute values may be used.
[0019]
Next, details of step S7 will be described with reference to the flowchart of FIG. In step S51, the motion compensation unit 6 acquires a motion vector MV F for frame prediction motion compensation for all macroblocks. In step S52, when the threshold for MV F is δ MV , the number of macroblocks satisfying MV F > δ MV is counted, and the count number CM is stored. In step S53, the motion index M is obtained from C M / MB cnt (where MB cnt is the total number of macroblocks in the frame). Note that an average of motion vectors of all macroblocks may be used as the motion index M.
[0020]
As is clear from the above description, both the error index E and the motion index M increase as the image moves faster. In addition, the interpolation prediction index B increases as the ratio of the high frequency component to the image increases. Therefore, according to the present embodiment, as shown in FIG. 6, when the motion of the image is large, P pictures for forward prediction are continuously selected. Accordingly, one or a plurality of B pictures are selected between P pictures.
[0021]
In the embodiment, the determination in step S8 is performed using the error index E and the motion index M. However, the present invention is not limited to this, and the determination may be performed using only one of them. May be a determination by using in combination with the interpolation prediction index B.
[0022]
【The invention's effect】
As is apparent from the above description, according to the present invention, it becomes possible to select a picture type for encoding according to the magnitude of motion of an image and the effect of motion compensation prediction , and adaptively select a picture type. become able to. That is, when the image motion is large, the P picture is selected. On the other hand, when the image motion is small, a plurality of B pictures are continuously selected. And the encoding efficiency can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram of an encoding apparatus including a configuration according to an embodiment of the present invention.
FIG. 2 is a flowchart showing the operation of one embodiment of the present invention.
FIG. 3 is a flowchart showing details of the operation in step S5 of FIG.
FIG. 4 is a flowchart showing details of the operation in step S6 of FIG.
FIG. 5 is a flowchart showing details of the operation in step S7 in FIG. 2;
FIG. 6 is a conceptual diagram of a picture type arrangement obtained by an embodiment of the present invention.
FIG. 7 is an explanatory diagram of a conventional GOP structure.
FIG. 8 is an explanatory diagram of an image having a fast-moving object.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Picture storage part, 2 ... Picture rearrangement part, 3 ... Scene analysis part, 4 ... Picture type selection part, 6 ... Motion compensation part

Claims (1)

I,P,Bピクチャのいずれかのピクチャタイプで符号化を行う動画像符号化装置において、
符号化に先立って、入力画像信号と局所復号画像信号と動き推定信号とが入力し、動き補償予測画像を生成すると共に、前記入力画像信号と動き補償予測画像との誤差を示す誤差指標Eと、前記動き補償予測画像の全マクロブロックの動きベクトルのうち予め定められた第1の閾値以上の動きベクトルが占める割合である動き指標Mとを求める動き補償部と、
符号化に先立って、前記入力画像信号の全マクロブロックのうち予め定められた第2の閾値以上のマクロブロック単位の輝度分散を有するマクロブロックの割合である内挿予測指標Bを求めるシーン解析部と、
前記誤差指標Eが予め定められた第3の閾値より大きくかつ前記動き指標Mが予め定められた第4の閾値より大きい時に、当該入力画像の符号化ピクチャタイプをPピクチャと決定し、前記誤差指標Eが予め定められた第3の閾値より小さくまたは前記動き指標Mが予め定められた第4の閾値より小さい時に、該内挿予測指標Bの大きさに基づき決定される枚数のBピクチャを挿入するピクチャタイプ選択部とを具備したことを特徴とするシーン適応型動画像符号化装置。
In a video encoding apparatus that performs encoding with any one of I, P, and B picture types,
Prior to encoding, an input image signal, a locally decoded image signal, and a motion estimation signal are input to generate a motion compensated predicted image, and an error index E indicating an error between the input image signal and the motion compensated predicted image; A motion compensation unit that obtains a motion index M that is a ratio occupied by a motion vector equal to or greater than a predetermined first threshold among motion vectors of all macroblocks of the motion compensated prediction image;
Prior to encoding, a scene analysis unit that obtains an interpolation prediction index B that is a ratio of macroblocks having luminance dispersion in units of macroblocks equal to or greater than a predetermined second threshold among all macroblocks of the input image signal When,
When the error index E is greater than a predetermined third threshold and the motion index M is greater than a predetermined fourth threshold, the encoded picture type of the input image is determined as a P picture, and the error When the index E is smaller than a predetermined third threshold or the motion index M is smaller than a predetermined fourth threshold, the number of B pictures determined based on the size of the interpolation prediction index B is A scene-adaptive moving image encoding apparatus comprising a picture type selection unit to be inserted.
JP2000263900A 2000-08-31 2000-08-31 Scene adaptive video encoder Expired - Fee Related JP3877043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000263900A JP3877043B2 (en) 2000-08-31 2000-08-31 Scene adaptive video encoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000263900A JP3877043B2 (en) 2000-08-31 2000-08-31 Scene adaptive video encoder

Publications (2)

Publication Number Publication Date
JP2002077924A JP2002077924A (en) 2002-03-15
JP3877043B2 true JP3877043B2 (en) 2007-02-07

Family

ID=18751389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000263900A Expired - Fee Related JP3877043B2 (en) 2000-08-31 2000-08-31 Scene adaptive video encoder

Country Status (1)

Country Link
JP (1) JP3877043B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100303155A1 (en) 2008-01-29 2010-12-02 Yuki Maruyama Image coding device, image coding method, image coding integrated circuit and image coding program
JP4676513B2 (en) * 2008-06-05 2011-04-27 日本電信電話株式会社 Encoded picture type determination method, apparatus, program thereof, and recording medium thereof

Also Published As

Publication number Publication date
JP2002077924A (en) 2002-03-15

Similar Documents

Publication Publication Date Title
US7929608B2 (en) Method of reducing computations in intra-prediction and mode decision processes in a digital video encoder
US8194749B2 (en) Method and apparatus for image intraprediction encoding/decoding
JP4752631B2 (en) Image coding apparatus and image coding method
JP5100015B2 (en) Video encoding method and apparatus for inter-screen or intra-screen encoding mode
US20070098067A1 (en) Method and apparatus for video encoding/decoding
JP4344476B2 (en) Method and apparatus for performing adaptive encoding rate control of a video information stream including 3: 2 pull-down video information
US20050135484A1 (en) Method of encoding mode determination, method of motion estimation and encoding apparatus
WO2003043344A2 (en) Reduced-complexity video decoding using larger pixel-grid motion compensation
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
JP7343817B2 (en) Encoding device, encoding method, and encoding program
US6697430B1 (en) MPEG encoder
WO2006074043A2 (en) Method and apparatus for providing motion estimation with weight prediction
JP3757088B2 (en) Moving picture coding apparatus and method
JP5100572B2 (en) Encoder
JP4357560B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
KR19990063464A (en) Moving picture decoding apparatus and moving picture decoding method
JP3877043B2 (en) Scene adaptive video encoder
JP3643777B2 (en) Moving picture decoding apparatus and moving picture decoding method
JP3690259B2 (en) High-speed moving image encoding apparatus and high-speed moving image encoding method
JP4697802B2 (en) Video predictive coding method and apparatus
JPH07131793A (en) Video signal high efficiency coding device
JP4359273B2 (en) Coding mode selection method
JP2010166275A (en) Image encoding device
JP4926912B2 (en) Video encoding apparatus and method
Choi et al. Adaptive image quantization using total variation classification

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061025

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131110

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees