JP2002051341A - Moving picture coding apparatus and apparatus of detecting special effect scene in the moving picture - Google Patents

Moving picture coding apparatus and apparatus of detecting special effect scene in the moving picture

Info

Publication number
JP2002051341A
JP2002051341A JP2000234596A JP2000234596A JP2002051341A JP 2002051341 A JP2002051341 A JP 2002051341A JP 2000234596 A JP2000234596 A JP 2000234596A JP 2000234596 A JP2000234596 A JP 2000234596A JP 2002051341 A JP2002051341 A JP 2002051341A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
information
scene
motion vector
input image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000234596A
Other languages
Japanese (ja)
Other versions
JP4328000B2 (en )
Inventor
Kiyoshi Sakai
Akihiro Yamori
章弘 屋森
潔 酒井
Original Assignee
Fujitsu Ltd
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding, e.g. from bit-mapped to non bit-mapped
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

PROBLEM TO BE SOLVED: To accurately detect special effect scenes, such as a fading scene to improve coding efficiency of the special effect scenes, by considering not only statistical information about characteristic information such as brightness information of an input image but also statistical information about correlational information, such as motion vector information used for performing predictive coding of an input image of motion vector information. SOLUTION: The moving picture coding apparatus comprises a special effect scene detecting section 13 for detecting the special effect scene of the input image, based on first statistical information about the characteristic information of the input image and second statistical information about the correlational information between the input information and a previously coded image, and a control section 17 for controlling a coding state of the input image by the a predictive coding section 21, according to the special effects scene detected by the section 13.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、動画像符号化装置および動画像の特殊効果シーン検出装置に関し、特に、 BACKGROUND OF THE INVENTION The present invention relates to a special effect scene detection device of the moving picture coding apparatus and a moving picture, in particular,
フェードシーンやパニング,チルトなどの特殊効果シーンを含む動画像を符号化する際に用いて好適な、動画像符号化装置および動画像の特殊効果シーン検出装置に関する。 Fade scenes and panning, suitable for use in coding a moving picture with special effects scenes such as tilt, about the special effect scene detection device of the moving picture coding apparatus and a moving picture.

【0002】 [0002]

【従来の技術】従来のディジタル動画像符号化方式としては、例えば、MPEG(Moving Picture Experts Gr As a conventional digital video encoding system, for example, MPEG (Moving Picture Experts Gr
oup)−1(ISO/IEC 11172-2)やMPEG−2(ISO/IE oup) -1 (ISO / IEC 11172-2) and MPEG-2 (ISO / IE
C 13181-2),MPEG−4(ISO/IEC14496-2),IT C 13181-2), MPEG-4 (ISO / IEC14496-2), IT
U−T(International Telecommunication Union-Tele U-T (International Telecommunication Union-Tele
communication standardization sector)の映像符号化勧告(H261.,H263.)などが知られているが、これらの方式では、情報量が莫大な動画像を有効帯域で使用できるようにするために、情報圧縮技術を用いていて、共通して、「フレーム間動き予測符号化」と呼ばれる手法を用いている。 Video coding recommendation communication standardization sector) (H261., H263.) Although the like are known, in these methods, since the amount of information to be able to use the effective bandwidth enormous moving picture, information compression optionally using the technique, commonly uses a technique called "inter-frame motion prediction coding".

【0003】これらのディジタル動画像符号化方式では、まず、フレーム内符号化により1枚の動画像フレーム(以下、単にフレームという)に対して空間的冗長性を省く処理を行なって情報量圧縮を行ない、次に、このようにフレーム内符号化により符号化した過去のフレームと符号化対象のフレームとの差分情報を符号化するフレーム間符号化が行なわれる。 [0003] In these digital video coding method, first, one of the moving image frame by frame coding (hereinafter, simply referred to as a frame) the amount of information by performing processing to eliminate the spatial redundancy for compression deeds, then inter-frame coding to encode the difference information between the encoded past frame and the encoding target frame thus by the frame coding is performed.

【0004】ここで、上記の「フレーム間符号化」とは、動画像の連続性に着目することにより、1枚1枚のフレームを独立してフレーム内符号化するよりも、フレーム内のサブブロックである所定のマクロブロック〔m [0004] Here, the term "inter-frame coding" above, by paying attention to the continuity of the moving image, rather than encoded frame independently one by one frame, sub frame given macroblock is a block [m
×n(m,nはいずれも自然数)の画素集合;以下、M Set of pixels × n (m, n number of both natural); hereinafter, M
Bと表記する〕毎に、符号化済みのフレームの或るMB Each representation to] is B, coded one MB of the frame
と同位置の符号化対象フレームにおけるMBとの差分を求め、その差分MBを符号化することであり、このようにすることで、より効率良く動画像の冗長性を省いて情報量を圧縮することができる。 Obtains the difference between the MB in the coding target frame in the same position as, the difference MB is to encode, by In this way, to compress more efficiently the amount of information by omitting the redundancy of the moving picture be able to.

【0005】なお、実際には、フレーム内の絵柄が動いている場合には、単純にフレーム間の同位置MB間差分をとっても、差分量が小さくならないため、さらに、M [0005] In practice, when moving the picture in the frame, simply take the same position MB interframe difference between frames, since the differential amount is not reduced further, M
B毎に動き(ベクトル)探索を行ない、参照フレーム内からより差分の小さいブロック領域を探し出し、現フレームのMBと参照フレームの動き探索により求められたブロック領域との差分MBを求め、その差分MBを符号化することが行なわれる。 Performs motion (vector) searched for each B, locates the smaller block region difference from the reference frame, obtains the difference MB in the block area obtained by the motion search of MB and the reference frame of the current frame, the difference MB it is performed to encode. このとき、動き探索によって求められた動きベクトル情報と差分情報を符号化したものが多重化されてMB符号化情報となる。 In this case, the MB encoding information obtained by encoding motion vector information and the difference information obtained by the motion search is multiplexed.

【0006】しかしながら、これらの動画像符号化方式では、例えば、フェードや動きの大きいパニングやチルトなどの映像撮影や編集時に広く用いられている特殊効果シーンに対する符号化効率があまり良くなく、画質の劣化を引き起こす要因となっている。 However, in these video coding method, for example, it fades and coding efficiency for large panning and widely special effects scenes used in the time of image capturing and editing, such as tilt motion not so good, the image quality which is a factor that causes deterioration. 例えば、上記のフェードは、ビデオ編集の1手法として広く用いられている方式で、通常の画像から次第に白色や黒色などの一定色の画像に変化ゆくフェードアウトと、逆に、一定色の画像から通常の画像が次第に現われてくるフェードインとがあるが、いずれの場合も、フレーム毎に輝度信号のレベルが変化するために動き予測が当たり難く、結果的に、余分な動きベクトル情報を符号化してしまって符号化効率が低下する。 For example, the fade is a method widely used as a method of video editing, and fade out Yuku constantly changing color of the image, such as gradually white or black from the normal image, conversely, usually from a constant color image Although there are a fade-in images of come appear gradually is in any case, it is difficult to hit motion prediction to change the level of the luminance signal for each frame, as a result, encodes the extra motion vector information shut coding efficiency decreases.

【0007】一方、パニングやチルトは、例えば、車などの動く物体を追いかけて撮影するときにカメラを横方向もしくは縦方向に流しながら撮影する手法であるが、 On the other hand, panning and tilting is, for example, a technique for shooting while flowing camera in the horizontal direction or the vertical direction when shooting chasing moving objects such as cars,
一般的に、上記の動き探索の探索範囲に限りがあるために、その探索範囲を超えたパニングやチルトのシーンでは、適切な動きベクトルを検出することが不可能で、動き予測が当たらなくなり符号化効率が低下する。 In general, due to the limited search range of the motion search, the panning and tilting of the scene beyond the search range, is impossible to detect the appropriate motion vector, code no longer hit motion prediction efficiency is reduced.

【0008】このため、これまで、フェードシーンに対する対処としては、例えば、特開平6−46412号公報(以下、公知文献1という)や特開平8−65684 [0008] Accordingly, heretofore, as the measures against fading scene, for example, JP-A 6-46412 discloses (hereinafter, referred to publicly known document 1) and JP-A-8-65684
号公報(以下、公知文献2という),特開平11−19 No. (hereinafter, referred to as known document 2), JP-A-11-19
1862号公報(以下、公知文献3という)などで各種手法が提案されている。 1862 No. (hereinafter known as Document 3) various techniques have been proposed like. ここで、上記の各公知文献1〜 Here, each known document 1 above
3で提案されている各手法の要旨を説明すると、まず、 To explain the gist of the method proposed in 3, firstly,
公知文献1による手法(以下、第1手法という)は、フレーム間差分情報を符号化する場合に、フレーム間の平均輝度値の差分を求め、その差分を補正(フェード補正)により除去して符号化することにより、「フェードシーン」においても予測残差を削減して符号化効率を上げることができるという手法であり、公知文献2による手法(以下、第2手法という)は、フレーム間の平均輝度値の差分を求め、その差分補正を動きベクトル探索前のMBに対して行なった上で、動きベクトル探索を行なうことにより、「フェードシーン」においてもより正確な動きベクトルを求めることができるという手法である。 By Method (hereinafter, referred to as first technique) known document 1, when encoding differential information between frames calculates a difference in average luminance values ​​between frames, the difference is removed by compensation (fading compensation) code by reduction, a technique called also can increase the coding efficiency by reducing the prediction residual in a "fade scene" technique by known document 2 (hereinafter, referred to as a second technique) is the average between frames calculates the difference between luminance values, in terms of make to vector search previous MB motion the differential correction, by performing the motion vector search, that can be obtained more accurate motion vector is also in the "fade scene" it is a technique. そして、公知文献3による手法(以下、第3手法という)は、フレーム間の輝度信号の平均及び分散を求め、これらの各情報に基づいて「フェードシーン」を検出する手法である。 The method according to a known literature 3 (hereinafter, referred to as a third method) calculates the mean and variance of the luminance signal between frames, a method of detecting a "fade scene" on the basis of these pieces of information.

【0009】一方、パニングなどの特殊効果シーンに対する対処としては、例えば、特開平5−207444号公報(以下、公知文献4という)や特開平9−2149 On the other hand, as the measures against special effect scenes such as panning, for example, JP-A 5-207444 discloses (hereinafter, referred to as known document 4) and JP-A-9-2149
74号公報(以下、公知文献5という),特開平10− 74 No. (hereinafter, referred to as known document 5), JP-A-10-
224741号公報(以下、公知文献6という)などに示されるような各種手法が提案されている。 224741 JP (hereinafter known as Document 6) various techniques as shown in the like have been proposed. ここで、上記の公知文献4による手法(以下、第4手法という) Here, it approaches by known literature 4 above (hereinafter, referred to as a fourth method)
は、動きベクトルの統計によりパニングを検出し、その場合に動き予測をフィールド間予測に限定することで符号化効率を向上できるようにした手法であり、上記の公知文献5による手法(以下、第5手法という)は、動きベクトルの統計によりパニング(あるいは、チルト)を検出し、その場合に符号化画面の画像解像度を落とすことで動きベクトルの探索範囲(以下、単に「動き探索範囲」ともいう)を仮想的に拡大するという手法である。 Detects the panning by statistics of the motion vector, a technique to be able to improve the coding efficiency by limiting the motion prediction in the field prediction in case the method according to the known document 5 above (hereinafter, the of five approaches) are panning the statistics of the motion vector (or detects a tilt), referred that case the motion vector search zone by lowering the image resolution of the coded frame (hereinafter, also simply as "motion estimation range" ) is a method of expanding virtually the.

【0010】例えば、パニング(あるいは、チルト)が検出された場合には、フレームを縦横1/2に間引いた画像を生成して、その画像を符号化することで、同じ範囲の動き探索を行なったとしても、実質縦横2倍の範囲を探索していることになる。 [0010] For example, panning (or tilt) when is detected, generates an image obtained by thinning out the frames into horizontal and vertical 1/2, to encode the image, perform motion search the same range even, it means that by searching a range of two-fold substantially vertically and horizontally. そして、上記の公知文献6 Then, the above known document 6
による手法(以下、第6手法という)は、符号化出力(ストリーム)から種々のカット点検出を行なうことを要旨とした手法である。 Method according (hereinafter, referred to as the sixth method) is a technique in which a subject matter to make a variety of cut point detected from the encoded output (stream).

【0011】 [0011]

【発明が解決しようとする課題】しかしながら、上記の各手法では、それぞれ、次のような課題が生じる。 [SUMMARY OF THE INVENTION However, in each method described above, respectively, the following problem arises. まず、第1手法では、フレームの輝度情報の変化のみでフェード検出を行なうため、パニングやチルトなどの画像(シーン)をフェードシーンと誤検出してしまう可能性がある。 First, in the first approach, to perform a fade detecting only changes in the luminance information of the frame, there is a possibility that erroneous detection of the image (scene), such as panning and tilting and fade scene. その上、本第1手法では、フェード検出情報を符号化情報へ多重化するため、余分な情報が必要となり、符号化ストリームが完全なMPEG互換ではなくなる。 Moreover, in this first method, for multiplexing a fade detection information to the encoded information, extra information is required, the encoded stream is not a complete MPEG compatible.

【0012】また、第2手法では、動きベクトル探索段階で平均輝度情報を削減するという処理をMB単位で行なうため演算量が莫大になるばかりでなく、フェードの具合によっては平均輝度情報を削減しても、動きベクトルの誤検出が起こる場合がある。 [0012] In the second approach, not only the amount of computation for performing a process of reducing the average luminance information in the motion vector search step in MB is enormous, it is to reduce the average luminance information depending on how fade even, in some cases the erroneous detection of motion vector occurs. その具体例として、フェードとしてフレーム輝度平均が次第に低くなってゆき、最終画素値がZとなる場合を例として考えてみる。 Specific examples thereof include fade Yuki the frame average luminance becomes gradually lower as, consider the case where the final pixel value of Z as an example.

【0013】例えば、nフレーム目のフレーム内の或る画素位置の輝度値をX nとすると、フェードの式は、次式(1)(画素の輝度値X nがフレーム毎に一定に変化してゆく場合)や次式(2)(画素の輝度値X nの変化がフレームによって変わる場合)などで表される。 [0013] For example, when the luminance value of a certain pixel position in the frame of the n th frame and X n, wherein fades, the following equation (1) (a luminance value X n of the pixel is changed to a constant for each frame and Yuku case) or the following formula (2) (a change in luminance values X n of pixels can vary depending on the frame) is represented by like. n+1 =max(X n −A,Z) (Aは固定値)・・・(1) X n+1 =(1−α)・X n +α・Z (0≦α≦1)・・・(2) 上記の式(1)の場合は、フレーム内のどの画素をとってもフレーム毎の輝度情報変化値は同じ“A”であるため、平均輝度成分を取り除くと動きベクトルをうまく検出できそうである。 X n + 1 = max (X n -A, Z) (A is a fixed value) ··· (1) X n + 1 = (1-α) · X n + α · Z (0 ≦ α ≦ 1) · If ... (2) equation (1), since the luminance information change value in very each frame which pixels in a frame are the same "a", it can successfully detect the motion vector when removing the average luminance component otherwise it. これに対し、上記の式(2)は、変数αをフェード前後で0から1へと段階的に変化させることにより、フェードアウトしていく画像を生成でき、 In contrast, the above equation (2) is by stepwise changes from 0 to the variable α fade before and after the 1, can generate an image that will fade out,
逆に、変数αを1から0へと段階的に変化させることにより、フェードインしてゆく画像を生成できることを表すが、この場合、フェードが進むにつれて輝度情報の変化とともに、フレーム内の輝度値によって輝度情報変化値も変わる、つまり、フレーム内の輝度が生成する模様が変化するため、平均輝度成分を取り除いても動きベクトルの誤検出の発生が十分に考えられる。 Conversely, by stepwise changing the variable α 1 to 0, represents the ability to generate images which slide into fade in, this case, the change in luminance information as fade progresses, the luminance value in the frame by changing the luminance information change value, that is, to change the pattern brightness is generated in the frame, the occurrence of false detection average luminance component removed even motion vector is considered sufficiently.

【0014】次に、上記の第3手法では、フレーム間の各画素の輝度値の変化のみならず、その変化の2乗を計算することにより、フェード検出をより正確に行なっているが、上記の第1手法と同様に、輝度値の変化に注目するだけでは、パニングやチルトなどのシーンで誤検出を起こすと思われる。 [0014] Next, in the third approach described above, not only the change in the luminance value of each pixel between frames, by calculating the square of the change, but performs a fade detection more accurately, the similar to the first approach, only focus on the change in the luminance value is believed to cause a false detection in the scene, such as panning and tilting. また、本第3手法の場合は輝度値の変化の2乗を計算するので演算量も膨大になってしまう。 In the case of the third method the amount of computation because it calculates the square of the change in luminance value also becomes enormous.

【0015】以上のように、上述した第1〜第3手法では、いずれの場合も、「フェードシーン」の検出にフレーム間の輝度情報の変化しか考慮していないために、 [0015] As described above, in order in the first to third methods described above, in any case, does not take into account only the change in luminance information between frames in the detection of "fade scene"
「フェードシーン」以外の特殊効果シーン(パニングやチルトなど)を「フェードシーン」として誤検出してしまう可能性が十分にあり、正確なフェード検出が行なえないのである。 There "Fade scene" other special effects scenes (such as panning and tilting) erroneous detection and would likely enough to as "fade scene" is the not be done accurate fade detection.

【0016】一方、パニングやチルトなどのシーンに関して、上記の第4手法では、動きベクトルの探索範囲が固定であるため、単位時間当たりの動き量の大きいパニングやチルトにより探索範囲を超えた画像が入力された場合に、動きベクトルを得ることができず対処できない。 [0016] On the other hand, with respect to the scene, such as panning or tilting, in the fourth technique above, for the motion vector search range is fixed, the greater panning and tilting movement amount per unit time image exceeding the search range when entered, it can not deal can not be obtained motion vector. また、上記の第5手法では、パニングが検出された場合には、低解像度の符号化を行なうため画質が劣化する(ボケる)という課題がある。 In the above fifth approach, when the panning is detected, there is a problem that image quality deteriorates (blurred) for performing coding of a low resolution. なお、解像度を落とさずに、単純に、動き探索範囲を拡大すると演算量が膨大になる。 Incidentally, without reducing the resolution, simply, the calculation amount becomes enormous as to expand the motion estimation range.

【0017】さらに、上記の第6手法では、符号化ストリームを復号するときに、シーン検出インデックスを付けるだけ(符号化モードの変更は無し)なので、符号化側の概念は無く、パニングやチルトのシーンに対して符号化効率を上げるという意図は無い。 Furthermore, in the sixth method described above, when decoding a coded stream, since only put a scene detection index (no change of coding mode), the concept of encoding side without panning or tilting of the There is no intention of increasing the coding efficiency for the scene. つまり、上記の第4〜第6手法では、動きベクトルの探索範囲が固定、もしくは、拡大する場合は画像解像度を落とす必要があるため、パニングやチルトなどの特殊効果シーンに対して高画質を維持しながら符号化効率を上げることができないのである。 That is, in the fourth to sixth methods described above, maintaining the motion vector search range is fixed, or, for the case of enlargement it is necessary to drop the image resolution, high image quality with respect to special effect scenes such as panning and tilting it is impossible to increase the coding efficiency while.

【0018】本発明は、以上のような課題に鑑み創案されたもので、入力画像の輝度情報などの特徴情報についての統計情報だけでなく、動きベクトル情報などの入力画像を予測符号化する際に用いられる相関情報についての統計情報をも考慮することで、フェードシーンなどの特殊効果シーンを正確に検出できるようにすることを目的とする。 [0018] The present invention has been made in view of above problems, not only the statistical information about the characteristics information such as luminance information of the input image, when the predictive coding an input image such as motion vector information by considering the statistics about the correlation information used in, and an object thereof is to allow accurate detection of the special effect scenes such as fade scene. また、パニングやチルトなどの特殊効果シーンに対しては、動きベクトル情報などの相関情報の探索範囲をシフト制御することで、画像解像度を落とすことなく、且つ、相関情報探索のための演算量を増大させることなく、正確な相関情報を取得して符号化効率を向上できるようにすることも目的とする。 Also, for special effects scenes such as panning and tilting, by the shift control a search range of the correlation information such as motion vector information, without reducing the image resolution, and, the amount of calculation for the correlation information search without increasing also aims to allow improved encoding efficiency to obtain the accurate correlation information.

【0019】 [0019]

【課題を解決するための手段】上記の目的を達成するために、本発明の動画像符号化装置(請求項1)は、入力画像を過去に符号化した画像との相関情報に基づいて予測符号化する予測符号化部と、入力画像のもつ特徴情報についての第1統計情報と上記の相関情報についての第2統計情報とに基づいて入力画像の特殊効果シーンを検出する特殊効果シーン検出部と、この特殊効果シーン検出部で検出された特殊効果シーンに応じて前記予測符号化部による入力画像の符号化状態を制御する制御部とをそなえて構成されたことを特徴としている。 To achieve the above object, according to the Invention The moving picture coding apparatus of the present invention (Claim 1) is predicted on the basis of the input image to the correlation information between the past encoded picture a predictive encoding unit for encoding the first statistics and second statistics and special effects scene detection unit which detects a special effect scene of the input image based on the correlation information described above for feature information having the input image When it is characterized in that it is configured to include a control unit for controlling the coding state of the input image by the prediction encoding unit in accordance with the detected special effect scenes in this special effect scene detection unit.

【0020】上述のごとく構成された本発明の動画像符号化装置(請求項1)では、入力画像のもつ特徴情報についての第1統計情報のみならず、予測符号化時の相関情報についての第2統計情報をも用いて入力画像の特殊効果シーンを検出することができるので、一方の統計情報だけをみると本来検出したい特殊効果シーンと特徴の似た入力画像(シーン)でも、他方の統計情報が本来検出したい特殊効果シーンの特徴を示していなければ検出対象の特殊効果シーンから除外することができる。 [0020] In the moving picture encoding apparatus of the present invention with the above structure (claim 1), not only the first statistical information about the characteristics information with the input image, first of correlation information when predictive coding it is possible to detect a special effect scene 2 stats input image be used, but one of the statistics only See the originally detected want special effect scenes and features similar input image (scene), the other statistics information can be excluded from the special effect scene detected unless indicates the character of the special effect scene to be detected originally. そして、この上で検出された特殊効果シーンに応じて予測符号化部による符号化状態を制御することで予測符号化誤差の低減を図ることができる。 Then, it is possible to reduce the predictive coding error by controlling the coding state by the prediction coder in accordance with the special effect scene detected on this.

【0021】ここで、上記の特殊効果シーン検出部には、入力画像の輝度情報についての統計情報を前記第1 [0021] Here, in the special effect scene detection unit described above, the first statistical information about the luminance information of the input image
統計情報として取得する輝度情報統計取得部と、入力画像と過去に符号化した画像との間の動きベクトル情報についての統計情報を前記第2統計情報として取得する動きベクトル情報統計取得部と、これらの各部によって得られた上記の各統計情報が所定の第1検出条件を満足すると入力画像が上記特殊効果シーンとしてのフェードシーンであることを検出するフェード検出部とをそなえ、 A luminance information statistics acquisition unit for acquiring as statistical information, and motion vector information statistics acquisition unit for acquiring statistics about the motion vector information between the input image and the previously coded image as the second statistical information, these each statistic above obtained by the various parts of a fade detector for input image satisfies a predetermined first detection condition to detect that the fade scene as the special effect scene,
上記の制御部を、フェード検出部にてフェードシーンが検出されると上記の動きベクトル情報を制御して該符号化状態を制御する動きベクトル情報制御部として構成してもよい。 The above-described control unit may be configured as the motion vector information control unit when the fade scene is detected by controlling the motion vector information for controlling said coding state at the fade detecting unit.

【0022】このような構成を採ると、入力画像の輝度情報についての統計情報と動きベクトル情報についての統計情報とがそれぞれフェードシーンの特徴を示していない限り、入力画像がフェードシーンであるとは検出されないので、例えば、輝度情報についての統計情報だけをみるとフェードシーンの特徴を示すが、動きベクトル情報についての統計情報がフェードシーン以外の特徴を示すような入力画像(例えば、パニングやチルトなどのシーン)をフェードシーンと誤検出してしまうことを回避することができる。 [0022] such a configuration, as long as the statistics for statistics and the motion vector information about the luminance information of the input image does not indicate the characteristic of the fading scene, respectively, and the input image is a fade scene because it is not detected, for example, exhibit the characteristics of fade scenes Looking only statistical information about the luminance information, motion statistics input image shown the features other than fade scene for vector information (e.g., such as panning and tilting it is possible to avoid that the scene) is erroneously detected as fade scene. そして、フェードシーン検出時には、動きベクトル情報を制御することで、誤った動きベクトル情報の符号化による符号化効率の低下を回避できる(請求項2)。 Then, fade During scene detection, by controlling the motion vector information, it is possible to avoid the deterioration in the coding efficiency caused by the coding of erroneous motion vector information (claim 2).

【0023】また、上記の予測符号化部には、上記の相関情報として動きベクトル情報を得るために符号化対象の入力画像を所定の画素探索範囲で探索する動きベクトル情報探索部をそなえるとともに、上記の特殊効果シーン検出部には、入力画像の輝度情報についての統計情報を前記第1統計情報として取得する輝度情報統計取得部と、上記の動きベクトル情報についての統計情報を前記第2統計情報として取得する動きベクトル情報統計取得部と、これらの各統計取得部によって得られた各統計情報が所定の第2検出条件を満足すると入力画像が特殊効果シーンとしてのパニングあるいはチルトのシーンであることを検出するパニング/チルト検出部とをそなえ、 Further, in the prediction encoding unit described above, along with a motion vector information searching unit for searching an input image to be coded to obtain a motion vector information as the correlation information of the at predetermined pixel search range, the special effect scene detection unit described above, the luminance information and statistics acquisition unit, the second statistical information statistical information for the above motion vector information for obtaining statistical information about the luminance information as the first statistical information of the input image and motion vector information statistics acquisition unit that acquires as it each statistical information obtained by each of these statistics acquisition unit input image satisfies a predetermined second detection condition is a panning or tilting of the scene as a special effect scenes and a panning / tilt detector for detecting the,
且つ、上記の制御部を、このパニング/チルト検出部で上記のパニングあるいはチルトのシーンが検出されると前記第2統計情報に基づいて上記動きベクトル情報探索部での画素探索範囲をシフト制御する探索範囲シフト制御部として構成してもよい。 And, the control unit shifts the control pixel search range in the motion vector information search section based on the second statistics with the panning or tilting of the scene is detected by the panning / tilt detecting unit it may be configured as a search range shift control unit.

【0024】このような構成を採ると、上記の各統計情報がパニングやチルトのシーン以外の特徴を示す特殊効果シーンを検出対象から除外して、パニングやチルトのシーンを正確に検出することができるとともに、動きベクトル情報探索のための演算量を増大させることなく、 [0024] such a configuration, that each statistic described above to exclude special effects scene showing the characteristics of the non-panning and tilting of the scene from the detection target, to accurately detect the panning and tilting of the scene it is possible, without increasing the amount of calculation for motion vector information search,
パニングやチルトのシーンに応じた必要な動きベクトル情報を得ることができる(請求項3)。 It is possible to obtain the required motion vector information according to the panning and tilting of the scene (claim 3).

【0025】次に、本発明の動画像符号化装置(請求項4)は、過去に符号化した画像との相関情報として動きベクトル情報を得るために符号化対象の入力画像を所定の画素探索範囲で探索する動きベクトル情報探索部と、 Next, the moving picture coding apparatus of the present invention (Claim 4), past the encoded correlation information given pixel search an input image to be coded to obtain a motion vector information as the image and motion vector information search unit for searching a range,
この動きベクトル情報探索部によって得られた動きベクトル情報に基づいて入力画像を予測符号化する予測符号化部と、上記の動きベクトル情報についての統計情報に基づいて入力画像の特殊効果シーンを検出する特殊効果シーン検出部と、この特殊効果シーン検出部で上記の特殊効果シーンが検出されると上記の統計情報に応じて上記動きベクトル情報探索部での画素探索範囲をシフト制御する探索範囲シフト制御部とをそなえて構成されたことを特徴としている。 A predictive encoding unit for predictive coding an input image based on the motion vector information obtained by the motion vector information searching unit detects the special effect scene of the input image based on the statistical information for the above motion vector information and special effects scene detection unit, a search range shift control for shifting control of the pixel search range in the motion vector information search unit according to the special effects scene detection unit when special effect scene described above is detected above statistics It is characterized in that it is constituted by a part.

【0026】上述のごとく構成された本発明の動画像符号化装置(請求項4)では、上記の特殊効果シーンが検出されると、上記の動きベクトル情報についての統計情報に基づいて上記の画素探索範囲がシフト制御されるので、動きベクトル情報探索のための演算量を増大させることなく、検出された特殊効果シーンに応じて必要な相関情報を得ることができる。 [0026] In the moving picture encoding apparatus of the present invention constructed as described above (Claim 4), the special effect scene described above is detected, the above pixel based on statistical information for the above motion vector information since the search range is shifted controlled, without increasing the amount of calculation for motion vector information search, it is possible to obtain the correlation information required in accordance with the detected special effect scene.

【0027】さらに、本発明の動画像の特殊効果シーン検出装置(請求項5)は、入力画像のもつ特徴情報についての統計情報を取得する第1統計情報取得部と、予測符号化対象の入力画像と過去に符号化された画像との相関情報についての統計情報を取得する第2統計情報取得部と、これらの各統計情報取得部によって得られた各統計情報に基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出部とをそなえて構成されたことを特徴としている。 Furthermore, special effect scene detection device of the moving image of the present invention (Claim 5), a first statistical information acquisition unit for acquiring statistics about the feature information having the input image, the input of the predictive coded a second statistical information acquisition unit for acquiring statistics about the correlation information between the coded image to the image and the past, special input image based on each statistical information obtained by each of these statistical information acquisition unit It is characterized in that it is constructed to include a special effect scene detection unit detecting an effect scene.

【0028】上述のごとく構成された本特殊効果シーン検出装置(請求項5)では、入力画像のもつ特徴情報についての統計情報のみならず、予測符号化時の相関情報についての統計情報をも用いて入力画像の特殊効果シーンを検出することができるので、一方の統計情報だけをみると本来検出したい特殊効果シーンと特徴の似た入力画像(シーン)でも、他方の統計情報が本来検出したい特殊効果シーンの特徴を示していなければ検出対象の特殊効果シーンから除外することができる。 [0028] In the present special effect scene detection device with the above structure (claim 5), not only the statistical information about the feature information having the input image, also using statistical information about the correlation information when predictive coding since it is possible to detect the special effects scene of the input image Te, but one of the statistical information only look and originally detected want of special effects scenes and features similar to the input image (scene), special the other statistical information is desired to be detected originally the detected unless indicates the character of the effect scene can be excluded from the special effect scene.

【0029】 [0029]

【発明の実施の形態】以下、図面を参照して本発明の実施の形態を説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an embodiment of the present invention with reference to the drawings. 図1は本発明の一実施形態としての特殊効果シーン検出装置が適用されるディジタル動画像符号化装置の構成を示すブロック図で、この図1に示すディジタル動画像符号化装置(以下、単に「動画像符号化装置」という)1は、フレームメモリ2,原画マクロブロック(MB)取得器3,参照ブロック取得器4, Figure 1 is a block diagram illustrating a digital video coding apparatus special effect scene detection device is applied as an embodiment of the present invention, the digital moving picture encoding apparatus shown in FIG. 1 (hereinafter, simply " that video encoding apparatus ") 1 includes a frame memory 2, original macroblocks (MB) obtainer 3, reference block obtainer 4,
動きベクトル探索器5,予測判定器6,減算器7,加算器11,スイッチ8,12,符号化器9及び局所復号化器10をそなえるとともに、特殊効果シーン検出装置1 Motion vector searcher 5, the prediction determination unit 6, a subtracter 7, the adder 11, the switch 8 and 12, provided with a coder 9 and the local decoder 10, special effect scene detection device 1
3として、入力画像情報統計取得器14,動き情報統計取得器15,特殊シーン検出器16及び制御部17をそなえて構成されている。 As 3, an input image information statistics obtainer 14, the motion information statistics obtainer 15, and is configured to include a special scene detector 16 and the controller 17.

【0030】ここで、上記のフレームメモリ2は、符号化すべき入力動画像データをフレーム(静止画像)単位で記憶するためのものである。 [0030] Here, the frame memory 2 above is for storing input video data to be encoded frames (still images) units. なお、入力動画像データがNTSC方式などにおけるインタレース走査によって生成された画像データの場合、1フレーム分の入力画像は偶フィールドと奇フィールドの2枚のフィールドから成るので、フレームメモリ2には、さらに、フィールド単位に画像データが保持されることになる。 Incidentally, when the input moving image data is image data generated by the interlace scanning in such the NTSC system, since one frame of the input image consists of two field of the even field and the odd field, the frame memory 2, further, the image data in the field unit is held. 以下、これらのフレームとフィールドとを特に区別しない場合は、 Hereinafter, when no particular distinction between these frames and fields,
総称して「ピクチャ」という。 Collectively referred to as "picture".

【0031】また、原画MB取得器3は、フレームメモリ2に記憶されている画像データ(原画ピクチャ)から符号化対象のMBを原画MBとして取得(抽出)するためのもので、例えば、原画ピクチャ内における任意の1 Further, original MB obtainer 3 is for obtaining (extracting) the MB to be encoded from the image data (original picture) stored in the frame memory 2 as original MB, for example, the original picture of any in the inner 1
6×16画素(ピクセル)の矩形領域(画素集合)が原画MBとして抽出されるようになっている。 Rectangular region (pixel set) is adapted to be extracted as original image MB of 6 × 16 pixels (pixels). また、参照ブロック取得器4は、ピクチャ間差分情報を得るのに必要な原画MBに対する参照ブロックをフレームメモリ2 The reference block obtainer 4, inter-picture frame memory 2 the reference blocks for the required original image MB to obtain the difference information
から取得するためのもので、例えば図3に模式的に示すように、既に符号化され局所復号化器10にて再生(局所復号)された過去のピクチャ(参照ピクチャ)32において原画ピクチャ31内の原画MB311と同じ位置に位置するMB(参照MB)321を中心として縦横方向にそれぞれ1画素ずつ所定画素分だけずらした範囲(この範囲が動きベクトル探索範囲322となる)のブロックが上記参照ブロックとして得られるようになっている。 Intended to be obtained from, for example, as schematically shown in FIG. 3, already reproduced in the encoded local decoder 10 (locally decoded) is past pictures (reference picture) it was 32 in the original picture 31 MB (see MB) 321 one each pixel in the vertical and horizontal directions around the range obtained by shifting a predetermined number of pixels block is the reference block (the range is the vector search range 322 movement) located at the same position as the original MB311 It has been obtained as the as.

【0032】ただし、フィールド間予測の場合は上記の偶フィールド及び奇フィールドのそれぞれ対応して2つの参照ブロックが取得され、それぞれについて下記に示す動きベクトル探索器5による動きベクトル情報の探索が行なわれて、各フィールド用の動きベクトル情報がそれぞれ得られるようになっている。 [0032] However, in the case of field prediction is in correspondence two reference blocks acquisition of even field and odd field above, a search for the motion vector information according to the motion vector searcher 5 shown below for each performed Te, motion vector information for each field is to be obtained, respectively. そして、動きベクトル探索器(動きベクトル情報探索部)5は、上記の原画MB取得器3で得られた原画MBと参照ブロック取得器4で得られた参照ブロックとに基づいて動き予測を行なって動きベクトル情報(以下、単に「動きベクトル」という)を得るためのもので、例えば図4に模式的に示すように、上記の参照ブロック(動きベクトル探索範囲) Then, the motion vector searcher (motion vector information search unit) 5 is subjected to motion prediction based on the reference blocks obtained by original MB and the reference block obtainer 4 obtained by the above original image MB obtainer 3 motion vector information (hereinafter, simply referred to as "motion vector") for obtaining a, as schematically shown in FIG. 4, the above reference block (the motion vector search range)
322内において原画MB311と最も相関の高いMB Highest correlation MB and original MB311 within 322
(以下、予測MBという)323を探索(ブロックマッチング)し、その予測MB323の参照ピクチャ32内での位置と、原画MB311の原画ピクチャ31内での位置とのずれが動きベクトル(相関情報)30として表わされるようになっている。 (Hereinafter, the prediction that MB) explore 323 (block matching), and the position of in the reference picture 32 of the prediction MB323, the deviation between the position of in the original picture 31 of the original MB311 motion vector (correlation information) 30 It has become so represented as.

【0033】なお、原画MB311と予測MB323との相関は、一般に、画素のもつ特徴情報(輝度信号や色差信号など)についての差分の絶対値和や2乗和などによって求められ、その値(動き探索評価値)が小さいほど両者の相関が高いと判断される。 It should be noted, correlation between the original MB311 and prediction MB323 is generally determined by such absolute value sum or square sum of the difference between the feature information having the pixel (such as luminance signal and color difference signal), the value (motion correlation of the two as the search evaluation value) is small is determined to be high. また、得られた動きベクトルは、符号化情報に多重化される。 The obtained motion vector is multiplexed to the encoded information. さらに、予測判定器6は、符号化対象のピクチャの属性や構造(フレーム又はフィールド)に基づいて予測モード〔ピクチャ(フレーム/フィールド)内/間予測〕を判定し、その判定結果に応じてスイッチ8及び12を制御するとともに、判定結果に応じた最適な動きベクトル(フレーム/ Further, the prediction determination unit 6, based on the picture of the attributes and structure of the encoding target (frame or field) determines the prediction mode [picture (frame / field) in / between prediction], in accordance with the determination result switch controls the 8 and 12, optimum motion vector in accordance with the determination result (frame /
フィールド用)を減算器7及び加算器11へ出力するためのものである。 It is for outputting a field for) to the subtracter 7 and the adder 11.

【0034】なお、上記のピクチャの属性とは、ピクチャ内予測を行なうべき画像かピクチャ間予測を行なうべき画像かなどを意味し、例えば、MPEG方式の場合なら、Iピクチャ(Intra-coded picture)やPピクチャ(Predictive-coded picture)/Bピクチャ(Bidirect [0034] Note that the attribute of the picture refers to an image should perform image or inter picture prediction to be performed intra-picture prediction, for example, if the case of the MPEG system, I-picture (Intra-coded picture) and P-picture (Predictive-coded picture) / B-picture (bidirect
ionally predictive-coded picture)などの違いに相当する。 ionally predictive-coded picture) corresponding to the difference of such.

【0035】そして、上記の予測判定器6は、例えば、 [0035] Then, the above-described prediction determination unit 6, for example,
予測モードが、ピクチャ内予測であれば、スイッチ8及び12をそれぞれ減算器7及び加算器11側とは逆側に切り替えることで、原画MBそのものが符号化器9にて独立して符号化(ピクチャ内符号化)されるように制御する一方、ピクチャ間予測であれば、スイッチ8及び1 Prediction mode is within the picture prediction, the switch 8 and 12, respectively subtractor 7 and the adder 11 side by switching on the opposite side, the original MB independently coded itself is at the encoder 9 ( while controlled to be intra-picture coding), if inter picture prediction, the switch 8 and 1
2をそれぞれ減算器7及び加算器11側に切り替えるとともに、ピクチャ間予測モードに応じた動きベクトル(フレーム/フィールド用)を減算器7及び加算器11 With switch 2 to the respective subtractors 7 and the adder 11 side, the subtracter 7 motion corresponding to the prediction mode between pictures vector (frame / field) and the adder 11
にそれぞれ出力する。 Respectively output to.

【0036】これにより、減算器7にて原画MBから動きベクトルを除いた差分画像データが符号化器9に入力されて符号化される一方、その符号化データを局所復号化器10で復号した差分画像データに、上記の動きベクトルが加算器11にて加算されて元の原画MBが再生されフレームメモリ2に再度保持されることになる。 [0036] Thus, the difference image data excluding the motion vector from the original image MB by the subtractor 7 is one to be encoded are input to the encoder 9, and decodes the coded data locally decoder 10 the difference image data, said motion vector summed with the original of the original MB is to be again held in the frame memory 2 is reproduced by the adder 11. なお、動きベクトル探索器5によって得られた動きベクトルは、場合によっては使用しない方が良い場合がある(ピクチャ間予測符号化対象の画像でもピクチャ内予測符号化を行なった方が符号化効率が良い場合もある)。 Incidentally, a motion vector obtained by the motion vector searcher 5, it was subjected to intra-picture prediction coding in the image of which was not it is in some cases better (inter picture prediction coded using in some cases the coding efficiency good if there is also a).
このような場合には、予測判定器6は、ピクチャ間予測符号化を行なうべき場合でも、動きベクトル探索器5によって得られた動きベクトルは使用(出力)せず、スイッチ8及び12をそれぞれ減算器7及び加算器11側とは逆側に切り替えて、ピクチャ内予測符号化が行なわれるようにする。 In such a case, the prediction determination unit 6, even if should perform inter picture prediction coding, the motion vectors obtained by the motion vector searcher 5 without (output), respectively subtracted switches 8 and 12 the vessels 7 and the adder 11 side is switched to the opposite side, so that intra picture prediction coding is performed.

【0037】次に、上記の符号化器9は、スイッチ8から選択出力されてくる画像データをMB単位に符号化するもので、例えば、MPEG方式の場合であれば、DC Next, the above-described encoder 9 is for encoding image data that is selected and output from the switch 8 to the MB unit, for example, in the case of MPEG system, DC
T(Discrete Cosine Transform)による直行変換,量子化及び可変長符号化の各処理が符号化処理として含まれることになる。 Direct conversion by T (Discrete Cosine Transform), so that the processes of quantization and variable length coding is included as the encoding process. また、局所復号化器10は、ピクチャ間予測符号化を行なう基本原理として、過去に符号化したピクチャと符号化対象のピクチャとの差分情報を得る必要があるので、符号化器10で符号化されたデータを復号することにより過去に符号化したピクチャを再生するもので、MPEG方式の場合であれば、逆量子化及び逆DCTの各処理が局所復号化処理として含まれることになる。 Further, the local decoder 10, a basic principle for performing inter picture prediction coding, the past is necessary to obtain the difference information between encoded picture and coded picture, coded by the encoder 10 It intended to reproduce the encoded pictures in the past by decoding the data, in the case of MPEG system, so that the processing of inverse quantization and inverse DCT is included as a local decoding process. なお、局所復号化処理は、MPEG方式の場合、上記の符号化器9における可変長符号化処理前のデータを用いて行なうのが一般的であるので、逆可変復号化処理は含まないのが普通である。 Incidentally, the local decoding process, if the MPEG method, since carried out using a variable length coding process before the data in the encoder 9 is generally, that does not include the inverse variable decoding process it is common.

【0038】つまり、図1において、特殊効果シーン検出装置13以外の部分は、符号化対象のピクチャを過去に符号化したピクチャとの相関に基づいて予測符号化する予測符号化部21として機能するのである。 [0038] That is, in FIG. 1, a portion other than special effect scene detection unit 13 functions as a prediction encoding unit 21 for predictive coding based on a correlation between the picture obtained by coding in the past pictures to be coded than is. 次に、上記の特殊効果シーン検出装置13において、入力画像情報統計取得器(輝度情報統計取得部)14は、フレームメモリ2に蓄積された符号化対象のピクチャの特徴情報としての輝度信号(輝度情報)についての統計情報(輝度平均;第1統計情報)を取得するためのもので、例えば、フレーム輝度平均を求める場合は、フレーム内の画素集合をU、フレーム輝度平均をAvePとすると、フレーム輝度平均AvePは、例えば、次式(3)によって求められる。 Next, the special effect scene detection device 13 described above, the input image information statistics acquirer (luminance information statistics acquisition unit) 14, the luminance signal (luminance as the feature information of the stored coded picture in the frame memory 2 statistics (average luminance information); used to obtain the first statistical information), for example, the case of obtaining the average frame luminance, a pixel set within the frame U, when the average frame luminance and AVEP, frame average luminance AveP, for example, be determined by the following equation (3).

【0039】 [0039]

【数1】 [Number 1]

【0040】なお、この輝度平均の算出は、必ずしもピクチャ内の全画素を用いる必要はなく、一部の画素を用いるようにしてもよい。 [0040] The calculation of the average luminance is not always necessary to use all the pixels in the picture, it may be used a part of the pixel. 一方、上記の動き情報統計取得器(動きベクトル情報統計取得部)15は、符号化対象のピクチャと過去に符号化したピクチャとの間の動きベクトルについての統計情報(第2統計情報)として動きベクトル平均及び分散を取得するためのもので、例えば、各MBで得られた動きベクトルを累積してゆき、累積動きベクトルをピクチャのMB数で割ることにより動きベクトル平均を得ることができ、各動きベクトルと動きベクトル平均との差の2乗和や絶対値和を求めてMB On the other hand, the motion information statistics acquirer (motion vector information statistics acquisition unit) 15, statistical information (second statistics) as the motion of the motion vector between the coded pictures in the past and the current picture to be coded used to obtain the vector averaging and variance, for example, Yuki by accumulating motion vectors obtained in each MB, it is possible to obtain a motion vector average by dividing the accumulated motion vector MB number of pictures, each MB seeking square sum and absolute value sum of the difference between the motion vector and the motion vector average
数で割ることにより動きベクトル分散を得ることができる。 It is possible to obtain a motion vector variance by dividing by the number.

【0041】即ち、フレーム内のMB集合をV、各動きベクトルをVec_i、ピクチャのMB数をNum_I、動きベクトルの値を(水平成分,垂直成分)=(VecH_i,VecV_ [0041] ie, V the MB set in a frame, each motion vector Vec_i, Num_I the MB number of the picture, the value of the motion vector (horizontal component, vertical component) = (VecH_i, VecV_
i)とし、水平成分の平均値(以下、単に「水平平均値」という)をAH、水平成分の分散値(以下、単に「水平分散値」という)をVH、垂直成分の平均値(以下、単に「垂直平均値」という)をAV、垂直成分の分散値(以下、単に「垂直分散値」という)をVVとそれぞれ表わすと、動き情報統計取得器15は、それぞれ次式(4)〜(7)で表わされる演算により、動きベクトルの水平成分及び垂直成分についての平均及び分散をそれぞれ求めることができる。 i) and then, the average value of the horizontal component (hereinafter, simply) referred to as "horizontal mean" AH, dispersion value of the horizontal component (hereinafter, simply) referred to as "horizontal variance" VH, the average value of the vertical component (hereinafter, simply referred to as "vertical average value") of the AV, the dispersion value of the vertical component (hereinafter, when simply expressed respectively a) referred to as "vertical variance" VV, motion information statistics acquisition unit 15, the following equations (4) - ( the operation represented by 7), the mean and variance of the horizontal and vertical components of the motion vector can be determined, respectively.

【0042】 [0042]

【数2】 [Number 2]

【0043】このため、本実施形態の動き情報統計取得器15には、例えば図2中に示すように、上記の式(4)による演算によって水平平均値AHを求める水平動きベクトル平均演算器151、上記の式(5)による演算によって水平分散値VHを求める水平動きベクトル分散演算器152、上記の式(6)による演算によって垂直平均値AVを求める垂直動きベクトル平均演算器1 [0043] Therefore, the motion information statistical obtainer 15 of the present embodiment, for example, as shown in FIG. 2, the horizontal motion vector average calculator obtains the horizontal average value AH by computation by the above formula (4) 151 , horizontal motion vector variance calculator 152 for obtaining the horizontal variance VH by calculation according to the above equation (5), vertical motion vector average calculator 1 for obtaining the vertical average value AV by computation by the above formula (6)
53、上記の式(7)による演算によって垂直分散値V 53, the vertical variance by computation by the above formula (7) V
Vを求める垂直動きベクトル分散演算器154がそなえられている。 Vertical motion vector variance calculator 154 for obtaining a V are provided.

【0044】なお、上記の例は、各動きベクトルと動きベクトル平均との差の絶対値和をとる場合であるが、勿論、2乗和をとるようにしてもよい。 [0044] Incidentally, the above example is a case of taking the absolute sum of the difference between the motion vector and the motion vector average, of course, it may be take the square sum. また、以下において、動きベクトルの水平成分及び垂直成分についての平均及び分散を特に区別しない場合は、単に「動きベクトル平均」及び「動きベクトル分散」と称することにする。 In the following, when no particular distinction mean and variance of the horizontal and vertical components of the motion vectors, will be simply referred to as "motion vector average" and "motion vector variance".

【0045】次に、上記の特殊シーン検出器(特殊効果シーン検出部)16は、上記の各統計取得器14,15 Next, the above-mentioned special scene detector (special effect scene detection unit) 16, each of the above statistic acquisition 14 and 15
によって得られた各統計情報(輝度平均,動きベクトル平均及び分散)に基づいて符号化対象のピクチャが、フェードやパニング,チルトなどの特殊効果シーンであることを検出するためのもので、ここでは、上記の各統計情報が、図2により後述するように、閾値L1,L2, Each statistic (average luminance, motion vector mean and variance) obtained by the picture encoding target based on is intended to detect that fades and panning, a special effect scenes such as tilt, where as the statistics above, will be described later with FIG. 2, the threshold L1, L2,
MH1〜MH3,MV1〜MV3によって規定される所定の第1検出条件を満足すると符号化対象のピクチャがフェードシーンであると判断し、第2検出条件を満足すると符号化対象のピクチャがパニングもしくはチルトのシーンであると判断するようになっている。 MH1~MH3, predetermined first picture of satisfactory when the encoding target detection condition defined by MV1~MV3 is judged to be fade scene, to satisfy the second detection condition picture to be coded panning or tilting it is adapted to determined to be of the scene.

【0046】つまり、上記の特殊シーン検出器16は、 [0046] In other words, special scene detector 16 of the above,
上記の各統計情報が所定の第1検出条件を満足すると符号化対象のピクチャがフェードシーンであることを検出するフェード検出部としての機能と、上記の各統計情報が所定の第2検出条件を満足すると符号化対象のピクチャがパニングあるいはチルトのシーンであることを検出するパニング/チルト検出部としての機能とを兼ね備えているのである。 And functions as a fade detector for detecting that the statistics of the encoding target to satisfy the predetermined first detection condition picture above is fade scene, each statistics above a predetermined second detection condition satisfying the encoding target picture is're both a function as a panning / tilt detecting unit for detecting that a panning or tilting of the scene.

【0047】そして、制御部17は、上記の特殊シーン検出器16(特殊効果シーン検出装置13)にて符号化対象のピクチャが特殊効果シーンであると判断された場合に、検出された特殊効果シーンの種別(フェードやパニング/チルトなど)に応じて、符号化状態を制御するためのもので、本実施形態では、特殊シーン検出器16 [0047] Then, the control unit 17, when the picture to be encoded is determined to be a special effects scene in the above special scene detector 16 (special effect scene detection unit 13), the detected special effects according to the type of scene (such as fades and panning / tilting), intended for controlling the coding state, in the present embodiment, the special scene detector 16
にて、後述するように特殊効果シーンとして、フェードシーンが検出された場合には、動きベクトルを制御する一方、パニングやチルトのシーンが検出された場合には、動きベクトル探索器5による動きベクトル探索範囲を動きベクトルについての統計に基づいてシフト制御するようになっている。 At, the special effect scene as will be described later, when the fade scene is detected, while controlling the motion vector, when the panning or tilting of the scene is detected, the motion by the motion vector searcher 5 vector motion search range is adapted to the shift control based on the statistics for the vector.

【0048】例えば、本実施形態では、特殊効果シーンとしてフェードシーンが検出された場合には、全ての動きベクトルを強制的にゼロベクトルにすることで、不要な動きベクトルが選択(符号化)されないようにピクチャの符号化状態を制御して符号化効率を上げることができる。 [0048] For example, in this embodiment, when the fade scene is detected as a special effect scene, by forced to zero vector all motion vectors, not unwanted motion vectors is selected (coded) it can be increased coding efficiency by controlling the coding state of the picture as. 一方、特殊効果シーンとしてパニングやチルトのシーンが検出された場合には、動きベクトルの統計から動き方向を判別して、その方向へ動きベクトル探索範囲をシフトすることで、パニングやチルトのシーンに対しても演算量を増やすことなく必要な動きベクトルを精度良く求めて符号化効率を上げることができる。 On the other hand, when the panning or tilting of the scene as a special effect scene is detected, to determine the motion direction from the statistics of the motion vector, by shifting the motion vector search range in that direction, the panning and tilting of the scene it can be increased coding efficiency also determined accurately the required motion vectors without increasing the amount of computation for.

【0049】つまり、本実施形態の制御部17は、特殊シーン検出器16にてフェードシーンが検出されると動きベクトルを制御して予測符号化部21での符号化状態を制御する動きベクトル情報制御部としての機能と、特殊シーン検出器16にてパニングあるいはチルトのシーンが検出されると動きベクトルの統計情報に基づいて動きベクトル探索器5での探索範囲をシフト制御する探索範囲シフト制御部としての機能とを兼ね備えているのである。 [0049] That is, the motion vector information control unit 17 of this embodiment, fade scenes by special scene detector 16 to control the coding states in predictive encoding unit 21 controls the motion vector when it is detected and functions as a control unit, a search range shift controller for shift control of the search range of the motion vector searcher 5 based on the statistics of the panning or tilting of the scene is detected by the special scene detector 16 motion vectors it's has both a function and as a.

【0050】以下、上述のごとく構成された本実施形態の動画像符号化装置1(特殊効果シーン検出装置13) [0050] Hereinafter, the moving picture coding apparatus 1 of this embodiment configured as described above (special effect scene detection unit 13)
の動作について、図2に示すフローチャートを参照しながら詳述する。 The operation will be described in detail with reference to a flowchart shown in FIG. なお、予測符号化部21での基本的な動作については従来と同様である。 Incidentally, the basic operation of the predictive encoder 21 is conventional. 即ち、最初の符号化対象のピクチャについては、ピクチャ内符号化が行なわれ、原画MBがそのまま符号化される。 That is, for the first coded picture, a picture in the encoding is performed, the original MB is directly encoded. そして、以降の継続するピクチャについては、それぞれ前に符号化したピクチャとの差分を符号化するために動き予測が行なわれる。 And, for the pictures to continue later, motion prediction is performed to encode the difference between the coded picture before, respectively. 即ち、より原画MBに相関の高いMBが参照ブロック内で探索され、原画MBのピクチャ内での位置と予測MBの参照ブロック内での位置の相対的なずれが動きベクトルとして求められて符号化情報に多重化される。 That is searched in a more original MB high correlation MB reference block, the sought as a relative displacement motion vector location in the position as the reference block of the prediction MB in the picture of the original image MB coding It is multiplexed into the information.

【0051】一方、特殊効果シーン検出装置13においては、まず、入力画像情報統計取得器14にて、符号化対象のピクチャについての輝度平均AvePが求められ、前ピクチャについての輝度平均AvePとの差分D(以下、輝度平均差分Dともいう)が求められる。 Meanwhile, in the special effect scene detection unit 13, first, the difference in the input image information statistics obtainer 14, the average luminance AveP for pictures to be coded is determined, the luminance average AveP for the previous picture D (hereinafter also referred to as average luminance difference D) is obtained. そして、この差分Dと第1の閾値L1とが特殊シーン検出器16において比較されて、差分Dが閾値L1よりも大きいか否かが判別される(ステップS1)。 Then, the the difference D and the first threshold value L1 is compared in a special scene detector 16, whether or not the difference D is greater than the threshold L1 is determined (step S1). この結果、差分Dが閾値L1以下であるようなら、輝度平均の変化があまり無いと思われるのでフェード検出条件から外れる(フェード非検出;ステップS1のNOルート)。 As a result, if such difference D is a threshold value L1 or less, the change in average luminance appears to not much deviate from the fade detection condition (fade undetected; NO route of step S1). なお、上記の閾値L1としては、例えば、2〜5程度の値を設定するのが適当である。 As the above-mentioned threshold L1, for example, it is appropriate to set the 2-5 degree value.

【0052】これに対し、上記の差分Dが閾値L1よりも大きければ、フェードシーンの可能性があるので、特殊シーン検出器16は、次に、差分Dと第2の閾値L2 [0052] In contrast, greater than the difference D is a threshold L1, there is a possibility of a fade scene, special scene detector 16 then difference D and the second threshold value L2
とを比較して、差分Dの方が閾値L2よりも小さいかどうかを判別する(ステップS1のYESルートからステップS2)。 Compared bets, determines whether towards the difference D is smaller than the threshold L2 (step S2 from YES route of step S1). なお、上記の閾値L2は、L2>L1を満足する値で、例えば、20程度を設定するのが適当である。 The threshold L2 described above is a value which satisfies L2> L1, for example, it is appropriate to set the degree 20.

【0053】この結果、差分Dが閾値L2以上であれば、フェードシーンとは異なりピクチャ間の相関がかなり低いシーンチェンジが発生していると思われるので、 [0053] Consequently, if the difference D is a threshold value L2 or more, since the fairly low scene change correlation between unlike fade scene picture it appears to have occurred,
この場合も、フェード検出条件から除外される(フェード非検出;ステップS2のNOルート)。 Again, it is excluded from the fade detection condition (fade undetected; NO route of step S2). ちなみに、シーンチェンジ発生の場合には、ピクチャ内符号化を使用した方が一般的に符号化効率が良い。 Incidentally, in the case of a scene change occurs, better to use the intra-picture coding is generally encoded efficient.

【0054】一方、上記の差分Dが第2の閾値L2よりも小さければ、特殊シーン検出器16は、次に、水平動きベクトル平均演算器151〔式(4)参照〕によって求められた水平平均値AHとその水平平均値AHについての閾値MH1とを比較(絶対値比較)して、水平平均値AHの方が閾値MH1よりも小さいかどうかを判別する(ステップS2のYESルートからステップS3)。 On the other hand, smaller above difference D is than the second threshold value L2, the special scene detector 16 then horizontal average obtained by the horizontal motion vector average calculator 151 [Equation (4) Reference] comparing the value AH and the threshold MH1 about the horizontal average value AH (absolute value comparison) that determines whether towards the horizontal average value AH is smaller than the threshold value MH1 (step S3 YES route of step S2) .
なお、上記の閾値MH1としては、例えば、10〜16 As the above-mentioned threshold MH1, for example, 10 to 16
程度の値を設定するのが適当である。 It is appropriate to set the value of the degree.

【0055】上記の判別の結果、水平平均値AHが閾値MH1以上であれば、動きベクトルの水平成分の方向が或る程度揃っていることになるので、そのときの符号化対象のピクチャ(シーン)はフェードシーンではなくパニングのシーンである可能性が高いと判断されて、フェード検出条件からは除外される(フェード非検出;ステップS3のNOルート)。 [0055] Results of the above determination, if the horizontal average value AH threshold MH1 above, since the direction of the horizontal component of the motion vector becomes that you have to some extent, the picture encoding target at that time (the scene ) it is being determined and is likely to be a panning not the fade scene scene, are excluded from the fade detection condition (fade undetected; NO route of step S3).

【0056】一方、水平平均値AHの方が閾値MH1よりも小さければ、特殊シーン検出器16は、次に、水平動きベクトル分散演算器152〔式(5)参照〕によって求められた水平分散値VHと、その水平分散値VHについての閾値MH2とを比較して、水平分散値VHの方が閾値MH2よりも大きいかどうかを判別する(ステップS3のYESルートからステップS4)。 Meanwhile, smaller than the threshold MH1 towards horizontal average value AH, special scene detector 16 then horizontal dispersion value determined by the horizontal motion vector variance calculator 152 [Equation (5) see] and VH, is compared with the threshold value MH2 about the horizontal variance VH, determines whether towards the horizontal variance VH is larger than the threshold value MH2 (step S4 YES route of step S3). なお、上記の閾値MH2は、MH2<MH1を満足する値で、例えば、MH1/3程度の値を設定するのが適当である。 The above threshold MH2 is a value satisfying the MH2 <MH1, for example, it is appropriate to set a value of about MH1 / 3.

【0057】この結果、水平分散値VHが閾値MH2以下であれば、水平平均値AHも水平分散値VHも小さいということになるので、フェードシーン時に発生する動き予測効率の低下が発生していないと思われるので、この場合も、フェード検出条件から除外される(フェード非検出;ステップS4のNOルート)。 [0057] Consequently, if the horizontal variance VH threshold MH2 less, it means that also the horizontal average value AH smaller horizontal variance VH, reduction of motion prediction efficiency does not occur that occur during a fade scene since seems, also in this case, it is excluded from the fade detection condition (fade undetected; NO route of step S4). 一方、水平分散値VHが閾値MH2よりも大きければ、特殊シーン検出器16は、次に、垂直動きベクトル平均演算器153 On the other hand, it is larger than the threshold value MH2 horizontal variance VH, the special scene detector 16 then the vertical motion vector average calculator 153
〔式(6)参照〕によって求められた垂直平均値AV [Formula (6) see FIGS vertical average value AV determined by
と、その垂直平均値AVについての閾値MV1とを比較(絶対値比較)して、垂直平均値AVが閾値MV1よりも小さいかどうかを判別する(ステップS4のYESルートからステップS5)。 When, the comparison with the threshold value MV1 in the vertical average value AV (absolute value comparison) to the vertical average value AV to determine if less than the threshold value MV1 (step S5 from YES route of step S4). なお、上記の閾値MV1には、水平平均値についての閾値MH1と同程度の値を設定するのが適当である。 Incidentally, the above threshold value MV1, it is appropriate to set the value of the same level as the threshold value MH1 of the horizontal average value.

【0058】この結果、垂直平均値AVが閾値MV1以上であれば、チルトシーンの可能性があるので、フェード検出条件からは除外される(フェード非検出;ステップS5のNOルート)。 [0058] Consequently, if the vertical average value AV threshold MV1 or more, there is a possibility of tilting the scene, it is excluded from the fade detection condition (fade undetected; NO route of step S5). 一方、垂直平均値AVが閾値M On the other hand, the vertical average value AV threshold M
V1よりも小さければ、特殊シーン検出器16は、次に、垂直動きベクトル分散演算器154〔式(7)参照〕によって求められた垂直分散値VVと、その垂直分散値VVについての閾値MV2とを比較して、垂直分散値VVが閾値MV2よりも大きいか否かを判別する(ステップS5のYESルートからステップS6)。 Is smaller than V1, the special scene detector 16 then the vertical variance VV determined by the vertical motion vector variance calculator 154 [Formula (7)], the a threshold MV2 for the vertical variance VV compare, it is determined whether or not the vertical variance VV is greater than the threshold value MV2 (from YES route of step S5 S6). なお、 It should be noted that,
上記の閾値MV2は、MV2<MV1を満足する値で、 The above threshold value MV2 is a value satisfying the MV2 <MV1,
例えば、MV1/3程度の値を設定するのが適当である。 For example, it is appropriate to set a value of about MV1 / 3.

【0059】その結果、垂直分散値VVが閾値MV2以下であれば(ステップS6でNOと判定されれば)、垂直平均値AVも垂直分散値VVも小さいことになるので、この場合も、フェードシーン時に発生する動き予測効率の低下が発生していないと思われるので、フェード検出条件から外れる(フェード非検出)。 [0059] As a result, (if it is determined at step S6 and NO) If the vertical variance VV threshold MV2 less, since the vertical average value AV is also in the vertical variance VV is small, even in this case, the fade since reduction of the motion prediction efficiency that occurs when a scene does not appear to be generated, out of the fade detection condition (fade non-detection). これに対し、 On the other hand,
垂直分散値VVが閾値MV2よりも大きい場合は、符号化対象のピクチャがフェードシーンである可能性が非常に高いと判断される(フェード検出;ステップS6のY If the vertical variance VV is greater than the threshold value MV2, possible picture to be coded is a fade scene is determined to a very high (fade detection; step S6 Y
ESルート)。 ES root).

【0060】つまり、本実施形態の特殊シーン検出器1 [0060] That is, in this embodiment special scene detector 1
6は、前記の第1検出条件として、D>L1,D<L 6, as the first detection condition of the, D> L1, D <L
2,AH<MH1,VH>MH2,AV<MV1及びV 2, AH <MH1, VH> MH2, AV <MV1 and V
V>MV2という条件を全て満足した場合に初めて、符号化対象のピクチャがフェードシーンであると判断するのである。 Only when all satisfied the condition of V> MV2, pictures to be coded is to determine that the fade scene. 従って、輝度平均だけをみるとフェードシーンと似た特徴を示すフェードシーン以外のシーン(パニングやチルトなど)をフェードシーンとして誤検出してしまう確率が大幅に低減されて、正確なフェード検出が実現される。 Therefore, reduced probability significantly erroneously detected scenes other than fade scenes exhibit characteristics similar to fade scene Looking only average brightness (such as panning or tilting) as fade scene, achieved accurate fade detection It is.

【0061】そして、このようにして、フェードシーンが検出されると、特殊シーン検出器16は、制御部17 [0061] Then, in this way, when the fade scene is detected, the special scene detector 16, control unit 17
に対してフェード検出信号を出力し、これにより、制御部17は、動きベクトル探索器5で得られる全ての動きベクトルを強制的にゼロベクトルに制御する。 Outputs the fade detection signal to thereby control unit 17 forcibly controls the zero vector all motion vectors obtained by the motion vector searcher 5. これにより、フェードシーンにおいて不要な動きベクトルが選択(符号化)されて符号化効率が落ちることを確実に回避することができ、フェードシーンでの符号化効率を飛躍的に向上することができる。 This will unwanted motion vector selected in fade scenes (encoded) to be able to reliably avoid that the coding efficiency is lowered, it is possible to dramatically improve the coding efficiency of the fade scene.

【0062】ところで、上記のステップS3(S5)において水平平均値AH(垂直平均値AV)が閾値MH1 [0062] Incidentally, horizontal average value in the above step S3 (S5) AH (perpendicular average AV) threshold MH1
(MV1)以上であった場合、特殊シーン検出器16 (MV1) Exceeded the case, special scene detector 16
は、上述したフェード検出と並行して、水平動きベクトル分散演算器152(垂直動きベクトル分散演算器15 In parallel with the fade detection as described above, the horizontal motion vector variance calculator 152 (vertical motion vector variance calculator 15
4)によって求められた水平分散値VH(垂直分散値V Horizontal dispersion value obtained by 4) VH (vertical variance V
V)と、その水平分散値VH(垂直分散値VV)についての閾値MH3(MV3)とを比較して、水平分散値V And V), by comparing the threshold MH3 and (MV3) about the horizontal variance VH (vertical variance VV), the horizontal variance V
H(垂直分散値VV)が閾値MH3(MV3)よりも小さいかどうかを判別している〔ステップS3(S5)のNOルートからステップS7(S8)〕。 H [Step S7 (S8) from NO route at Step S3 (S5)] that determine whether (vertical variance VV) is smaller than the threshold value MH3 (MV3).

【0063】なお、上記の閾値MH3(MV3)には、 [0063] It should be noted that, in the above-mentioned threshold MH3 (MV3) is,
閾値MH2(MV2)と同じ値を設定してもよいが、或る程度以上動きベクトルがばらついていることを検出するための閾値MH2(MV2)と、或る程度以上動きベクトルが揃っていることを検出するための閾値MH3 Threshold MH2 (MV2) and may be set to the same value, but the threshold MH2 (MV2) for detecting that has varied to some extent or more motion vectors, that is aligned to some extent or more motion vectors threshold MH3 for the detection of
(MV3)というように検出目的が異なるので、上述したように、各値は異なる値〔MH2>MH3(MV2> The detection object and so on (MV3) is different, as described above, each value is a different value [MH2> MH3 (MV2>
MV3)〕に設定するのが好ましい。 Preferably set to MV3)].

【0064】そして、上記の判別の結果、水平分散値V [0064] Then, the above result of the determination, the horizontal variance V
H(垂直分散値VV)が閾値MH3(MV3)よりも小さければ、特殊シーン検出器16は、そのときの符号化対象のピクチャがパニング(チルト)のシーンであると判別して〔パニング(チルト)検出;ステップS7(S Is smaller than H (vertical variance VV) threshold MH3 (MV3), a special scene detector 16 is a picture to be coded is determined to be a scene of panning (tilting) [panning that time (tilt ) detected; step S7 (S
8)のYESルート〕、パニング(チルト)検出信号を制御部17へ出力する。 YES route 8)], panning (tilting) and outputs a detection signal to the control unit 17. なお、水平分散値VH(垂直分散値VV)が閾値MH3(MV3)以上の場合は、動きベクトルが或る程度ばらついていることになるので、パニング(チルト)検出条件からは外れる〔パニング(チルト)非検出;ステップS7(S8)のNOルート〕。 In the case the horizontal variance VH (vertical variance VV) is the threshold MH3 (MV3) above, it means that the motion vector is varied to some extent, it deviates from the panning (tilting) detection conditions [panning (tilting NO route of step S7 (S8)];) non-detection.

【0065】つまり、特殊シーン検出器16は、前記の第2検出条件として、D>L1及びD<L2という条件を満足するとともに、AH≧MH1及びVH<MH3 [0065] That is, the special scene detector 16, a second detection condition of the, as to satisfy the condition of D> L1 and D <L2, AH ≧ MH1 and VH <MH3
(AV≧MV1及びVV<MV3)という条件を満足した場合に初めて、符号化対象のピクチャがパニング(チルト)のシーンであると判断するのである。 Only when satisfied (AV ≧ MV1 and VV <MV3) that condition is the picture to be coded is determined to be the scene of panning (tilting). 従って、輝度平均だけをみる場合に比して、より正確にパニングやチルトのシーンを検出することができる。 Therefore, it is possible as compared with the case to see only the luminance average, be detected more accurately panning and tilting scene.

【0066】そして、上述のごとくパニング(チルト) [0066] and, as described above panning (tilting)
が検出されてパニング(チルト)検出信号が制御部17 There are detected panning (tilting) the detection signal the control unit 17
に出力されると、制御部17は、動きベクトルの統計から動きの(パニング又はチルトの)方向を判別し、その方向へ動きベクトル探索範囲322を平均動き量だけシフトする。 When output to the control unit 17, from the statistics of the motion vector of the motion (panning or tilting) determines the direction to shift the motion vector search range 322 by the average motion amount in that direction. 例えば図5に模式的に示すように、元の動きベクトル探索範囲322が[MinH,MaxH]である場合に、パニングが検出されると、制御部17は、 [M For example, as shown schematically in FIG. 5, when the original motion vector search range 322 is [MinH, MaxH], when panning is detected, the control unit 17, [M
inH+AH,MaxH+AH]というように元の探索範囲322を水平方向に平均動き量AHだけシフトする。 inH + AH, shifted by the average motion amount AH the original search range 322 in the horizontal direction so that MaxH + AH]. これにより、パニングやチルトなどの一定方向へ移動するシーンに対しても動きベクトルを求めるための演算量を増やすことなく、必要な動きベクトルを精度良く求めて符号化効率を上げることができる。 Thus, without increasing the amount of calculation for obtaining the motion vector with respect to a scene to move to a certain direction, such as panning or tilting, it is possible to improve the coding efficiency accurately determine the required motion vector.

【0067】なお、演算量は増えるが、勿論、上記の平均動き量分だけ元の探索範囲322を拡大しても、パニングやチルトなどのシーンにおける動きベクトルを精度良く求めることは可能である。 [0067] Incidentally, the calculation amount is increased but, of course, be expanded to the original search range 322 by an average movement amount described above, it is possible to accurately obtain the motion vectors in the scene, such as panning and tilting. また、符号化を行なっている場合、フェードやパニング,チルトなどが生じ始めた最初のピクチャから符号化効率が悪くなったのを視覚的に認知することは非常に困難であるため、制御部17 Also, if you are performing coding, for fades and panning, to visually recognize the coding efficiency becomes worse from the first picture, such as a tilt began to form is very difficult, the control unit 17
は、上述したフェード(パニング/チルト)検出が所定フレーム分連続して発生したことを確認した上で、上述したような制御を実行するようにしてもよい。 Is in terms of the above-mentioned fade (panning / tilting) detection was confirmed that the continuously generated a predetermined number of frames, it may be executed such control as described above. このようにすることで、フェードやパニング,チルトなどのシーンと、ズームアウトやズームインのシーンとを区別することも可能になり、より正確な検出を行なうことが可能である。 In this way, fades and panning, also allows to distinguish between scenes, such as a tilt, and zoom-out and zoom-scenes, it is possible to perform more accurate detection.

【0068】さらに、動きベクトルがフレーム枠の外側を指すことは一般に考えられないため、動きベクトルの方向に制限があるフレーム枠側の方のMBを除いて、動きベクトルの統計処理を行なうのも良い方法である。 [0068] Further, since the motion vector is not believed to generally to refer to the outer framework, with the exception of the MB towards framework side is limited in the direction of the motion vector, also perform a statistical processing of the motion vector a good way. これは、輝度平均の統計で必ずしも全画素を用いる必要がないことと同様である。 This is similar to what is not necessary to use necessarily all pixels in the luminance average statistics. また、フェード検出時の制御部17による符号化制御としては、上記のように全ての動きベクトルを0ベクトルにするのではなく、より0ベクトルに近いベクトルが選択されやすいように、重み付け制御を行なう方法も考えられる。 As the encoding control by the fade detection time of the control unit 17, rather than all the motion vectors as described above is to the 0 vector, such vector is easily selected closer to 0 vector, performs weighting control The method is also conceivable. 例えば、動きベクトルを求める際に行なうブロックマッチング処理の評価値に、動きベクトルの大きさに比例する補正量を加算した上で、ブロックマッチングを行なうことにより、より0 For example, the evaluation value of the block matching process performed when obtaining the motion vector, after adding the correction amount proportional to the magnitude of the motion vector by performing block matching, more 0
ベクトルに近いベクトルが選択されやすいようにしてもよい。 Vector close to the vector may be easily selected.

【0069】また、前記の輝度平均や動きベクトル平均,動きベクトル分散の各演算には、必ずしも前記の式(3)〜式(7)を用いる必要はなく、より簡単な演算を用いてもよい。 [0069] Further, the average luminance and the motion vector average, each operation of the motion vector variance, it is not always necessary to use the equation (3) to (7) may be used simpler operations . 例えば、演算量削減のために割り算の処理を省いて単なる累積値を求めるようにしても構わないし、1画素飛びに累積を行なうなど、ピクチャ内の全画素の部分集合を用いて処理を行なうことも可能である。 For example, it may be calculated to mere accumulation value by omitting the process of division for computation reduction, such as performing accumulated fly 1 pixel, to perform processing using a subset of all the pixels in the picture it is also possible. ただし、演算式が変わるとそれに応じて設定する閾値(L1,L2,MH1〜MH3,MV1〜MV3)も変更する必要がある。 However, the threshold value to be set accordingly the calculation equation is changed (L1, L2, MH1~MH3, MV1~MV3) must be changed.

【0070】さらに、上記の例では、フェードシーンの検出のために、動きベクトルの水平成分及び垂直成分の双方についての平均値及び分散値を用いているが、水平成分及び垂直成分のいずれか一方のみを用いるようにしてもよいし、平均値及び分散値のいずれか一方のみを用いるようにしてもよい。 [0070] Further, in the above example, for the detection of fade scene, but using the average value and the variance values ​​for both the horizontal and vertical components of the motion vector, whereas one of the horizontal and vertical components it may be used alone, it may be used only one of the average value and variance value. また、上記の例では、特殊シーン検出器16が、フェード検出とパニング/チルト検出とで兼用になっているが、フェード検出専用あるいはパニング/チルト検出専用の検出器として構成してもよい。 Further, in the above example, the special scene detector 16, but also serves in the fade detection and panning / tilt detection may be configured as a detector of a fade detector dedicated or panning / tilt detection only. 即ち、特殊シーン検出器16は、例えば図6に示すフェード検出フロー(アルゴリズム)に従って動作するように構成してもよいし、図7に示すパニング/チルト検出フロー(アルゴリズム)に従って動作するように構成してもよい。 That is, the special scene detector 16, for example, may be configured to operate in accordance with the fade detection flow (algorithm) shown in FIG. 6, configured to operate according to panning / tilt detection flow (algorithm) shown in FIG. 7 it may be. なお、図6及び図7に示すフローチャートにおいて、図2により上述したステップ番号と同一ステップ番号を付した処理は、図2により上述した処理と同様であるものとする。 In the flowchart shown in FIGS. 6 and 7, the process denoted by the step numbers same step numbers described above in the FIG. 2 is assumed to be the same as the processing described above by Figure 2.

【0071】さらに、特殊シーン検出器16をパニング/チルト検出専用の検出器として構成する場合には、必ずしも輝度平均は用いなくてもよく、例えば図8に示すように、動きベクトルの統計のみでパニングやチルトのシーン検出を行なうようにしてもよい。 [0071] Further, when configuring the special scene detector 16 as panning / tilt detection dedicated detectors necessarily may luminance average is not used, for example, as shown in FIG. 8, the statistics of the motion vector only it may be performed the panning and tilting of scene detection. ただし、パニングやチルトのシーンが検出された場合は、必ず上記の動きベクトル探索範囲のシフト制御を行なうのが前提である。 However, if the panning and tilting of the scene is detected, it is premised that always performs a shift control of the motion vector search range.

【0072】そして、本発明は、上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変形して実施することができる。 [0072] Then, the present invention is not limited to the above embodiments and may be modified in various ways without departing from the scope of the present invention. ・付記 (付記1) 入力画像を過去に符号化した画像との相関情報に基づいて予測符号化する予測符号化部と、該入力画像のもつ特徴情報についての第1統計情報と、該相関情報についての第2統計情報とに基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出部と、該特殊効果シーン検出部で検出された特殊効果シーンに応じて該予測符号化部による該入力画像の符号化状態を制御する制御部とをそなえて構成されたことを特徴とする、動画像符号化装置。 - Appendix (Supplementary Note 1) and predictive coding unit for prediction encoding based on the correlation information between the coded image input image in the past, the first statistical information about feature information with the input image, the correlation information the by said prediction encoding unit according to the second and special effects scene detection unit which detects a special effect scene of the input image on the basis of the statistical information, special effects scene detected by the special effect scene detection unit for characterized in that it is configured to include a control unit for controlling the coding state of the input image, the moving picture coding apparatus.

【0073】(付記2) 該特殊効果シーン検出部が、 [0073] (Supplementary Note 2) The special effect scene detection unit,
該入力画像の輝度情報についての統計情報を該第1統計情報として取得する輝度情報統計取得部と、該入力画像と過去に符号化した画像との間の動きベクトル情報についての統計情報を該第2統計情報として取得する動きベクトル情報統計取得部と、上記の各統計情報が所定の第1検出条件を満足すると該入力画像が該特殊効果シーンとしてのフェードシーンであることを検出するフェード検出部とをそなえて構成されるとともに、該制御部が、 Said luminance information statistics acquisition unit for acquiring statistics about the luminance information of the input image as a first statistical information, the statistical information of the motion vector information between the coded image to the input image and the past motion vector information statistics acquisition unit for acquiring a 2 statistics and, fade detecting unit each statistic above the satisfaction to the input image a predetermined first detection condition to detect that the fade scene as the special effect scenes while being configured to include a preparative, the control unit,
該フェード検出部にて該フェードシーンが検出されると該動きベクトル情報を制御して該符号化状態を制御する動きベクトル情報制御部として構成されていることを特徴とする、付記1記載の動画像符号化装置。 Characterized in that it is configured as a motion vector information control unit the fade scenes to control the to be the motion vector information the coding state by controlling the detection by said fade detecting unit, Appendix 1, wherein the video image encoding device.

【0074】(付記3) 該輝度情報統計取得部が、該入力画像の全画素もしくは一部の画素についての輝度情報の平均値もしくは累積値を該第1統計情報として取得するように構成されたことを特徴とする、付記2記載の動画像符号化装置。 [0074] (Supplementary Note 3) luminance information statistics acquisition unit, configured to obtain the average value or the accumulated value of the luminance information for all pixels or a part of the pixels of the input image as a first statistic characterized in that, the moving picture coding apparatus according to note 2, wherein. (付記4) 該動きベクトル情報制御部が、該フェード検出部にて該フェードシーンが検出されると、全ての動きベクトル情報をゼロに制御するように構成されたことを特徴とする、付記2又は付記3に記載の動画像符号化装置。 (Supplementary Note 4) motion vector information control unit, when the fade scene at the fade detecting unit is detected, characterized in that it is configured to control all the motion vector information to zero, Appendix 2 or a moving image encoding apparatus according to note 3.

【0075】(付記5) 該動きベクトル情報制御部が、該フェード検出部にて該フェードシーンが検出されると、よりゼロに近い動きベクトル情報が有効な動きベクトル情報として選択されやすいよう該動きベクトル情報の補正を行なうように構成されたことを特徴とする、 [0075] (Supplementary Note 5) motion vector information control unit, when the fade scene is detected by said fade detecting unit,-out animal as more likely to be selected as a valid motion vector information near the motion vector information to zero characterized in that it is configured to perform correction of the vector information,
付記2又は付記3記載の動画像符号化装置。 Appendix 2 or Appendix 3 video coding device according.

【0076】(付記6) 該予測符号化部が、該相関情報としての動きベクトル情報を得るために符号化対象の入力画像を所定の画素探索範囲で探索する動きベクトル情報探索部をそなえるとともに、該特殊効果シーン検出部が、該入力画像の輝度情報についての統計情報を該第1統計情報として取得する輝度情報統計取得部と、該動きベクトル情報についての統計情報を該第2統計情報として取得する動きベクトル情報統計取得部と、上記の各統計情報が所定の第2検出条件を満足すると該入力画像が該特殊効果シーンとしてのパニングあるいはチルトのシーンであることを検出するパニング/チルト検出部とをそなえて構成され、且つ、該制御部が、該パニング/ [0076] (Supplementary Note 6) The predictive encoding unit is provided with a motion vector information searching unit for searching an input image to be coded to obtain a motion vector information as the correlation information in a predetermined pixel search range, the special effect scene detection unit, obtain statistical information about the luminance information of the input image and the luminance information statistics acquisition unit that acquires a first statistical information, the statistical information about the motion vector information as a second statistics motion vector information statistics acquisition unit and, panning / tilt detecting unit for detecting that the statistics above is satisfactory if the input image a predetermined second detection condition is a panning or tilting of the scene as the special effect scenes It is configured to include a preparative, and, the control unit, the panning /
チルト検出部で上記のパニングあるいはチルトのシーンが検出されると該第2統計情報に基づいて該動きベクトル情報探索部での該画素探索範囲をシフト制御する探索範囲シフト制御部として構成されていることを特徴とする、付記1記載の動画像符号化装置。 It said panning or tilting of the scene is constructed as a search range shift controller for shift control of the pixel search range in the motion vector information search section based on the detected second statistics tilt detecting section wherein the moving picture coding apparatus according to Supplementary note 1, wherein.

【0077】(付記7) 該制御部が、該特殊効果シーン検出部にて所定回数連続して同じ種類の特殊効果シーンが検出されると、該符号化状態の制御を実行するように構成されたことを特徴とする、付記1記載の動画像符号化装置。 [0077] (Supplementary Note 7) The control unit, when the special effect scene detection a predetermined number of times the same type of special effect scenes continuously in part is detected, is configured to perform the control of the coding states characterized in that the moving picture coding apparatus according to Supplementary note 1, wherein. (付記8) 過去に符号化した画像との相関情報として動きベクトル情報を得るために符号化対象の入力画像を所定の画素探索範囲で探索する動きベクトル情報探索部と、該動きベクトル情報探索部によって得られた該動きベクトル情報に基づいて該入力画像を予測符号化する予測符号化部と、該動きベクトル情報についての統計情報に基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出部と、該特殊効果シーン検出部で該特殊効果シーンが検出されると該統計情報に応じて該動きベクトル情報探索部での該画素探索範囲をシフト制御する探索範囲シフト制御部とをそなえて構成されたことを特徴とする、動画像符号化装置。 (Supplementary Note 8) and the motion vector information searching unit for searching an input image to be coded to obtain a motion vector information in a predetermined pixel search range as the correlation information between the previously encoded picture, the motion vector information searching unit predictive coding and predictive coding unit for reduction, special effect scene detection to detect a special effect scene of the input image on the basis of statistical information about the motion vector information input image based on the motion vector information obtained by and parts, and a search range shift controller for shift control of the pixel search range in the motion vector information searching unit in accordance with the the said special effect scene special effect scene detection unit is detected 該統 meter information characterized in that it is configured, the moving picture coding apparatus.

【0078】(付記9) 入力画像のもつ特徴情報についての統計情報を取得する第1統計情報取得部と、予測符号化対象の入力画像と過去に符号化された画像との相関情報についての統計情報を取得する第2統計情報取得部と、上記の各統計情報取得部によって得られた各統計情報に基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出部とをそなえて構成されたことを特徴とする、動画像の特殊効果シーン検出装置。 [0078] (Supplementary Note 9) statistics on correlation information of the first statistical information acquisition unit for acquiring statistics about the feature information having the input image, the input image and previously coded image predictive coding target a second statistical information acquisition unit for acquiring information, is configured to include a special effect scene detection unit which detects a special effect scene of the input image based on the statistical information obtained by each statistic acquisition unit of the characterized in that the special effects scene detection device of the moving image.

【0079】(付記10)入力画像を過去に符号化した画像との相関情報に基づいて予測符号化する予測符号化ステップと、該入力画像のもつ特徴情報についての第1 [0079] (Supplementary Note 10) and the predictive coding step for predictive coding based on correlation information between coded image input image in the past, first the feature information having the input image
統計情報と、該相関情報についての第2統計情報とに基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出ステップと、該特殊効果シーン検出ステップで検出された該特殊効果シーンに応じて該予測符号化ステップでの該入力画像の符号化状態を制御する制御ステップとを有して成ることを特徴とする、動画像符号化方法。 And statistical information, according to the second and special effects scene detection step of detecting a special effect scene of the input image on the basis of the statistical information, the special effect scene detected by the special effect scene detection step for correlation information characterized by comprising a control step of controlling the coding state of the input image in the predictive coding step Te, moving picture coding method.

【0080】(付記11) 過去に符号化した画像との相関情報として動きベクトル情報を得るために符号化対象の入力画像を所定の画素探索範囲で探索する動きベクトル情報探索ステップと、該動きベクトル情報探索ステップによって得られた該動きベクトル情報に基づいて該入力画像を予測符号化する予測符号化ステップと、該動きベクトル情報についての統計情報に基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出ステップと、該特殊効果シーン検出ステップで該特殊効果シーンが検出されると該統計情報に基づいて該画素探索範囲をシフト制御する探索範囲シフト制御ステップとを有して成ることを特徴とする、動画像符号化方法。 [0080] (Supplementary Note 11) and the motion vector information search step for searching the input image to be coded to obtain a motion vector information in a predetermined pixel search range as the correlation information between the previously encoded image,-out animal vector a predictive coding step of predictively coded the input image based on the motion vector information obtained by the information search step, special for detecting special effect scene of the input image on the basis of statistical information about the motion vector information features and advantages scene detecting step, that made and a search range shift control step of shifting controls pixel search range based on the the said special effect scene special effect scene detection step is detected 該統 meter information that, moving picture coding method.

【0081】(付記12) 入力画像のもつ特徴情報についての統計情報と、予測符号化対象の入力画像と過去に符号化された画像との相関情報についての統計情報とをそれぞれ取得する統計情報取得ステップと、上記の統計情報取得ステップによって得られた各統計情報に基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出ステップとを有して成ることを特徴とする、動画像の特殊効果シーン検出方法。 [0081] (Supplementary Note 12) and statistical information about the characteristics information with the input image, statistical information acquisition and statistical information about the correlation information between the input image and the previously coded picture predictive coded obtains respectively a method, characterized by comprising and a special effect scene detection step of detecting a special effect scene of the input image based on the statistical information obtained by the statistical information acquisition step, a special moving picture effect scene detection method.

【0082】 [0082]

【発明の効果】以上詳述したように、本発明によれば、 As described above in detail, according to the present invention,
入力画像のもつ特徴情報についての第1統計情報のみならず、予測符号化時の相関情報についての第2統計情報をも用いて入力画像の特殊効果シーンを検出することができるので、一方の統計情報だけをみると本来検出したい特殊効果シーンと特徴の似た入力画像(シーン)でも、他方の統計情報が本来検出したい特殊効果シーンの特徴を示していなければ検出対象の特殊効果シーンから除外することができ、所望の特殊効果シーンの検出精度を大幅に向上することができる(請求項1,5)。 Not only the first statistical information about the characteristics information with the input image, since also using the second statistical information about the correlation information when predictive coding can detect special effect scene of the input image, one of the statistical only But the view and originally detected want special effects scenes and features of similar input image (scene) information, other statistical information is excluded from the special effects scene to be detected unless indicates the character of the special effects scene to be detected originally it can, it is possible to greatly improve the detection accuracy of the desired special effect scene (claims 1,5).

【0083】そして、この上で検出された特殊効果シーンに応じて予測符号化部による符号化状態を制御することで予測符号化誤差の低減を図ることができるので、特殊効果シーンに対する符号化効率を飛躍的に向上することができる(請求項1)。 [0083] Then, it is possible to reduce the predictive coding error by controlling the coding state by the prediction coder in accordance with the special effect scene detected on this, the coding efficiency for special effect scenes can be dramatically improved (claim 1). 例えば、上記の特殊効果シーン検出部において、入力画像の輝度情報についての統計情報と動きベクトル情報についての統計情報とがそれぞれ所定の第1条件を満足しない限り、入力画像がフェードシーンであるとは検出しないようにすれば、動きベクトル情報についての統計情報がフェードシーン以外の特徴を示すような入力画像をフェードシーンと誤検出してしまうことを回避することができるので、正確なフェードシーン検出が実現できる。 For example, in the special effect scene detection unit described above, as long as the statistics for statistics and the motion vector information about the luminance information of the input image is not respectively satisfies a predetermined first condition, and the input image is a fade scene if so as not to detect, it is possible to prevent the statistics for the motion vector information is erroneously detected as the fade scene input image shown the features other than fade scene, precise fade scene detection realizable. そして、フェードシーン検出時には、動きベクトル情報を制御することで、誤った動きベクトル情報の符号化による符号化効率の低下を回避できるので、フェードシーンの符号化効率を大幅に向上することができる(請求項2)。 Then, fade During scene detection, by controlling the motion vector information, it is possible to avoid a decrease in coding efficiency due to the encoding of the erroneous motion vector information, it is possible to significantly improve the coding efficiency of fade scenes ( claim 2).

【0084】また、上記の特殊効果シーン検出部において、上記の各統計情報が所定の第2条件を満足しない限り、入力画像がパニングやチルトのシーンであるとは検出しないようにすれば、パニングやチルトのシーンを正確に検出することができる。 [0084] Also, in the special effect scene detection unit described above, as long as each statistic above does not satisfy a predetermined second condition, if such an input image is not detected to be a panning or tilting of the scene, panning and tilt of the scene can be accurately detected. そして、この場合、動きベクトル情報の探索範囲を動きベクトル情報の統計情報に基づいてシフト制御すれば、動きベクトル情報探索のための演算量を増大させることなく、パニングやチルトのシーンに応じた必要な動きベクトル情報を確実に得ることができるので、パニングやチルトのシーンの符号化効率を大幅に向上することができる(請求項3)。 In this case, if the statistics shift control based on the motion vector information to the motion vector search range information, without increasing the amount of calculation for motion vector information search, necessary in accordance with the panning and tilting of the scene since the motion vectors information can be reliably obtained, it is possible to significantly improve the coding efficiency of panning and tilting of the scene (claim 3).

【0085】なお、動きベクトル情報の探索範囲についてのシフト制御は、動きベクトル情報のみから特殊効果シーンが検出された場合に適用してもよく、この場合も、動きベクトル情報探索のための演算量を増大させることなく、パニングやチルトなどの特殊効果シーンに応じた必要な動きベクトル情報を確実に得ることができるので、その特殊効果シーンの符号化効率を大幅に向上することができる(請求項4)。 [0085] Incidentally, the shift control of the search range of the motion vector information may be applied to the case where special effect scene from only the motion vector information is detected, also in this case, the amount of calculation for motion vector information search without increasing the, it is possible to reliably obtain the required motion vector information corresponding to the special effect scenes such as panning and tilting, the coding efficiency of the special effect scene can be greatly improved (claim 4).

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の一実施形態としての動画像符号化装置の構成を示すブロック図である。 1 is a block diagram showing the configuration of a video encoding apparatus as an embodiment of the present invention.

【図2】図1に示す動画像符号化装置(特殊効果シーン検出装置)の動作(処理手順)を説明するためのフローチャートである。 2 is a flow chart for use in describing the operation (procedure) of the moving picture coding apparatus shown in FIG. 1 (special effect scene detection device).

【図3】動きベクトル探索範囲を説明するための模式図である。 3 is a schematic diagram for explaining a motion vector search range.

【図4】動きベクトルの定義を説明するための模式図である。 4 is a schematic diagram for explaining the definition of the motion vector.

【図5】本実施形態に係るパニング/チルトシーン検出時の動きベクトル探索範囲のシフト制御を説明するための模式図である。 5 is a schematic diagram for explaining a shift control of the motion vector search range in the panning / tilting scene detection according to the present embodiment.

【図6】図2に示す処理手順の変形例(フェード検出専用時)を示すフローチャートである。 6 is a flowchart showing a modified example (fade detection only when) of the procedure shown in FIG.

【図7】図2に示す処理手順の変形例(パニング/チルト検出専用時)を示すフローチャートである。 7 is a flowchart showing a modified example (panning / tilt detection only when) of the procedure shown in FIG.

【図8】図2に示す処理手順の変形例(パニング/チルト検出専用で動きベクトルの統計のみを用いる場合)を示すフローチャートである。 8 is a flowchart showing a modification of the procedure shown in FIG. 2 (the case of using only the statistics of the motion vector in the panning / tilt detection only).

【符号の説明】 DESCRIPTION OF SYMBOLS

1 ディジタル動画像符号化装置 2 フレームメモリ 3 原画マクロブロック(MB)取得 4 参照ブロック取得器 5 動きベクトル探索器(動きベクトル情報探索部) 6 予測判定器 7 減算器 8,12 スイッチ 9 符号化器 10 局所復号化器 11 加算器 13 特殊効果シーン検出装置 14 入力画像情報統計取得器(輝度情報統計取得部) 15 動き情報統計取得器(動きベクトル情報統計取得部) 16 特殊シーン検出器(特殊効果シーン検出部;フェード検出部,パニング/チルト検出部) 17 制御部(動きベクトル情報制御部,探索範囲シフト制御部) 21 予測符号化部 30 動きベクトル 31 原画ピクチャ 32 参照ピクチャ 151 水平動きベクトル平均演算器 152 水平動きベクトル分散演算器 153 垂直動きベクトル平均 1 digital video encoding apparatus 2 frame memory 3 original macroblock (MB) acquired 4 reference block obtainer 5 motion vector searcher (motion vector information search section) 6 prediction determiner 7 subtractor 8,12 switch 9 encoder 10 local decoder 11 the adder 13 special effect scene detection device 14 inputs image information statistics acquirer (luminance information statistics acquisition unit) 15 motion information statistics acquirer (motion vector information statistics acquisition unit) 16 special scene detector (special effects scene detecting unit; fade detecting unit, panning / tilt detecting unit) 17 control unit (motion vector information control unit, a search range shift control unit) 21 prediction encoding unit 30 motion vector 31 original picture 32 reference picture 151 horizontal motion vector average calculation vessel 152 horizontal motion vector variance calculator 153 vertical motion vector average 算器 154 垂直動きベクトル分散演算器 311 原画MB 321 参照MB 322 動きベクトル探索範囲 323 予測MB Adder 154 vertical motion vector variance calculator 311 original MB 321 reference MB 322 motion vector search range 323 predicted MB

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK23 MA00 MA05 NN03 NN43 PP05 PP06 PP07 TA25 TA62 TB07 TC12 TC14 TD04 5J064 BA01 BB03 BB13 BC21 BD01 ────────────────────────────────────────────────── ─── front page of continued F-term (reference) 5C059 KK23 MA00 MA05 NN03 NN43 PP05 PP06 PP07 TA25 TA62 TB07 TC12 TC14 TD04 5J064 BA01 BB03 BB13 BC21 BD01

Claims (5)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 入力画像を過去に符号化した画像との相関情報に基づいて予測符号化する予測符号化部と、 該入力画像のもつ特徴情報についての第1統計情報と、 And 1. A predictive encoding unit for prediction encoding based on the correlation information between the coded image input image in the past, the first statistical information about feature information with the input image,
    該相関情報についての第2統計情報とに基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出部と、 該特殊効果シーン検出部で検出された特殊効果シーンに応じて該予測符号化部による該入力画像の符号化状態を制御する制御部とをそなえて構成されたことを特徴とする、動画像符号化装置。 And special effects scene detection unit which detects a special effect scene of the input image based on the second statistics about the correlation information, the prediction encoding according to special effect scene detected by the special effect scene detection unit characterized in that it is configured to include a control unit for controlling the coding state of the input image by the parts, the moving picture coding apparatus.
  2. 【請求項2】 該特殊効果シーン検出部が、 該入力画像の輝度情報についての統計情報を該第1統計情報として取得する輝度情報統計取得部と、 該入力画像と過去に符号化した画像との間の動きベクトル情報についての統計情報を該第2統計情報として取得する動きベクトル情報統計取得部と、 上記の各統計情報が所定の第1検出条件を満足すると該入力画像が該特殊効果シーンとしてのフェードシーンであることを検出するフェード検出部とをそなえて構成されるとともに、 該制御部が、 該フェード検出部にて該フェードシーンが検出されると該動きベクトル情報を制御して該符号化状態を制御する動きベクトル情報制御部として構成されていることを特徴とする、請求項1記載の動画像符号化装置。 Wherein said special effect scene detection unit, and the luminance information statistics acquisition unit for acquiring statistics about the luminance information of the input image as a first statistical information, and an image obtained by encoding the input image and the past motion vector information statistics acquisition unit and, each statistic described above is the input image to satisfy the predetermined first detection condition said special effect scene statistics about the motion vector information obtained as the second statistical information between the while being configured to include a fade detector for detecting that a fade scene as, the control unit controls the motion vector information when the fade scene is detected by said fade detecting unit said characterized in that it is configured as a motion vector information control unit for controlling the coding state, the moving picture coding apparatus according to claim 1.
  3. 【請求項3】 該予測符号化部が、 該相関情報としての動きベクトル情報を得るために符号化対象の入力画像を所定の画素探索範囲で探索する動きベクトル情報探索部をそなえるとともに、 該特殊効果シーン検出部が、 該入力画像の輝度情報についての統計情報を該第1統計情報として取得する輝度情報統計取得部と、 該動きベクトル情報についての統計情報を該第2統計情報として取得する動きベクトル情報統計取得部と、 上記の各統計情報が所定の第2検出条件を満足すると該入力画像が該特殊効果シーンとしてのパニングあるいはチルトのシーンであることを検出するパニング/チルト検出部とをそなえて構成され、且つ、 該制御部が、 該パニング/チルト検出部で上記のパニングあるいはチルトのシーンが検出されると該第2統 Wherein said predictive coding unit is provided with a motion vector information searching unit for searching an input image to be coded to obtain a motion vector information as the correlation information in a predetermined pixel search range, the special motion effect scene detection unit, to obtain statistics about the luminance information of the input image and the luminance information statistics acquisition unit that acquires a first statistical information, the statistical information about the motion vector information as a second statistics and vector information statistics acquisition unit, the statistics above a panning / tilt detecting unit for detecting that satisfactory when input image a predetermined second detection condition is a panning or tilting of the scene as the special effect scenes is configured to include, and, said control unit, when the panning or tilting of the scene at the panning / tilt detecting unit is detected second integration 情報に基づいて該動きベクトル情報探索部での該画素探索範囲をシフト制御する探索範囲シフト制御部として構成されていることを特徴とする、請求項1記載の動画像符号化装置。 Characterized in that it is configured to pixel search range in the motion vector information searching unit as the search range shift controller for shift control based on the information, the moving picture coding apparatus according to claim 1.
  4. 【請求項4】 過去に符号化した画像との相関情報として動きベクトル情報を得るために符号化対象の入力画像を所定の画素探索範囲で探索する動きベクトル情報探索部と、 該動きベクトル情報探索部によって得られた該動きベクトル情報に基づいて該入力画像を予測符号化する予測符号化部と、 該動きベクトル情報についての統計情報に基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出部と、 該特殊効果シーン検出部で該特殊効果シーンが検出されると該統計情報に応じて該動きベクトル情報探索部での該画素探索範囲をシフト制御する探索範囲シフト制御部とをそなえて構成されたことを特徴とする、動画像符号化装置。 4. A past motion vector information searching unit that searches a predetermined pixel search range input image to be coded to obtain a motion vector information as the correlation information between the coded image, vector information searched-out animal a predictive encoding unit for prediction encoding the input image based on the motion vector information obtained by the Department, special effects scene for detecting a special effect scene of the input image on the basis of statistical information about the motion vector information includes a detection unit, and a search range shift controller for shift control of the pixel search range in the special effects scene detection unit when the special effect scene is detected-out animal in accordance with 該統 meter information vector information searching unit characterized in that it consists Te, the moving picture coding apparatus.
  5. 【請求項5】 入力画像のもつ特徴情報についての統計情報を取得する第1統計情報取得部と、 予測符号化対象の入力画像と過去に符号化された画像との相関情報についての統計情報を取得する第2統計情報取得部と、 上記の各統計情報取得部によって得られた各統計情報に基づいて該入力画像の特殊効果シーンを検出する特殊効果シーン検出部とをそなえて構成されたことを特徴とする、動画像の特殊効果シーン検出装置。 5. A first statistical information acquisition unit for acquiring statistics about the feature information having the input image, the statistics about the correlation information between the input image and the previously coded picture predictive coded a second statistical information acquisition unit that acquires that was constructed to include a special effect scene detection unit which detects a special effect scene of the input image based on the statistical information obtained by each statistic acquisition unit of the wherein the special effects scene detection device of the moving image.
JP2000234596A 2000-08-02 2000-08-02 Moving picture coding apparatus and special effect scene detection device of the moving picture Expired - Fee Related JP4328000B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000234596A JP4328000B2 (en) 2000-08-02 2000-08-02 Moving picture coding apparatus and special effect scene detection device of the moving picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000234596A JP4328000B2 (en) 2000-08-02 2000-08-02 Moving picture coding apparatus and special effect scene detection device of the moving picture

Publications (2)

Publication Number Publication Date
JP2002051341A true true JP2002051341A (en) 2002-02-15
JP4328000B2 JP4328000B2 (en) 2009-09-09

Family

ID=18726942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000234596A Expired - Fee Related JP4328000B2 (en) 2000-08-02 2000-08-02 Moving picture coding apparatus and special effect scene detection device of the moving picture

Country Status (1)

Country Link
JP (1) JP4328000B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124587A (en) * 2005-10-31 2007-05-17 Fujitsu Ltd Moving picture encoding apparatus and fade scene detecting apparatus
US7277486B2 (en) 2002-05-03 2007-10-02 Microsoft Corporation Parameterization for fading compensation
JP2007318634A (en) * 2006-05-29 2007-12-06 Nippon Hoso Kyokai <Nhk> Fade detecting apparatus
JP2008544666A (en) * 2005-06-23 2008-12-04 トムソン ライセンシングThomson Licensing Procedure and apparatus for detecting a fade in the image sequence
US7463684B2 (en) 2002-05-03 2008-12-09 Microsoft Corporation Fading estimation/compensation
US7609767B2 (en) 2002-05-03 2009-10-27 Microsoft Corporation Signaling for fading compensation
JP2009284199A (en) * 2008-05-22 2009-12-03 Ikegami Tsushinki Co Ltd Television camera
JP2010057166A (en) * 2008-07-29 2010-03-11 Panasonic Corp Image coding apparatus, image coding method, integrated circuit, and camera
JP2011507314A (en) * 2007-09-28 2011-03-03 ドルビー・ラボラトリーズ・ライセンシング・コーポレーションDolby Laboratories Licensing Corporation Video information processing
US8009739B2 (en) 2003-09-07 2011-08-30 Microsoft Corporation Intensity estimation/compensation for interlaced forward-predicted fields
JP2013038490A (en) * 2011-08-04 2013-02-21 Jvc Kenwood Corp Scroll determination device and method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265148B2 (en) 2002-05-03 2012-09-11 Microsoft Corporation Parameterization for fading compensation
US7277486B2 (en) 2002-05-03 2007-10-02 Microsoft Corporation Parameterization for fading compensation
US9363536B2 (en) 2002-05-03 2016-06-07 Microsoft Technology Licensing, Llc Parameterization for fading compensation
US9843822B2 (en) 2002-05-03 2017-12-12 Microsoft Technology Licensing, Llc Parameterization for fading compensation
US7463684B2 (en) 2002-05-03 2008-12-09 Microsoft Corporation Fading estimation/compensation
US7609767B2 (en) 2002-05-03 2009-10-27 Microsoft Corporation Signaling for fading compensation
US8009739B2 (en) 2003-09-07 2011-08-30 Microsoft Corporation Intensity estimation/compensation for interlaced forward-predicted fields
US8165337B2 (en) 2005-06-23 2012-04-24 Ludovic Noblet Procedure and device for detecting fades in a sequence of images
JP2008544666A (en) * 2005-06-23 2008-12-04 トムソン ライセンシングThomson Licensing Procedure and apparatus for detecting a fade in the image sequence
US8090020B2 (en) 2005-10-31 2012-01-03 Fujitsu Semiconductor Limited Moving picture encoding device, fade scene detection device and storage medium
JP2007124587A (en) * 2005-10-31 2007-05-17 Fujitsu Ltd Moving picture encoding apparatus and fade scene detecting apparatus
JP2007318634A (en) * 2006-05-29 2007-12-06 Nippon Hoso Kyokai <Nhk> Fade detecting apparatus
JP4690250B2 (en) * 2006-05-29 2011-06-01 日本放送協会 Fade detecting device
US8750372B2 (en) 2007-09-28 2014-06-10 Dolby Laboratories Licensing Corporation Treating video information
JP2011507314A (en) * 2007-09-28 2011-03-03 ドルビー・ラボラトリーズ・ライセンシング・コーポレーションDolby Laboratories Licensing Corporation Video information processing
JP2009284199A (en) * 2008-05-22 2009-12-03 Ikegami Tsushinki Co Ltd Television camera
US8514935B2 (en) 2008-07-29 2013-08-20 Panasonic Corporation Image coding apparatus, image coding method, integrated circuit, and camera
JP2010057166A (en) * 2008-07-29 2010-03-11 Panasonic Corp Image coding apparatus, image coding method, integrated circuit, and camera
JP2013038490A (en) * 2011-08-04 2013-02-21 Jvc Kenwood Corp Scroll determination device and method

Also Published As

Publication number Publication date Type
JP4328000B2 (en) 2009-09-09 grant

Similar Documents

Publication Publication Date Title
US5561477A (en) System for coding a video signal in the presence of an image intensity gradient
US6480543B1 (en) Detection of a change of scene in a motion estimator of a video encoder
US20050053141A1 (en) Joint coding and decoding of a reference field selection and differential motion vector information
US20050053140A1 (en) Signaling macroblock mode information for macroblocks of interlaced forward-predicted fields
US20050053295A1 (en) Chroma motion vector derivation for interlaced forward-predicted fields
US20060222075A1 (en) Method and system for motion estimation in a video encoder
US6603815B2 (en) Video data processing apparatus, video data encoding apparatus, and methods thereof
US20040184666A1 (en) Image encoder, image decoder, image encoding method, and image decoding method
US5500689A (en) System for detecting a video signal image intensity gradient
US20070014359A1 (en) Direct mode derivation process for error concealment
US20060222074A1 (en) Method and system for motion estimation in a video encoder
US6873657B2 (en) Method of and system for improving temporal consistency in sharpness enhancement for a video signal
US20100322309A1 (en) Method for spatial error concealment
US7068722B2 (en) Content adaptive video processor using motion compensation
US20050243921A1 (en) Efficient multi-frame motion estimation for video compression
US6697430B1 (en) MPEG encoder
Chang et al. A novel approach to fast multi-frame selection for H. 264 video coding
US20060239347A1 (en) Method and system for scene change detection in a video encoder
US20080101469A1 (en) Method and apparatus for adaptive noise filtering of pixel data
US20090110075A1 (en) Method and System for Motion Compensated Picture Rate Up-Conversion of Digital Video Using Picture Boundary Processing
US20080170616A1 (en) Method and Apparatus for Determining Search Range for Adaptive Motion Vector for Use in Video Encoder
US20100014588A1 (en) Speculative start point selection for motion estimation iterative search
US6862372B2 (en) System for and method of sharpness enhancement using coding information and local spatial features
US6748114B1 (en) Moving picture encoding method and moving picture encoding apparatus
JP2002094987A (en) Video signal encoder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090612

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130619

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140619

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees