JP2007124587A - 動画像符号化装置、及びフェードシーン検出装置 - Google Patents

動画像符号化装置、及びフェードシーン検出装置 Download PDF

Info

Publication number
JP2007124587A
JP2007124587A JP2005317662A JP2005317662A JP2007124587A JP 2007124587 A JP2007124587 A JP 2007124587A JP 2005317662 A JP2005317662 A JP 2005317662A JP 2005317662 A JP2005317662 A JP 2005317662A JP 2007124587 A JP2007124587 A JP 2007124587A
Authority
JP
Japan
Prior art keywords
motion compensation
fade scene
encoding
fade
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005317662A
Other languages
English (en)
Other versions
JP4764136B2 (ja
Inventor
Tomonori Kubota
智規 久保田
Makiko Konoshima
真喜子 此島
Yuichiro Teshigawara
裕一郎 勅使河原
Reikei Masaji
礼敬 政次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005317662A priority Critical patent/JP4764136B2/ja
Priority to US11/342,976 priority patent/US8090020B2/en
Publication of JP2007124587A publication Critical patent/JP2007124587A/ja
Application granted granted Critical
Publication of JP4764136B2 publication Critical patent/JP4764136B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】より高い精度でフェードシーンを検出するための技術を提供するための技術、更には、フェードシーン検出時の符号化をより適切に行うための技術を提供する。
【解決手段】動画符号化装置1は、フレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行う動画符号化部10と、フェードシーンを検出するフェードシーン検出装置20と、を備えている。その検出装置20は、動画符号化部10から情報として、動き補償ブロック単位で検出した動きベクトルの他に、その動きベクトルの検出時に算出された差分絶対値和、その動き補償ブロックの総数、及び静止画として符号化された動き補償ブロック(イントラ動き補償ブロック)の総数のうちの少なくとも一つを取得する情報取得部21、その情報を用いてフェードシーンを検出するフェードシーン検出部22、及びその検出結果を用いて動画符号化部10による符号化を制御する制御部23を備えている。
【選択図】図1

Description

本発明は、フレーム毎に入力される原画像を動き補償ブロックで分割し、その動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行うための技術に関する。
現在、動画像の符号化用に様々な方法が開発されている。その符号化方法の一つに、符号化の対象とする原画像を動き補償ブロックで分割し、その動き補償ブロック単位で動き補償フレーム間予測を用いて符号化を行うものがある。その動き補償フレーム間予測は、連続するフレーム間で動き補償ブロックの動きベクトルを検出することで行われる。
動画(映像)では、様々な特殊効果シーンが必要に応じて用いられる。その効果シーンとして、フェードイン、或いはフェードアウトといったフェードシーンが挿入されることがある。動き補償フレーム間予測を用いた符号化方法では、そのフェードシーンでフレーム間の予測誤差が大きくなることが知られている。原画像の符号化によって得られる符号化データ(符号量)のデータ(情報)量は、同じ画質を維持する前提では、予測誤差が大きくなるほど大きくなる。このことから、従来の動画符号化装置のなかには、フェードシーンを検出し、符号化データに割り当てるデータ量を調整することにより、画質の劣化を抑えられるようにしたものがある(特許文献1)。
フェードシーンでは、原画像の輝度が全体的に順次、変化する。特許文献1に記載された従来の動画符号化装置は、そのことに着目し、フェードシーンを検出している。特許文献2に記載された従来の動画符号化装置では、更に動きベクトルに着目してフェードシーンを検出している。フェードシーンを検出した場合には、動きベクトルを強制的にゼロベクトルにし(元々の位置である0点を割り当てることに相当)、動きベクトルの符号化を回避して符号化データのデータ量(符号量)をより抑えている。
特許文献2に記載された従来の動画符号化装置は、更に動きベクトルに着目することにより、特許文献1に記載された従来の動画符号化装置より高精度にフェードシーンを検出できるようになっている。しかし、十分な精度が得られていないのが実情である。このため、より高い精度でフェードシーンを検出できるようにすることが望まれていた。
動き補償フレーム間予測を用いた符号化方法では、原画像と予測画像の差分(誤差)を符号化する。特許文献2に記載された従来の動画符号化装置では、不要な動きベクトルの選択を回避するために、その動きベクトルを強制的にゼロベクトルとしている。しかし、その動きベクトルをゼロベクトルとすると、それによって誤差がより大きくなる可能性がある。その誤差がより大きくなった場合、画質の劣化を抑えるために符号量に割り当てるべきデータ(情報)量はより大きくなる。このことから、フェードシーン検出時の符号化をより適切に行うためには、不要な動きベクトルの選択の回避と併せて、画質の劣化の回避をより考慮すべきと考えられる。
特開2000−59775号公報 特開2002−51341号公報
本発明は、より高い精度でフェードシーンを検出するための技術を提供することを第1の目的とする。また、本発明は、フェードシーン検出時の符号化をより適切に行うための技術を提供することを第2の目的とする。
図1は、本発明の原理図である。図1を参照して、本発明による動画像符号化装置の構成について詳細に説明する。
動画符号化装置1は、フレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行うものである。その符号化を行う動画符号化部10と、フェードシーンを検出するフェードシーン検出装置20と、を備えている。
フェードシーン検出装置20は、動画符号化部10からフェードシーン検出用の情報を取得する情報取得部21、その情報を用いてフェードシーンを検出するフェードシーン検出部22、及びその検出結果を用いて動画符号化部10による符号化を制御する制御部23を備えている。
上記情報取得部21は、上記情報として、動き補償ブロック単位で検出した動きベクトルの他に、その動きベクトルの検出時に算出された差分絶対値和(SAD)、その動き補償ブロックの総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数のうちの少なくとも一つを取得する。フェードシーン検出部22の演算部22aは、情報取得部21が取得した情報を用いた演算を行い、その演算結果を判定部22bに出力する。判定部22bは、その演算結果からフェードシーンか否か判定する。それにより、その判定は、例えば動きベクトルの水平成分、垂直成分をそれぞれVx、Vyとしたとき、
Σ|Vx|>第1の閾値、Σ|Vy|>第2の閾値
|ΣVx|/Σ|Vx|<第3の閾値、|ΣVy|/Σ|Vy|<第4の閾値
イントラ動き補償ブロックの総数/動き補償ブロックの総数>第5の閾値
第6の閾値<Σ動き補償ブロックの差分絶対値和<第7の閾値
の各条件式を全て満足するか否かにより行う。そのような判定によってフェードシーンの検出を多角的に行うことにより、高い検出精度を実現させることができる。
制御部23は、フェードシーンが検出された場合に、動きベクトルを探索する範囲をより狭める、双方向予測がより選択されやすくする、動きベクトルで0点がより選択されやすくする、及び符号化によって得られる符号化データに割り当てるデータ量をより大きくする、のうちの少なくとも一つを行うことにより、動画符号化部10による符号化を制御する。そのような制御により、画質の劣化がより抑えられる、動きベクトルの検出をより秩序的となるように管理できる、演算量がより抑えられる、といった利点が得られるようになる。その結果、フェードシーン検出時の符号化はより適切に行えることとなる。
本発明は、より高い精度でフェードシーンを検出することができる。また、本発明は、フェードシーン検出時の符号化をより適切に行うことができる。
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。
図2は、本実施の形態による動画符号化装置の構成を説明する図である。
その動画符号化装置は、図2に示すように、動画を構成する原画像を符号化する符号化部100と、フェードシーンを検出するフェード判定部200と、を備えた構成となっている。
上記符号化部100は、符号化の対象とする原画像を画素ブロックで分割し、1つ以上の画素ブロックからなる動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行うものである。
動画を構成する原画像はフレーム毎あるいはフィールド毎に入力される。そのフレーム/フィールドは、前方向予測のみを用いて符号化を行うPフレーム/フィールド(Predicted Frame/Field)、前方向予測、後方向予測、双方向予測のうちの何れかを選択して符号化を行うBフレーム/フィールド(Bi-directional PredictedFrame/Field)、及びフレーム間予測を用いずに符号化を行うIフレーム/フィールド(Intra-coded Frame/Field)に分けられる。ここでは、P、B、Iの各フレーム/フィールドの画像をPピクチャ、Bピクチャ、Iピクチャ(イントラピクチャ)と呼ぶことにする。Pピクチャ、Bピクチャはインターピクチャと総称する。
原画像は、その種類に係わらず、イントラ予測部101、及びME(Motion Estimation)部102にそれぞれ入力される。イントラ予測部101はイントラピクチャの符号化用のものであり、ME部102はインターピクチャの符号化用のものである。
イントラ予測部101は、同じ原画像(イントラピクチャ)を対象に、別の位置の画素値(サンプル値)を予測し、予測画像を生成する。その予測は、動き補償ブロック単位で行う。その予測画像は原画像と共に減算器104に出力される。減算器104は、それらの画像間の差分(差分画像)を算出し、差分画像は変換部108、予測画像は加算器106にそれぞれ出力する。
最近では、1種類の固定サイズの動き補償ブロック(マクロブロック)のみを用いるだけでなくなっている。ブロックサイズ、或いはパーティション(サブブロックのサイズ、或いは組み合わせ)の異なる複数の動き補償ブロックを用意し、そのなかから適切なものを選択することも行われている。ここでは便宜的に、動き補償ブロックは1種類のみと想定する。
変換部108は、差分画像を所定の画素ブロックで分割し、画素ブロック毎に例えばDCT(Discrete Cosine Transform)や整数変換等の直交変換を行い、周波数成分の値に変換する。ここでは便宜的に、直交変換はDCTを用いて行うことを想定する。そのDCTを行うことによりDCT係数が算出され、量子化部109に出力される。量子化部109は、符号化によって発生する符号量を制御するレート制御部113が指定する量子化値(量子化ステップ)に従って、係数を量子化する。可変長符号化部110は、量子化部109から量子化された係数を入力し、可変長符号化(エントロピー符号化)を行い、符号化データを生成する。復号化に必要な各種パラメータはその符号化データに付加される。それらは符号化ビット列として出力される。
レート制御部113は、可変長符号化部110が生成する符号化ビット列のデータ量が適切なものとなるように制御するものである。そのデータ量が割り当てたデータ量(割り当て情報量)となるように、量子化ステップを決定し、量子化部109に指示する。
逆量子化部111は、量子化部109から量子化値、DCT係数を入力し、係数の逆量子化を行う。逆変換部112は、逆量子化部111から逆量子化後の係数を入力し、逆変換(ここでは上記想定により逆DCT)を行い、差分画像を復号化する。復号化された差分画像は加算器106に出力され、加算器106は予測画像に差分画像を加算して、原画像を復号化する。図中に表記の「参照画像」は復号化した原画像のことである。
イントラピクチャ以外の原画像はインターピクチャとしてME部102に入力される。ME部102は、インターピクチャの種類によって対象とするフレーム間予測方法を選択し、動き補償ブロック単位で動きベクトルの検出を行う。MC(Motion Compensation)部103には、動き補償ブロック単位で検出した動きベクトル、選択したフレーム間予測方法によって定まる画像(参照画像)を出力する。MC部103は、それらを用いて、インターピクチャの予測画像を生成し、その予測画像をそのインターピクチャの原画像と併せて減算器105に出力する。減算器105は、減算器104と同様に、それらの画像間の差分(差分画像)を算出し、差分画像は変換部108、予測画像は加算器107にそれぞれ出力する。
図3は、動きベクトルの検出方法を説明する図である。
上記動きベクトルは、原画像中で対象としている動き補償ブロックの位置と、それに最適な部分の参照画像中の位置との違いを表すものである。その最低な部分は参照画像全てを対象に探すことが望ましい。しかし、そのために必要な演算量は膨大となる。このため図3に示すように、動き探索の範囲を定めて最適な部分、つまり動きベクトルを検出するのが普通である。最適な部分は、動き補償ブロックとそれに対応付けた参照画像(予測画像)の部分の差分値を計算し、その大きさをコストとして、最もコストが小さい部分を採用するのが一般的である。差分絶対値和(SAD)は、画素毎に得られた差分値の絶対値を累算したものである。SADを採用した場合、その値が最小となる部分を参照画像から探し出すことで動きベクトルが検出される。参照画像は、フレーム間予測の種類によって選択される。
各部108〜112は、イントラピクチャ時と同様な動作を行う。その結果、逆変換器112は逆量子化部111からDC成分、及び逆量子化後のAC成分を入力して逆DCTを行い、インターピクチャにおける差分画像を復号化する。復号化された差分画像は加算器107に出力され、加算器107は予測画像に差分画像を加算して、原画像を復号化する。
フェード判定部200は、動画像に挿入されたフェードシーンの検出を行うものである。その検出用の情報として、ME部102から、動き補償ブロック毎の動きベクトル、SAD、動き補償ブロック(インター動き補償ブロック)の総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数を入力する。それにより、以下の条件式を全て満たしたときにフェードシーンとする。ここで、Vx、Vyは動きベクトルの水平成分、垂直成分をそれぞれ示すシンボルである。ME部102から取得可能な情報を検出に用いることにより、その検出のために必要な演算量はより抑えることができる。
Σ|Vx|>第1の閾値、Σ|Vy|>第2の閾値 ・・・ (1)
|ΣVx|/Σ|Vx|<第3の閾値、|ΣVy|/Σ|Vy|<第4の閾値
・・・ (2)
イントラ動き補償ブロックの総数/動き補償ブロックの総数>第5の閾値
・・・ (3)
第6の閾値<Σ動き補償ブロックのSAD<第7の閾値 ・・・ (4)
上記条件式(1)〜(4)を定めたのは以下のような理由からである。
図4Aは、フェードシーン時に検出される動きベクトルを説明する図である。図4A中に示す各枠は動き補償ブロックを表し、矢印は動きベクトルの方向、及び大きさを表している。これは図4Bでも同様である。
図4Aに示すように、フェードシーンでは比較的に大きい動きベクトルが検出される。その方向は、完全にランダムではないが、余り定まっていない。条件式(1)、(2)は、そのような動きベクトルの特徴を検出するために定めたものである。
フェードシーンでは、フレーム毎に輝度信号のレベルが変化する。そのため、参照画像(参照ピクチャ)に適応的に重み係数を輝度信号に掛けたとしても、大きな予測誤差(SAD)が得られる動き補償ブロックが多く発生する。Pピクチャでは、そのような動き補償ブロックは静止画モードで符号化されるイントラ動き補償ブロックとなり、それが全体に占める割合は高くなる。全体的にも、SADは比較的に大きくなる。上記条件式(3)、(4)は、そのような特徴を検出するために定めたものである。
上記条件式(1)〜(4)を全て満足する原画像は、大きめな動きベクトルが比較的にランダムに検出される、イントラ動き補償ブロックが多めに発生している、画素値が全体的に同じようなものではない、且つ予測が外れすぎていない、ものとなる。
上記条件式(1)の他に条件式(2)を用いることにより、フェードシーンで検出される特有の動きベクトルの方向を考慮することができる。上記条件式(3)、及び(4)を用いることにより、フェードシーンで生じる特有の予測誤差を考慮することができる。これらの結果、フェードシーンをより確実に検出できることとなる。
なお、条件式(2)〜(4)の全てを条件式(1)と併せて用いなくとも良い。条件式(2)〜(4)の少なくとも一つを別の条件式と併せて用いても良い。このように様々な変形が可能である。
図6は、フェードシーンとする範囲を説明する図である。図6に表記の「P」、「B」はそれぞれP、Bピクチャをそれぞれ示している。
上記条件式(1)〜(4)によるフェードシーンの検出(判定)は、Pピクチャの符号化時にのみ行う。それにより、フェードシーンを検出すると、その直前、直後に位置するP、或いはIピクチャ間をフェードシーンの範囲とする。直前に位置するP、或いはIピクチャは範囲外としている。その次に位置するPピクチャで再度、フェードシーンを検出した場合には、その直後に位置するP、或いはIピクチャまでをその範囲とする。そのようにして、P、或いはIピクチャを区切りとして範囲を設定している。
フェード判定部200は、フェードシーンを検出した場合、フェードシーンとする範囲内で以下のような制御を行う。
ME部102に対しては、図5に示すように、Bピクチャでの動き探索の範囲をより狭く設定する。その設定は、動き補償ブロックの元の位置を基準にして、x方向、y方向のそれぞれで画素単位で範囲を指定することで行われる。そのような設定を行うことにより、演算量はより抑えられるようになる。また、図4Bに示すように、動きベクトルの秩序が改善され、ダイナミックに参照位置が変化するのがより抑えられるようになる。その結果、ピクチャ間の画質不均一感もより抑えられるようになる。動きベクトルを強制的にゼロベクトルとする場合と比較して、予測誤差はより抑えることができる。
また、Bピクチャでは、図7に示すように、双方向予測、双方向予測ではダイレクト予測がより選ばれやすくする。動きベクトルでは、ゼロベクトル(0点)がより選ばれやすくする。それらは例えば重みを変更することで実現させる。
ゼロベクトルをより選ばれやすくすることにより、動きベクトルの秩序はより改善されることになる。双方向予測をより選ばれやすくすると、時間的な両方向から画像を参照(平滑化)することになって、前方向と後方向の画像の違いが対象ピクチャ内で混在するのをより抑えられるようになる。ダイレクト予測では、動き情報の符号化に必要なビット数が少ないため、より高い圧縮率を実現できるようになる。
レート制御部113に対しては、割り当て情報量をより大きくさせる。その情報量をより大きくさせることにより、図8に示すように、再現性はより向上することになる。その図8において、画質の違いは線の数によって表現している。その線の数が多くなる程、画質が劣化していることを表している。
レート制御部113は、フェード判定部200による指示に従い、以下のようにしてレート制御を行う。図9A〜図9Cを参照して具体的に説明する。
可変長符号化部110は、例えばMPEG-2等でいうところのVBV(Video Buffer Verifier)バッファの制約に従ってビット列を出力する。レート制御部113は、符号化データの占有量を符号化部110から入力し、レート制御を行う。図9A〜図9Cにおいて、縦軸はVBVバッファの占有量を示し、横軸は時間を示している。横軸と平行な破線は、最大VBVバッファの占有量を示している。それにより、図9A〜図9CはそれぞれVBVバッファの実際の占有量の時間変化を示している。
固定ビットレート(CBR)において、画質を無視したVBVバッファの理想的な制御は、1GOP(Group Of Pictures)で使用可能な量を全て使用する状態を実現することである。その状態を実現できた場合、図9Aに示すように、1GOPの切れ目では最大VBVバッファ占有量を示す状態となる。しかし、割り当て情報量を多めにすると、図9Bに示すように、それによって実際の占有量は低下する。その占有量の変化を示す線が横軸を下回るとバッファが破綻した状態となる。このようなことから、本実施の形態では、フェード検出時点のバッファ状態と同じ水準に次のGOP先頭で回復できれば良いとして、フェードを検出したGOPでは少し多めに情報量を割り当てるようにしている。
それにより、回復目標位置を予測計算し、当初に対する余剰分を各ピクチャに配分することが、1ピクチャ時間当たりのバッファ占有量回復量を加算するということになる。レート制御部113は、その回復量を計算して各ピクチャの割り当て情報量の増加分(図8における縦線を付した部分)として扱う。その増加分を加えることにより、VBVバッファの占有量は、図9Cに示すように変化することとなる。図9Cにおいて、点線は予定されていた占有量の動きを示し、実線は実際の動きを示している。
図10は、フェード検出に係わる処理のフローチャートである。符号化部100が1ピクチャの符号化により実行される、フェード検出に係わる処理を抜粋してその流れを示したものである。それにより、ステップS1〜S14の処理は1ピクチャ毎に実行される。次に図10を参照して、上記フェード判定部200の動作について詳細に説明する。その図10に示すフローチャートは、例えばフェード判定部200がCPU、ROM、及びRAMを備えた構成であった場合、CPUが、そのフローチャートに示す処理を実現させるプログラムをROMから読み出して実行することで実現される。この図10では、動き補償ブロックはMB(マクロブロック)と表記している。
次の1ピクチャの処理を開始すると、先ず、ステップS1において、現在フェード中か否か判定する。現在、対象とするピクチャが、直前に検出したフェードシーンの範囲内とするものであった場合、判定はYESとなり、ステップS2で1ピクチャへの割り当て情報量と1GOPでの目標情報量の調整をレート制御部113に指示した後、ステップS3に移行する。そうでない場合には、判定はNOとなって次にそのステップS3に移行する。
ステップS3では、対象ピクチャの種類を判定する。そのピクチャがIピクチャであった場合、その旨が判定されてステップS4に移行し、フェードシーン範囲特定用のカウンタの値をデクリメントした後、1ピクチャを対象とした一連の処理を終了する。そのピクチャがBピクチャであった場合には、その旨が判定されてステップS5に移行する。
ステップS5では、ME部102に対する動き探索範囲の制限等をフェード中か否かに応じて行う。それにより、フェード中か否かに応じて、動き探索/コスト(SAD)計算、コスト調整、及び最適MBタイプ判定をME部102にMB毎に行わせる(ステップS6〜S8)。それらを行わせた後は上記ステップS4に移行する。
対象ピクチャがPピクチャであった場合には、その旨がステップS3で判定されてステップS9〜S12をMB毎に実行する。それにより、動き探索/コスト(SAD)計算(ステップS9)、その計算結果からの最適なインターMBタイプの判定(ステップS10)をME部102に行わせ、上記条件式(1)、(2)の計算(ステップS11)、及び上記条件式(3)、(4)の計算(ステップS12)をME部102から入力する情報を用いて行う。そのようなことを全てのMBを対象に行った後、ステップS13に移行する。
ステップS13では、最終的に得られた条件式(1)〜(4)の結果から、フェードが検出されたか否か判定する。条件式(1)〜(4)の全てが満たされていた場合、判定はYESとなって、そのときの状況に応じた値を上記カウンタにステップS14で設定した後、1ピクチャを対象とした一連の処理を終了する。そうでない場合には、判定はNOとなって上記ステップS4に移行する。
状況に応じてカウンタに設定する値とは、フェード中でなければ図6に示すような範囲を構成するピクチャ数であり、フェード中であれば次のPピクチャまでのピクチャ数である。そのような数をカウンタに設定することから、ステップS1では、その値が1以上であればYESと判定するようになっている。
なお、本実施の形態では、Pピクチャのときにフェード検出を行うようにしているが、Bピクチャのときにその検出を行うようにしても良い。
上記フェード判定部200は、CPU、それに実行させるプログラムを格納したROM、及びワーク用のメモリを用いて実現させている。符号化部100も同様に実現させることができる。このようなことから、フェード判定部200、及び符号化部100としてそれぞれ動作させるプログラムの少なくとも一方を光ディスク、光磁気ディスク等の可搬型の記憶媒体に格納して配布するようにしても良い。通信ネットワークに用いられる伝送媒体を介してその一部、或いは全てを送信するようにしても良い。そのようにした場合には、コンピュータにロードすることにより、本発明を適用させた動画像符号化装置、或いはフェードシーン検出装置を実現させることができる。
本発明の原理図である。 本実施の形態による動画符号化装置の構成を説明する図である。 動きベクトルの検出方法を説明する図である。 フェードシーン時に検出される動きベクトルを説明する図である。 動き探索範囲の制限によってフェードシーン時に検出される動きベクトルを説明する図である。 フェードシーン検出時の動き探索範囲の制限を説明する図である。 フェードシーンの範囲を説明する図である。 フェードシーン時に優先させるフレーム間予測方法を説明する図である。 割り当て情報量による画質の変化を説明する図である。 フェードシーン時のレート制御を説明する図である。 フェードシーン時のレート制御を説明する図である。 フェードシーン時のレート制御を説明する図である。 フェード検出に係わる処理のフローチャートである。
符号の説明
1 動画像符号化装置
10 動画像符号化部
20 フェードシーン検出部
21 情報取得部
22 フェードシーン検出部
22a 演算部
22b 判定部
23 制御部
100 符号化部
101 イントラ予測部
102 ME部
103 MC部
104、105 減算器
106、107 加算器
108 変換部
109 量子化部
110 可変長符号化部
111 逆量子化部
112 逆変換部
200 フェード判定部

Claims (18)

  1. フレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行う動画像符号化装置において、
    前記原画像を動き補償ブロックで分割し、前記動き補償ブロック単位で前記動き補償フレーム間予測を用いた符号化を行う動画符号化手段と、
    前記動画符号化手段が前記動き補償ブロック単位で検出した動きベクトルの他に、該動きベクトルの検出時に算出された差分絶対値和、該動き補償ブロックの総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数のうちの少なくとも一つを用いてフェードシーンを検出するフェードシーン検出手段と、
    前記フェードシーン検出手段による検出結果に従って、前記フェードシーンを構成する原画像の前記動画符号化手段による符号化を制御する符号化制御手段と、
    を具備することを特徴とする動画像符号化装置。
  2. 前記フェードシーン検出手段は、表示順で過去に位置する原画像のみを参照画像として第1の予測画像を前記動画符号化手段が得るフレームで前記フェードシーンの検出を行う、
    ことを特徴とする請求項1記載の動画像符号化装置。
  3. 前記フェードシーン検出手段は、前記フェードシーンを検出した場合、前記表示順で前記第1の予測画像の直前と直後に位置する第1の予測画像を得るフレーム、或いはフレーム内予測を用いて符号化を行う原画像のフレームの間を該フェードシーンが継続している範囲とする、
    ことを特徴とする請求項2記載の動画像符号化装置。
  4. 前記フェードシーン検出手段は、前記動きベクトルの水平成分、垂直成分をそれぞれVx、Vyとしたとき、
    Σ|Vx|>第1の閾値、Σ|Vy|>第2の閾値
    |ΣVx|/Σ|Vx|<第3の閾値、|ΣVy|/Σ|Vy|<第4の閾値
    前記イントラ動き補償ブロックの総数/前記動き補償ブロックの総数>第5の閾値
    第6の閾値<Σ前記動き補償ブロックの差分絶対値和<第7の閾値
    の各条件式を全て満足した場合に前記フェードシーンとする、
    ことを特徴とする請求項1記載の動画像符号化装置。
  5. 前記符号化制御手段は、前記フェードシーン検出手段が前記フェードシーンを検出した場合に、前記動きベクトルを探索する範囲をより狭める、双方向予測がより選択されやすくする、動きベクトルで0点がより選択されやすくする、及び前記符号化によって得られる符号化データに割り当てるデータ量をより大きくする、のうちの少なくとも一つを行うことにより、前記動画符号化手段による符号化を制御する、
    ことを特徴とする請求項1記載の動画像符号化装置。
  6. 動画に挿入されたフェードシーンを検出するフェードシーン検出装置において、
    前記動画としてフレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行う場合に得られる、該動き補償ブロック単位で検出された動きベクトルの他に、該動きベクトルの検出時に算出された差分絶対値和、該動き補償ブロックの総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数のうちの少なくとも一つを前記フェードシーン検出用の情報として取得する取得手段と、
    前記取得手段が取得した情報を用いて前記フェードシーンを検出するフェードシーン検出手段と、
    を具備することを特徴とするフェードシーン検出装置。
  7. フレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行う動画像符号化装置において、
    前記原画像を動き補償ブロックで分割し、前記動き補償ブロック単位で前記動き補償フレーム間予測を用いた符号化を行う動画符号化手段と、
    前記動画符号化手段が前記動き補償ブロック単位で検出した動きベクトルの他に、該動きベクトルの検出時に算出された差分絶対値和、該動き補償ブロックの総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数のうちの少なくとも一つを用いてフェードシーンを検出するフェードシーン検出手段と、
    前記フェードシーン検出手段による検出結果に従って、前記フェードシーンを構成する原画像の前記動画符号化手段による符号化を制御する符号化制御手段と、
    を具備することを特徴とする動画像符号化プログラム。
  8. 前記フェードシーン検出手段は、表示順で過去に位置する原画像のみを参照画像として第1の予測画像を前記動画符号化手段が得るフレームで前記フェードシーンの検出を行う、
    ことを特徴とする請求項7記載の動画像符号化プログラム。
  9. 前記フェードシーン検出手段は、前記フェードシーンを検出した場合、前記表示順で前記第1の予測画像の直前と直後に位置する第1の予測画像を得るフレーム、或いはフレーム内予測を用いて符号化を行う原画像のフレームの間を該フェードシーンが継続している範囲とする、
    ことを特徴とする請求項8記載の動画像符号化プログラム。
  10. 前記フェードシーン検出手段は、前記動きベクトルの水平成分、垂直成分をそれぞれVx、Vyとしたとき、
    Σ|Vx|>第1の閾値、Σ|Vy|>第2の閾値
    |ΣVx|/Σ|Vx|<第3の閾値、|ΣVy|/Σ|Vy|<第4の閾値
    前記イントラ動き補償ブロックの総数/前記動き補償ブロックの総数>第5の閾値
    第6の閾値<Σ前記動き補償ブロックの差分絶対値和<第7の閾値
    の各条件式を全て満足した場合に前記フェードシーンとする、
    ことを特徴とする請求項7記載の動画像符号化プログラム。
  11. 前記符号化制御手段は、前記フェードシーン検出手段が前記フェードシーンを検出した場合に、前記動きベクトルを探索する範囲をより狭める、双方向予測がより選択されやすくする、動きベクトルで0点がより選択されやすくする、及び前記符号化によって得られる符号化データに割り当てるデータ量をより大きくする、のうちの少なくとも一つを行うことにより、前記動画符号化手段による符号化を制御する、
    ことを特徴とする請求項7記載の動画像符号化プログラム。
  12. 動画に挿入されたフェードシーンを検出するフェードシーン検出装置において、
    前記動画としてフレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行う場合に得られる、該動き補償ブロック単位で検出された動きベクトルの他に、該動きベクトルの検出時に算出された差分絶対値和、該動き補償ブロックの総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数のうちの少なくとも一つを前記フェードシーン検出用の情報として取得する取得手段と、
    前記取得手段が取得した情報を用いて前記フェードシーンを検出するフェードシーン検出手段と、
    を具備することを特徴とするフェードシーン検出プログラム。
  13. フレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行う動画像符号化装置において、
    前記原画像を動き補償ブロックで分割し、前記動き補償ブロック単位で前記動き補償フレーム間予測を用いた符号化を行う動画符号化ステップと、
    前記動画符号化手段が前記動き補償ブロック単位で検出した動きベクトルの他に、該動きベクトルの検出時に算出された差分絶対値和、該動き補償ブロックの総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数のうちの少なくとも一つを用いてフェードシーンを検出するフェードシーン検出手段と、
    前記フェードシーン検出手段による検出結果に従って、前記フェードシーンを構成する原画像の前記動画符号化手段による符号化を制御する符号化制御手段と、
    を具備するステップとを計算機に実行させるプログラムを格納した計算機読出し可能可搬型記憶媒体。
  14. 前記フェードシーン検出手段は、表示順で過去に位置する原画像のみを参照画像として第1の予測画像を前記動画符号化手段が得るフレームで前記フェードシーンの検出を行うステップを計算機に実行させるプログラムを格納した計算機読出し可能可搬型記憶媒体。
  15. 前記フェードシーン検出手段は、前記フェードシーンを検出した場合、前記表示順で前記第1の予測画像の直前と直後に位置する第1の予測画像を得るフレーム、或いはフレーム内予測を用いて符号化を行う原画像のフレームの間を該フェードシーンが継続している範囲とする、
    ステップを計算機に実行させるプログラムを格納した計算機読出し可能可搬型記憶媒体。
  16. 前記フェードシーン検出手段は、前記動きベクトルの水平成分、垂直成分をそれぞれVx、Vyとしたとき、
    Σ|Vx|>第1の閾値、Σ|Vy|>第2の閾値
    |ΣVx|/Σ|Vx|<第3の閾値、|ΣVy|/Σ|Vy|<第4の閾値
    前記イントラ動き補償ブロックの総数/前記動き補償ブロックの総数>第5の閾値
    第6の閾値<Σ前記動き補償ブロックの差分絶対値和<第7の閾値
    の各条件式を全て満足した場合に前記フェードシーンとする、
    ステップを計算機に実行させるプログラムを格納した計算機読出し可能可搬型記憶媒体。
  17. 前記符号化制御手段は、前記フェードシーン検出手段が前記フェードシーンを検出した場合に、前記動きベクトルを探索する範囲をより狭める、双方向予測がより選択されやすくする、動きベクトルで0点がより選択されやすくする、及び前記符号化によって得られる符号化データに割り当てるデータ量をより大きくする、のうちの少なくとも一つを行うことにより、前記動画符号化手段による符号化を制御する、
    ステップを計算機に実行させるプログラムを格納した計算機読出し可能可搬型記憶媒体。
  18. 動画に挿入されたフェードシーンを検出するフェードシーン検出装置において、
    前記動画としてフレーム毎に入力される原画像を動き補償ブロックで分割し、該動き補償ブロック単位で動き補償フレーム間予測を用いた符号化を行う場合に得られる、該動き補償ブロック単位で検出された動きベクトルの他に、該動きベクトルの検出時に算出された差分絶対値和、該動き補償ブロックの総数、及び静止画として符号化された動き補償ブロックであるイントラ動き補償ブロックの総数のうちの少なくとも一つを前記フェードシーン検出用の情報として取得する取得手段と、
    前記取得手段が取得した情報を用いて前記フェードシーンを検出するフェードシーン検出手段と、
    を具備するステップを計算機に実行させるプログラムを格納した計算機読出し可能可搬型記憶媒体。
JP2005317662A 2005-10-31 2005-10-31 動画像符号化装置、及びフェードシーン検出装置 Expired - Fee Related JP4764136B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005317662A JP4764136B2 (ja) 2005-10-31 2005-10-31 動画像符号化装置、及びフェードシーン検出装置
US11/342,976 US8090020B2 (en) 2005-10-31 2006-01-31 Moving picture encoding device, fade scene detection device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005317662A JP4764136B2 (ja) 2005-10-31 2005-10-31 動画像符号化装置、及びフェードシーン検出装置

Publications (2)

Publication Number Publication Date
JP2007124587A true JP2007124587A (ja) 2007-05-17
JP4764136B2 JP4764136B2 (ja) 2011-08-31

Family

ID=37996256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005317662A Expired - Fee Related JP4764136B2 (ja) 2005-10-31 2005-10-31 動画像符号化装置、及びフェードシーン検出装置

Country Status (2)

Country Link
US (1) US8090020B2 (ja)
JP (1) JP4764136B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015530034A (ja) * 2012-08-23 2015-10-08 トムソン ライセンシングThomson Licensing ビデオ・ビットストリーム内の徐々に変化するトランジションを示すピクチャを検出する方法および装置
JP2016063284A (ja) * 2014-09-16 2016-04-25 株式会社Jvcケンウッド 画像処理装置、画像処理方法および画像処理プログラム
CN116456100A (zh) * 2023-06-16 2023-07-18 深流微智能科技(深圳)有限公司 一种帧间编码树单元划分方法及装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7277486B2 (en) * 2002-05-03 2007-10-02 Microsoft Corporation Parameterization for fading compensation
CN102572380B (zh) * 2010-12-29 2014-12-10 中国移动通信集团公司 视频监控编码方法及其装置
CN103561232A (zh) * 2010-12-29 2014-02-05 中国移动通信集团公司 视频监控场景判别方法及装置
CN104798363A (zh) * 2012-08-23 2015-07-22 汤姆逊许可公司 检测视频比特流中渐变画面的方法和装置
US10063853B2 (en) * 2013-12-16 2018-08-28 Barco N.V. Efficient error recovery
JP6665611B2 (ja) * 2016-03-18 2020-03-13 富士通株式会社 符号化処理プログラム、符号化処理方法及び符号化処理装置
CN106358041B (zh) 2016-08-30 2019-05-10 北京奇艺世纪科技有限公司 一种帧间预测编码方法及装置
MY193626A (en) 2016-11-23 2022-10-20 True Mfg Co Inc Sanitary evaporator assembly

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317387A (ja) * 1995-05-17 1996-11-29 Nippon Columbia Co Ltd 動画像圧縮符号化方式
JPH118854A (ja) * 1996-04-30 1999-01-12 Nippon Telegr & Teleph Corp <Ntt> カット点検出方法及び装置
JP2000059775A (ja) * 1998-08-12 2000-02-25 Nec Corp フェード画像対応動画像符号化装置及び符号化方法
JP2000261810A (ja) * 1999-03-08 2000-09-22 Pioneer Electronic Corp フェード検出装置及び情報符号化装置
JP2002051341A (ja) * 2000-08-02 2002-02-15 Fujitsu Ltd 動画像符号化装置および動画像の特殊効果シーン検出装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3633159B2 (ja) * 1996-12-18 2005-03-30 ソニー株式会社 動画像信号符号化方法及び装置、並びに動画像信号伝送方法
US6327390B1 (en) * 1999-01-14 2001-12-04 Mitsubishi Electric Research Laboratories, Inc. Methods of scene fade detection for indexing of video sequences
US20060285586A1 (en) * 2005-05-16 2006-12-21 Ensequence, Inc. Methods and systems for achieving transition effects with MPEG-encoded picture content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317387A (ja) * 1995-05-17 1996-11-29 Nippon Columbia Co Ltd 動画像圧縮符号化方式
JPH118854A (ja) * 1996-04-30 1999-01-12 Nippon Telegr & Teleph Corp <Ntt> カット点検出方法及び装置
JP2000059775A (ja) * 1998-08-12 2000-02-25 Nec Corp フェード画像対応動画像符号化装置及び符号化方法
JP2000261810A (ja) * 1999-03-08 2000-09-22 Pioneer Electronic Corp フェード検出装置及び情報符号化装置
JP2002051341A (ja) * 2000-08-02 2002-02-15 Fujitsu Ltd 動画像符号化装置および動画像の特殊効果シーン検出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015530034A (ja) * 2012-08-23 2015-10-08 トムソン ライセンシングThomson Licensing ビデオ・ビットストリーム内の徐々に変化するトランジションを示すピクチャを検出する方法および装置
US9723309B2 (en) 2012-08-23 2017-08-01 Thomson Licensing Method and apparatus for detecting gradual transition picture in video bitstream
JP2016063284A (ja) * 2014-09-16 2016-04-25 株式会社Jvcケンウッド 画像処理装置、画像処理方法および画像処理プログラム
CN116456100A (zh) * 2023-06-16 2023-07-18 深流微智能科技(深圳)有限公司 一种帧间编码树单元划分方法及装置
CN116456100B (zh) * 2023-06-16 2023-08-29 深流微智能科技(深圳)有限公司 一种帧间编码树单元划分方法及装置

Also Published As

Publication number Publication date
JP4764136B2 (ja) 2011-08-31
US8090020B2 (en) 2012-01-03
US20070098074A1 (en) 2007-05-03

Similar Documents

Publication Publication Date Title
JP4764136B2 (ja) 動画像符号化装置、及びフェードシーン検出装置
US7643559B2 (en) Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
JP2005191706A (ja) 動画像符号化方法及びその装置
JP2006270435A (ja) 動画像符号化装置
JP2007267414A (ja) フレーム内画像符号化方法及びその装置
US20080002769A1 (en) Motion picture coding apparatus and method of coding motion pictures
JP2008227670A (ja) 画像符号化装置
JP4632049B2 (ja) 動画像符号化方法及び装置
JP2008124772A (ja) 符号化装置及び符号化方法
JP4074868B2 (ja) 画像符号化制御方法及びその装置
US20160057415A1 (en) Image encoding method, image encoding apparatus, and related encoding medium, image decoding method, image decoding apparatus, and related decoding medium
JP4257655B2 (ja) 動画像符号化装置
US8964836B2 (en) Method and apparatus for spatial predictive encoding and/or decoding of video data
JP5649296B2 (ja) 画像符号化装置
JP6652068B2 (ja) 動画像符号化装置、動画像符号化方法および動画像符号化プログラム
JP6946979B2 (ja) 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
EP1641269A1 (en) Image encoding device and image encoding method
JP4708821B2 (ja) 動画像符号化装置及びその制御方法、コンピュータプログラム及び記憶媒体
JP2006005466A (ja) 画像符号化方法及び装置
JP2005260576A (ja) 画像符号化方法及び装置
JP4676513B2 (ja) 符号化ピクチャタイプ決定方法,装置,そのプログラムおよびその記録媒体
JP2005045736A (ja) 画像信号符号化方法及び装置、符号化制御装置並びにプログラム
JP5171658B2 (ja) 画像符号化装置
JP2007251996A (ja) 動画像符号化方法及びその装置
JP2008182408A (ja) 動画像符号化装置及び方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110610

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4764136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees