JP3656036B2 - Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法 - Google Patents

Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法 Download PDF

Info

Publication number
JP3656036B2
JP3656036B2 JP2001063035A JP2001063035A JP3656036B2 JP 3656036 B2 JP3656036 B2 JP 3656036B2 JP 2001063035 A JP2001063035 A JP 2001063035A JP 2001063035 A JP2001063035 A JP 2001063035A JP 3656036 B2 JP3656036 B2 JP 3656036B2
Authority
JP
Japan
Prior art keywords
dissolve
fade
distribution
frame
compressed video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001063035A
Other languages
English (en)
Other versions
JP2001285712A (ja
Inventor
サン・バイ・ジュン
キョン・ロ・ユーン
Original Assignee
エルジー電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エルジー電子株式会社 filed Critical エルジー電子株式会社
Publication of JP2001285712A publication Critical patent/JP2001285712A/ja
Application granted granted Critical
Publication of JP3656036B2 publication Critical patent/JP3656036B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、MPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法に係るもので、詳しくは、圧縮ビデオ環境での空間−時間上のマクロブロックタイプの分布を利用して、ディゾルブ/フェードを効率的に検出し得るMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法に関するものである。
【0002】
【従来の技術】
一般に、使用者がテレビジョン及びビデオ媒体を通して、所望のビデオ(映画、ドラマ、ニュース、及びトキュメンタリーなどの動映像)を視聴するためには、所定の放映時間に合わせてプログラム全体を視聴しなければならない。
【0003】
しかし、近来、ディジタル技術及びイメージ/ビデオの認識技術の発展に伴い、使用者は、所望のビデオ映像を所望時に所望内容のみをサーチし、かつブラウジングすることが可能となった。
【0004】
このような非線形的なビデオブラウジング及びサーチのための核心技術としては、ショットセグメンテーション(Shot Segmentation)技法及びショットクラスタリング(Shot Clustering)技法がある。
【0005】
その中で、現在、ショットセグメンテーション技法の研究が盛んに行われており、ショットクラスタリング技法の研究は開始されたばかりである。
【0006】
ショットとは、妨害を起こすことなく、一つのカメラから得られたビデオフレームのシーケンスであって、これは、ビデオを分析、構成する最も基本となる単位である。
【0007】
一般に、ビデオ映像は、複数のショットが連結されて構成され、ショットの連結方式に従って、多様な編集効果を得ることができる。
【0008】
そのビデオ編集効果としては、急激なショット切換技法と、漸進的なショット切換技法とに大別される。
【0009】
急激なショット切換技法は、現在の画面から他の画面に急に切り換える技法であって、ハードカットともいわれ、最も広く利用されている。
【0010】
漸進的なショット切換技法は、現在の画面から他の画面に漸次切り換える技法であって、例えば、フェード(フェードイン、フェードアウト)、ディゾルブ、ワイプ(Wipe)及びその他の特殊効果などがある。フェード、ディゾルブ効果が最も広く利用されている。
【0011】
前記漸進的な技法によりショット切換を行うために、多様な映像要素を利用するが、特に、ビデオ動映像のカラーヒストグラム(Color Histogram Method)による大域的なカラー分布(Global color distribution)や利用したショットセグメンテーションが効果的である。
【0012】
しかし、カラーヒストグラムによる大域的なカラー分布を利用するショットセグメンテーション方法は、急激なショット切換を検出するときは検出性能が優秀であるが、漸進的なショット切換を検出するときには、検出性能が低い。
【0013】
従って、漸進的なショット切換をより効果的に行うための方法として、次にような技術が案出されている。
【0014】
先ず、(1)フレーム間のカラーヒストグラムの差に基づいたツイン比較方法があるが、このようなツイン比較方法によると、フレーム間の大域的カラーヒストグラム差のみに基づいてショット切換を検出するため、検出性能が低く、誤検出が多く、実施速度が遅いという問題点がある。
【0015】
(2)フレームの大域的明るさ分布の分散値を利用したディゾルブ/フェード検出方法があるが、この方法は、フェード/ディゾルブ区間のIフレームと、Pフレームの明るさの変化、明るさの変化の分布のグラフが放物線状として表れ、極大値と極小値との差が非常に大きく、ディゾルブ/フェードの編集効果が数〜数十フレームに亘って表れるという特性を利用している。しかし、このディゾルブ/フェード検出方法においては、ディゾルブ/フェードが検出される区間のみで明るさの変化の分布が現れるべきであるが、ディゾルブ/フェードが発生しない区間でも頻繁に現れ、ディゾルブ/フェードが発生している区間では前記フレームの明るさの分布が現れない場合が多いという問題点があった。
【0016】
(3)イメージでのエッジ検出アルゴリズムによるエッジの分布、及び検出されたエッジの動映像的特性分析を利用したディゾルブ/フェードの検出方法がある。この方法は、イメージデータからエッジを検出する前処理段階と、動映像的特徴を利用して検出されたエッジを新たに現れるエッジと、消えてゆくエッジとに区分し、これを基本としてエッジ変化率を計算する段階と、前記新たに現れるエッジ、及び消えてゆくエッジの時空間的分布を利用して、各編集効果を区分する後処理段階と、を順次行うことで、ハードカット、ディゾルブ、フェード、ワイプの編集効果を区分して検出する。
【0017】
【発明が解決しようとする課題】
然るに、このような従来のビデオシーケンスでの漸進的なショット切換検出方法は、殆どのイメージを実際にデコードしなければならないため、エッジ検出演算に長い時間がかかり、実施速度が極めて遅くなるという不都合な点があった。
【0018】
そこで、本発明は、このような従来の問題点を鑑みてなされたもので、本発明の目的は、両方向フレーム間の予測を利用したビデオ圧縮ドメインにおいて、マクロタイプの時空間ドメイン上での分布変化を利用して、ディゾルブ/フェードが発生された区間を迅速、正確に検出し得るMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法を提供することである。
【0019】
【課題を解決するための手段】
このような目的を達成するため、本発明に係るMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法においては、ビデオシーケンス内でディゾルブ/フェード編集効果が使用されたと推測される候補区間を検出する段階と、
前記検出されたディゾルブ/フェード候補区間での時空間的マクロブロックタイプの分布を利用して、該当区間でディゾルブ/フェード編集効果が使用されたか否かを判別する段階と、
前記候補区間の長さを特定限界値と比較して、該当区間が特定限界値より大きいと、該区間をディゾルブ/フェード区間と判断する段階と、
順次行うことを特徴とする。
【0020】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて説明する。
図1は、本発明の実施形態に係る非線形的ビデオブラウジングインタフェースのブロック図で、図示されたインタフェースを利用して主要部をサーチすることで、使用者は、ビデオ全体を視聴することなく、所望のビデオ内容のみを容易に視聴することができるため、ディジタルビデオブラウジング方法において有用である。
【0021】
そして、前記ビデオブラウジングを行うための核心技術として、ショットセグメンテーション技法及びショットクラスタリング技法がある。
【0022】
このようなショットセグメンテーション技法とショットクラスタリング技法との関係を図2を参照して説明すると次の通りである。
【0023】
図2は、本発明に係るショットセグメンテーションとショットクラスタリングとの関係を示した構成図で、図示されたように、ビデオストリームは、論理的に構成されたシーンが連結されており、それぞれのシーンは、複数のショットの連結により構成されている。
【0024】
そして、ショットセグメンテーションとは、ビデオストリームを各個別のショットにそれぞれ分割する技術である。また、ショットクラスタリングとは、各個別ショットを時間的/イメージ的/モーション的/オーディオ的な類似性に基づいて、似ているショット同士を区分する論理的なシーン単位のビデオ構造を構成する技術である。
【0025】
又、ビデオ編集効果は、ビデオを構成する複数のショットの連結方式により区分され、例えば、急激な切換技法としてのハードカットや漸進的な切換技法などがある。
【0026】
また、漸進的な切換技法としては、ディゾルブ、フェード、ワイプ及びその他の特殊効果などがある。
【0027】
ビデオ編集時に漸進的に二つのショット又は各シーンを連結するためには、ディゾルブ及びフェードが最も広く利用されている。ディゾルブは、二つの場面がお互に重なって漸進的に一つの画面から他の画面に移す技法である。
【0028】
両方向フレーム相互間の予測によるビデオ圧縮方法(MPEG)により圧縮されたビデオの時空間ドメインでのマクロブロックタイプの分布変化を利用したディゾルブ/フェードの検出方法に対し、図3〜図6を参照して説明すると、次のようである。
図3は、本発明に係るビデオシーケンスでのディゾルブによるショット切換の一例を示した構成図で、図示されたように、ビデオシーケンスが進行されるにつれ、二つの場面が相互に漸進的に重なり合って、一つの画面(108)から他の画面(124)に完全に切り替わる。
【0029】
このように、ディゾルブ/フェードを利用して検出されるショット切換をビデオシーケンスから分析すると、次のような特性が現れる。
(1) ディゾルブ/フェードの開始画面と終了画面とのカラー分布が極めて異なる。
(2) 一般に、ディゾルブ/フェードは、数フレーム以上持続される。
(3) ディゾルブ/フェードの最初の画面は、漸次ぼんやりとなり、次の画面が漸次鮮明になる。
(4) 像がぼんやりとするピクセルと、鮮明なピクセルとは、空間的に広く分布されている。
【0030】
このような特性を利用して、本発明では、圧縮ドメインで同時に両方向予測を行うBフレーム内の複数のマクロブロックタイプの時空間上での分布及び変化特性を利用して、効率的なディゾルブ/フェード検出のためのアルゴリズムを実現することができる。
【0031】
以下、前記アルゴリズムの実施過程を説明する。
先ず、ビデオシーケンスにおいて、ショット切換の検出を行ってディゾルブ/フェード技術が使用されたと推測される候補領域を検出する。このとき、その候補領域は、ディゾルブ/フェードが検出される場面の最初のフレームと最終のフレーム間のカラーヒストグラムの差が特定限界値より大きいときディゾルブ/フェードの発生区間と判断される。
【0032】
以上の過程を数式に表すと、次の通りである。
HistDiff(fb,fe)>τcolor ……………(1)
【0033】
上記式(1)中、fbは、ディゾルブ/フェード場面の開始時点、feは、ディゾルブ/フェード場面の終了時点、HistDiff(fb,fe)は、fbとfe間のカラーヒストグラム上での差であり、τcolorは、カラーヒストグラムの差によるショット切換の発生を判断するための特定限界値である。
【0034】
この候補領域の検出方法としては、ビデオフレームのカラーヒストグラムによりフレーム間の大域的カラー分布差を利用してショット切換を検出する方法、マクロブロックの時空間上の分布を利用して検出する方法、及びエッジの時空間上での分布及び変化形態の特性を利用する方法がある。
【0035】
カラー分布差を利用する方法において、カラー分布比較の基準となるフレーム(fb,fe)の検出方法は、次のようである。
【0036】
先ず、ステップを利用する方法として、基準フレームから時間的に一つのステップ間隔のフレームを選定してカラー分布を比較する方法がある。
【0037】
および、H.xxx又はMPEGのようなビデオコーデックにおいて、より効率的なデコードを行うために、イントラコードブロックを使用してIフレームを候補領域([fb,fe])として検出する方法がある。
【0038】
その後、このように検出されたディゾルブ/フェード候補領域([fb,fe])内にハードカットが存在するか否かを判別するが、ハードカットの存在可否を判別することで、ディゾルブ/フェードの検出アルゴリズムの正確度を向上することができる。
【0039】
ハードカットの検出方法としては、カラーヒストグラムに基づいた大域的カラー分布差を利用した二つのフレーム間のイメージ差を利用する方法、マクロブロックの時空間上での分布とその変化特性を利用する方法、動きベクトルの時空間上での特性、及びエッジ検出によるエッジの時空間上での分布及びその変化特性を利用する方法などがある。
【0040】
検出結果、ハードカットが存在しないと判断されると、通常、ディゾルブ/フェード区間で特徴的に示される時空間上でのマクロブロックタイプの分布を基準にして、検出されたディゾルブ/フェード候補区間([fb,fe])でディゾルブ/フェード編集効果が使用されたか否かを判別する。
【0041】
マクロブロックタイプの時空間上での分布調査は、フレーム間の両方向を予測するBフレーム上で行われる。
【0042】
その選択されたBフレームは、候補区間([fb,fe])のアンカーフレームを基準にしてそのアンカーフレームにそれぞれ隣接したBフレームである。
【0043】
アンカーフレームは、フレーム間の予測/動き補償の基準となるフレームであって、Iフレーム又はPフレームである。
【0044】
以下、Bフレーム、Iフレーム及びPフレームに対し、図4を参照して説明する。
図4は、本発明に係るMPEGビデオシーケンスでのGOP(Group of picture)構造を示した構成図で、特定のMPEGビデオシーケンスの何れか一つのGOPを示したものである。図中、陰影を施されて表示されたフレームは、アンカーフレームと隣接したBフレームを示し、それらBフレームは、最小デコードドメインでディゾルブ/フェードを検出し得るように、隣接したフレームである。
【0045】
アンカーフレームは、フレーム間の予測/動き補償の基準となるフレームであって、Bフレームは常時二つのアンカーフレームを有する。
【0046】
本発明では、デコードするのを最小にするため、全てのBフレームを検出してデコードせず、アンカーフレームのみを検出してデコードすることで、ディゾルブ/フェードを正確に検出し得るようになっている。
【0047】
ディゾルブ/フェード区間のマクロブロックの時空間分布特性を満足する[fb,fe]内で変形されたディゾルブ/フェード候補領域([fb」,fe」])を求めるためには、アンカーフレームに隣接したBフレームを1にセットし、そうでないBフレームは、0にセットする。
【0048】
従って、Bフレームは、ピクチャードメインまでデコードされず、マクロブロックタイプに接近できる水準までデコードされる。
【0049】
且つ、アルゴリズムの実施速度を向上させるために、アンカーフレームに隣接したBフレームのみを検出してデコードするとき、前記1にセットされたBフレームの順方向の予測マクロブロックの個数と、逆方向の予測マクロブロックの個数との和は0でなく、順方向の予測比率と、逆方向の予測比率との中で大きい値が特定限界値よりも大きくなる。
【0050】
以上の説明を数式に表すと、次の通りである。
Max(Mfwd/(Mfwd+Mbwd),Mbwd/(Mfwd+Mbwd))>τr ……………(2)
(if Mfwd+Mbwd≠0)
SpatDist(MinType(Mfwd,Mbwd))>τs ……………(3)
(if Mfwd・Mbwd=0)
MinType(Mx,MY)=X (ifMx <MY)) ……………(4)
MinType(Mx,MY)=Y (ifMx <MY)) ……………(5)
【0051】
上記式中、Mfwdは、フレーム内での順方向の予測マクロブロックの個数、Mbwdは、フレーム内での逆方向の予測マクロブロックの個数、τrは、順方向/逆方向比率に対する限界値、Mfwd/(Mfwd+Mbwd)は、順方向の予測比率、Mbwd/(Mfwd+Mbwd)は、逆方向の予測比率、X、Yは、任意の個数、SpatDist(A)は、Aタイプのマクロブロックの空間分布度関数、τsは、マクロブロックの空間分布度の限界値である。
【0052】
前記過程を行って得られた[fb,fe]において、アンカーフレームに隣接したBフレーム中で1にセットされたラン(Run)から最大の長さを有する候補領域([fb」,fe」])を検出する。
【0053】
順方向の予測比率と、逆方向の予測比率との中で大きい値が特定の限界値よりも大きい場合(式2)は、前記ディゾルブ/フェード区間内でアンカーフレームに隣接したBフレーム内で順方向又は逆方向の予測比率が極めて高く、このような現象は、ディゾルブ区間内で持続的に現れる。
【0054】
また、Bフレームでは、通常、より近接したアンカーフレームから一層多いマクロブロックを予測するが、前記式は、ディゾルブ/フェード区間でマクロブロックの予測比率が一層高く、持続的に現れるという特性を利用したものである。
【0055】
このような特性を図5のグラフに表した。
図5(A)及び図5(B)は、本発明に係るMPEGビデオシーケンスでの順方向の予測比率を示したグラフで、ディゾルブ区間と非ディゾルブ区間での順方向の予測比率を示したものである。
【0056】
前記式(3)は順方向の予測マクロブロックと逆方向の予測マクロブロックが空間ドメイン上で大域的に分散されていることを表している。すなわち、Bフレームでの順方向の予測マクロブロックの個数と、又は逆方向の予測マクロブロックの個数との中で何れか一つが0であるか、又は順方向の予測マクロブロックの個数と、逆方向の予測マクロブロックの個数とが全て0でなく、順方向の予測マクロブロックと、逆方向の予測マクロブロックとが空間ドメインで大域的に発生することを表している。
【0057】
前記空間的分布関数は、イメージ内で特定のタイプのマクロブロックの空間的大域分布度を判断する方法であって、多様な方法がある。
一例として、Aタイプのマクロブロックの空間分布度を測定する方法を次式のように表すことができる。
SpatDist(A)=CA/TA ……………(6)
【0058】
上記式中、CAは、タイプAを基準とする連結要素の総個数、TAは、イメージ上のタイプAのマクロブロックの総個数である。
【0059】
上記式(6)に対し、図6を参照して説明すると、次のようである。
図6は、本発明に係るディゾルブ区間のアンカーフレームと隣接したBフレームのマクロブロックタイプ別の分布を示したブロック図で、時空間軸のディゾルブ区間のアンカーフレームと隣接したBフレーム内でのマクロブロックのタイプ別分布度を示したものである。
【0060】
前記順方向の予測マクロブロックと、逆方向の予測マクロブロックとが空間ドメインで大域的に分散するように誘導する関数は、二つのタイプのマクロブロックがイメージ内で大域的に分散してることが分かる空間分布関数であって、前記二つのタイプのマクロブロックが大域的に分散されるほど、高い値を有する。
【0061】
空間分布関数は、特定タイプのマクロブロックの連結要素の個数を、イメージ内での特定タイプのマクロブロック個数を入力として除算した値で決定する。
【0062】
このようにディゾルブ/フェードが持続的に検出された区間の長さが最大のディゾルブ/フェード候補区間([fb,fe])の長さを特定限界値と比較して、限界値より大きい場合、該当区間([fb,fe]又は([fb ,fe ]))をディゾルブ/フェード区間と決定して、ディゾルブ/フェードを検出する。
【0063】
このように、空間分布度を調べるときは、フレームでの順方向の予測マクロブロックの個数と、逆方向の予測マクロブロックの個数との中で小さい数を基準にして、マクロブロックのタイプを選定するが、必要に応じては、大きい数を基準にして空間分布度を調べることもできる。
【0064】
以上の過程を経た後、マクロブロックタイプの時空間的分布を利用してディゾルブ/フェードを検出するアルゴリズムにおいては、検出された候補区間が実際にディゾルブ/フェードによるシーン変換区間であるかどうかを判断するために、時間的制約条件を適用する。
【0065】
即ち、ディゾルブ/フェード区間において、マクロブロックタイプの時空間的特性が一定時間以上持続して示されると、該当区間をディゾルブ/フェードによるシーンの転換区間であると判断し、そうでないと、該当区間がディゾルブ/フェードによるシーンの転換区間でないと最終判断する。
このような内容を数式に表すと、次のようである。
[e−b]=τt ……………(7)
上記式中、τtは、モデリング時間である。
【0066】
前記過程で求められたディゾルブ/フェード候補区間で最初のシーンのカラー変化度が特定限界値より低い場合は、フェードインと判断し、最終のシーンのカラー変化度が特定限界値よりも低い場合は、フェードアウトと判断し、両方とも該当しない場合は、ディゾルブと判断する。
【0067】
即ち、前記ディゾルブとフェードとを区別する過程を数式に表すと、次のようになる。
if ColorDist(fstart)< τd then Fade-In
else if ColorDist(fend)< τd then Fade-Out
else dissolve
【0068】
ColorDist(f1)は、フレーム(f1)のイメージがある程度多様なカラーで構成されているかどうかを判断する尺度であって、特定基準にサンプリングされたピクセルのみに適用することができる。
【0069】
τdは、フェードインと、フェードアウトとを判定するための限界値、fstartは、ディゾルブ/フェードの開始時点、fendは、ディゾルブ/フェードの終了時点であり、fstartは、fb又はfb'を、fendは、fe又はfe'を利用することができる。
【0070】
前記数式においては、フェードインでは初期に単純なシーンから開始され、フェードアウトでは画面が漸次単純になる特性を利用した。
【0071】
このように、本発明は、従来の技術により非圧縮ドメインでピクセル単位のプロセッシングを利用するか、カラーヒストグラムを利用するか、明るさ変化を利用してディゾルブフェードを検出していたアルゴリズムとは異なって、最小デコードドメインで両方向の予測/動きを補償するBフレームでのマクロブロックタイプに対する時空間上の分布及びその変化の形態を利用するディゾルブ/フェード検出方法である。
【0072】
【発明の効果】
以上説明したように、本発明に係るMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法においては、最小デコードドメインでプロセスが行われるため、実施速度が既存のアルゴリズムに比べて迅速で、速いカメラモーション又はオブジェクトの大きいモーション情報に対しても安定的である。
【0073】
且つ、本発明は、ショットセグメンテーション分野で具現し難い漸進的シーン転換方法として広く利用されているフェード/ディゾルブ効果を迅速、正確に検出し得るアルゴリズムを具現したものである。即ち、基本的なショットセグメンテーションアルゴリズム上の基本特性を利用するため、既存のショットセグメンテーション及びショットクラスタリングアルゴリズムを利用する装置でも、基本入力として使用することができ、適用範囲が広いという効果がある。
【図面の簡単な説明】
【図1】 本発明の実施形態に係る非線形的ビデオブラウジングインタフェースのブロック図である。
【図2】 本発明に係るショットセグメンテーションとショットクラスタリングとの関係を示した構成図である。
【図3】 本発明に係るMPEGビデオシーケンスでのディゾルブによるショット切換の一例を示した構成図である。
【図4】 本発明に係るMPEGビデオシーケンスでのGOP構造を示した構成図である。
【図5】 本発明に係るMPEGビデオシーケンスのディゾルブ/フェード区間と、そうでない区間とでの順方向の予測比率を示したグラフである。
【図6】 本発明に係るディゾルブ区間でのアンカーフレームと隣接したBフレームのマクロブロックタイプ別分布を示した構成図である。

Claims (7)

  1. ビデオシーケンス内でディゾルブ/フェード編集効果が使用されたと推測される候補区間を検出する段階と、
    前記検出されたディゾルブ/フェード候補区間に対し、ディゾルブ/フェード区間で特徴的に発生する時空間上でのマクロブロックタイプの分布に基づいて、該当区間でディゾルブ/フェード編集効果が使用されたか否かを判別する段階と、
    前記検出されたディゾルブ/フェード候補区間内での時空間的マクロブロックタイプの分布特性が持続的に現れる場合、該当区間の長さを特定限界値と比較してその限界値よりも大きいと、その区間をフェード/ディゾルブ区間と最終判断する段階と、
    を順次行うとともに、前記マクロブロックタイプの時空間上の分布を利用して、該当区間でディゾルブ/フェード編集効果が使用されたか否かを判別する段階では、圧縮ドメインで同時に両方向予測を行うBフレーム内でのマクロブロックタイプの時空間上の分布及び変化特性を利用することを特徴とするMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法。
  2. 前記候補区間を検出する段階で検出された候補区間内にハードカットが存在するか否かを判別して、ハードカットが存在しない場合のみ、その後の段階に進行することを特徴とする請求項1に記載のMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法。
  3. 前記候補区間は、前記ディゾルブ/フェードが検出されるシーンの最初のフレームと、最終のフレーム間のカラーヒストグラムの差が特定限界値より大きいと、ディゾルブ/フェードの候補区間であると判断することを特徴とする請求項1に記載のMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法。
  4. 前記ディゾルブ/フェードの候補区間を検出する段階では、カラーヒストグラムに基づいた大域的カラー分布の差を利用して、二つのフレーム間のイメージ差を利用する方法、マクロブロックの時空間上の分布を利用する方法、動きベクトルの時空間上の分布を利用する方法、及びエッジの時空間上の分布及び変化特性を利用する方法中の何れか一つを選択して行うことを特徴とする請求項1に記載のMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法。
  5. 前記ハードカットが存在するか否かを判別する方法は、カラーヒストグラムに基づいた大域的カラー分布の差を利用して、二つのフレーム間のイメージ差を利用する方法、マクロブロックの時空間上の分布を利用する方法、動きベクトルの時空間上の分布を利用する方法、及びエッジの時空間上の分布及び変化特性を利用する方法中の何れか一つを選択して行うことを特徴とする請求項に記載のMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法。
  6. 記Bフレームは、前記候補領域内のアンカーフレームを基準として、そのアンカーフレームに隣接したBフレームとして選択されることを特徴とする請求項に記載のMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法。
  7. 前記アンカーフレームは、フレーム間の予測/動き補償の基準となるIフレーム又はPフレームであることを特徴とする請求項に記載のMPEG圧縮ビデオ環境でのディゾルブ/フェード検出方法。
JP2001063035A 2000-03-07 2001-03-07 Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法 Expired - Fee Related JP3656036B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR11334/2000 2000-03-07
KR1020000011334A KR20010087552A (ko) 2000-03-07 2000-03-07 엠펙(mpeg)압축 비디오 환경에서 매크로 블록의시공간상의 분포를 이용한 디졸브/페이드 검출 방법

Publications (2)

Publication Number Publication Date
JP2001285712A JP2001285712A (ja) 2001-10-12
JP3656036B2 true JP3656036B2 (ja) 2005-06-02

Family

ID=36371710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001063035A Expired - Fee Related JP3656036B2 (ja) 2000-03-07 2001-03-07 Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法

Country Status (5)

Country Link
US (1) US6940910B2 (ja)
EP (1) EP1132812B1 (ja)
JP (1) JP3656036B2 (ja)
KR (1) KR20010087552A (ja)
DE (1) DE60119012T2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9307240B2 (en) 2011-08-29 2016-04-05 Ntt Electronics Corporation Fade type determination device

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735253B1 (en) 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US7143434B1 (en) 1998-11-06 2006-11-28 Seungyup Paek Video description system and method
US7339992B2 (en) 2001-12-06 2008-03-04 The Trustees Of Columbia University In The City Of New York System and method for extracting text captions from video and generating video summaries
FI114433B (fi) * 2002-01-23 2004-10-15 Nokia Corp Otossiirtymän koodaaminen videokoodauksessa
KR100631768B1 (ko) 2004-04-14 2006-10-09 삼성전자주식회사 비디오 코딩에서 프레임간 예측방법 및 비디오 인코더와,비디오 디코딩방법 및 비디오 디코더
US7650031B2 (en) * 2004-11-23 2010-01-19 Microsoft Corporation Method and system for detecting black frames in a sequence of frames
WO2006096612A2 (en) 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
FR2887731A1 (fr) * 2005-06-23 2006-12-29 Nextream France Sa Methode et dispositif de detection de fondus dans une sequence d'images
EP1914994A1 (en) * 2006-10-17 2008-04-23 Mitsubishi Electric Information Technology Centre Europe B.V. Detection of gradual transitions in video sequences
WO2008091206A1 (en) * 2007-01-26 2008-07-31 Telefonaktiebolaget Lm Ericsson (Publ) Motion estimation for uncovered frame regions
US8891020B2 (en) 2007-01-31 2014-11-18 Thomson Licensing Method and apparatus for automatically categorizing potential shot and scene detection information
JP5026152B2 (ja) * 2007-06-04 2012-09-12 日本放送協会 ディゾルブ検出装置及びプログラム
DE102007028175A1 (de) 2007-06-20 2009-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatisiertes Verfahren zur zeitlichen Segmentierung eines Videos in Szenen unter Berücksichtigung verschiedener Typen von Übergängen zwischen Bildfolgen
TWI393114B (zh) * 2007-09-05 2013-04-11 Htc Corp 在作業系統切換時逐步調整螢幕亮度的方法
US9131213B2 (en) * 2007-09-07 2015-09-08 Evertz Microsystems Ltd. Method of generating a blockiness indicator for a video signal
JP2009077105A (ja) * 2007-09-20 2009-04-09 Sony Corp 編集装置および編集方法、プログラム、並びに記録媒体
WO2009126785A2 (en) 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
WO2009155281A1 (en) 2008-06-17 2009-12-23 The Trustees Of Columbia University In The City Of New York System and method for dynamically and interactively searching media data
EP2345244B1 (en) 2008-11-13 2014-08-06 Thomson Licensing Multiple thread video encoding using gop merging and bit allocation
US8671069B2 (en) 2008-12-22 2014-03-11 The Trustees Of Columbia University, In The City Of New York Rapid image annotation via brain state decoding and visual pattern mining
US8135222B2 (en) * 2009-08-20 2012-03-13 Xerox Corporation Generation of video content from image sets
EP2888870B1 (en) * 2012-08-23 2017-08-02 Thomson Licensing Method and apparatus for detecting gradual transition picture in video bitstream
CN104798363A (zh) * 2012-08-23 2015-07-22 汤姆逊许可公司 检测视频比特流中渐变画面的方法和装置
US8818037B2 (en) * 2012-10-01 2014-08-26 Microsoft Corporation Video scene detection
US9813706B1 (en) * 2013-12-02 2017-11-07 Google Inc. Video content analysis and/or processing using encoding logs
CN108176052B (zh) * 2018-01-31 2021-05-25 网易(杭州)网络有限公司 模型建造的模拟方法、装置、存储介质、处理器及终端
US10834458B2 (en) * 2019-03-29 2020-11-10 International Business Machines Corporation Automated video detection and correction

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2839132B2 (ja) * 1993-12-17 1998-12-16 日本電信電話株式会社 映像カット点検出方法及び装置
DE69527457T2 (de) 1994-03-31 2003-01-23 Siemens Corp. Research, Inc. Feststellung von Szenenwechseln in kodierten Videosequenzen
EP0780844A3 (en) 1995-12-21 2002-03-20 Siemens Corporate Research, Inc. Cut browsing and editing apparatus
JP2869398B2 (ja) 1996-04-30 1999-03-10 日本電信電話株式会社 カット点検出方法及び装置
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
US5959697A (en) * 1996-06-07 1999-09-28 Electronic Data Systems Corporation Method and system for detecting dissolve transitions in a video signal
US6061471A (en) * 1996-06-07 2000-05-09 Electronic Data Systems Corporation Method and system for detecting uniform images in video signal
US6195458B1 (en) * 1997-07-29 2001-02-27 Eastman Kodak Company Method for content-based temporal segmentation of video
US6084641A (en) 1997-08-06 2000-07-04 General Instrument Corporation Fade detector for digital video
US5956026A (en) 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US6459459B1 (en) * 1998-01-07 2002-10-01 Sharp Laboratories Of America, Inc. Method for detecting transitions in sampled digital video sequences
US6278446B1 (en) 1998-02-23 2001-08-21 Siemens Corporate Research, Inc. System for interactive organization and browsing of video
US6393054B1 (en) * 1998-04-20 2002-05-21 Hewlett-Packard Company System and method for automatically detecting shot boundary and key frame from a compressed video data
US6721454B1 (en) * 1998-10-09 2004-04-13 Sharp Laboratories Of America, Inc. Method for automatic extraction of semantically significant events from video
US6449392B1 (en) * 1999-01-14 2002-09-10 Mitsubishi Electric Research Laboratories, Inc. Methods of scene change detection and fade detection for indexing of video sequences
JP3957915B2 (ja) 1999-03-08 2007-08-15 パイオニア株式会社 フェード検出装置及び情報符号化装置
JP3593929B2 (ja) * 1999-09-03 2004-11-24 日本電気株式会社 動画像符号化方法及び動画像符号化装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9307240B2 (en) 2011-08-29 2016-04-05 Ntt Electronics Corporation Fade type determination device

Also Published As

Publication number Publication date
JP2001285712A (ja) 2001-10-12
KR20010087552A (ko) 2001-09-21
EP1132812B1 (en) 2006-04-26
EP1132812A1 (en) 2001-09-12
DE60119012D1 (de) 2006-06-01
US20010021267A1 (en) 2001-09-13
US6940910B2 (en) 2005-09-06
DE60119012T2 (de) 2006-10-12

Similar Documents

Publication Publication Date Title
JP3656036B2 (ja) Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法
US7027509B2 (en) Hierarchical hybrid shot change detection method for MPEG-compressed video
JP4666784B2 (ja) ビデオシーケンスのキーフレーム抽出方法及びビデオシーケンスのキーフレーム抽出装置
US8989559B2 (en) Video importance rating based on compressed domain video features
KR100673282B1 (ko) 비디오/오디오 신호 처리 방법 및 비디오/오디오 신호처리 장치
JP3939551B2 (ja) 動画像処理装置、その方法、及び記録媒体
JP3719933B2 (ja) 階層的ディジタル動画要約及び閲覧方法、並びにその装置
US7469010B2 (en) Extracting key frames from a video sequence
JP2001526859A (ja) ワールドワイドウェブ上の圧縮映像の指示及び編集方法及びアーキテクチュア
JP2000224590A (ja) ビデオシ―ケンスの特徴抽出方法
EP1053635B1 (en) Method for detecting transitions in sampled digital video sequences
US20050141613A1 (en) Editing of encoded a/v sequences
Sugano et al. A fast scene change detection on MPEG coding parameter domain
Smeaton et al. An evaluation of alternative techniques for automatic detection of shot boundaries in digital video
JP2869398B2 (ja) カット点検出方法及び装置
KR100286742B1 (ko) 압축된 뉴스 영상의 장면전환 및 기사 검출방법
JPH10112863A (ja) 動き被写体情報抽出方法及び装置
KR20020040503A (ko) 동영상 비디오 스트림의 장면전환 검출방법
JP3339544B2 (ja) ディゾルブ検出方法および装置
JPH07336726A (ja) 動画像検出方法及び装置
JP3333956B2 (ja) カット点検出方法および装置
Zhao et al. A MPEG video structure analysis scheme and its application to hierarchical video browser
JPH0983864A (ja) 動画像のカット点画像検出装置
JP2007318634A (ja) フェード検出装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20040616

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20040621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050307

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees