JP2001285712A - Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法 - Google Patents

Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法

Info

Publication number
JP2001285712A
JP2001285712A JP2001063035A JP2001063035A JP2001285712A JP 2001285712 A JP2001285712 A JP 2001285712A JP 2001063035 A JP2001063035 A JP 2001063035A JP 2001063035 A JP2001063035 A JP 2001063035A JP 2001285712 A JP2001285712 A JP 2001285712A
Authority
JP
Japan
Prior art keywords
dissolve
fade
frame
section
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001063035A
Other languages
English (en)
Other versions
JP3656036B2 (ja
Inventor
Bai Jun San
サン・バイ・ジュン
Ro Yuun Kyon
キョン・ロ・ユーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2001285712A publication Critical patent/JP2001285712A/ja
Application granted granted Critical
Publication of JP3656036B2 publication Critical patent/JP3656036B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

(57)【要約】 【課題】 両方向フレーム間の予測を利用したビデオ圧
縮ドメインにおいて、ディゾルブ/フェードの使用区間
を迅速、正確に検出し得るMPEG圧縮ビデオ環境での
ディゾルブ/フェード検出方法を提供する。 【解決手段】ビデオシーケンス内でディゾルブ/フェー
ド編集効果が使用されたと推測される候補区間を検出
し、検出されたディゾルブ/フェード候補区間での時空
間的マクロブロックタイプの分布を利用して、該当区間
でディゾルブ/フェード編集効果が使用されたかを判別
し、候補区間の長さを特定限界値と比較して、該当区間
が特定限界値より大きいと、その区間をディゾルブ/フ
ェード区間と判断する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、MPEG圧縮ビデ
オ環境でのディゾルブ/フェード検出方法に係るもの
で、詳しくは、圧縮ビデオ環境での空間−時間上のマク
ロブロックタイプの分布を利用して、ディゾルブ/フェ
ードを効率的に検出し得るMPEG圧縮ビデオ環境での
ディゾルブ/フェード検出方法に関するものである。
【0002】
【従来の技術】一般に、使用者がテレビジョン及びビデ
オ媒体を通して、所望のビデオ(映画、ドラマ、ニュー
ス、及びトキュメンタリーなどの動映像)を視聴するた
めには、所定の放映時間に合わせてプログラム全体を視
聴しなければならない。
【0003】しかし、近来、ディジタル技術及びイメー
ジ/ビデオの認識技術の発展に伴い、使用者は、所望の
ビデオ映像を所望時に所望内容のみをサーチし、かつブ
ラウジングすることが可能となった。
【0004】このような非線形的なビデオブラウジング
及びサーチのための核心技術としては、ショットセグメ
ンテーション(Shot Segmentation)技法及びショット
クラスタリング(Shot Clustering)技法がある。
【0005】その中で、現在、ショットセグメンテーシ
ョン技法の研究が盛んに行われており、ショットクラス
タリング技法の研究は開始されたばかりである。
【0006】ショットとは、妨害を起こすことなく、一
つのカメラから得られたビデオフレームのシーケンスで
あって、これは、ビデオを分析、構成する最も基本とな
る単位である。
【0007】一般に、ビデオ映像は、複数のショットが
連結されて構成され、ショットの連結方式に従って、多
様な編集効果を得ることができる。
【0008】そのビデオ編集効果としては、急激なショ
ット切換技法と、漸進的なショット切換技法とに大別さ
れる。
【0009】急激なショット切換技法は、現在の画面か
ら他の画面に急に切り換える技法であって、ハードカッ
トともいわれ、最も広く利用されている。
【0010】漸進的なショット切換技法は、現在の画面
から他の画面に漸次切り換える技法であって、例えば、
フェード(フェードイン、フェードアウト)、ディゾル
ブ、ワイプ(Wipe)及びその他の特殊効果などがある。
フェード、ディゾルブ効果が最も広く利用されている。
【0011】前記漸進的な技法によりショット切換を行
うために、多様な映像要素を利用するが、特に、ビデオ
動映像のカラーヒストグラム(Color Histogram Metho
d)による大域的なカラー分布(Global color distribu
tion)や利用したショットセグメンテーションが効果的
である。
【0012】しかし、カラーヒストグラムによる大域的
なカラー分布を利用するショットセグメンテーション方
法は、急激なショット切換を検出するときは検出性能が
優秀であるが、漸進的なショット切換を検出するときに
は、検出性能が低い。
【0013】従って、漸進的なショット切換をより効果
的に行うための方法として、次にような技術が案出され
ている。
【0014】先ず、(1)フレーム間のカラーヒストグ
ラムの差に基づいたツイン比較方法があるが、このよう
なツイン比較方法によると、フレーム間の大域的カラー
ヒストグラム差のみに基づいてショット切換を検出する
ため、検出性能が低く、誤検出が多く、実施速度が遅い
という問題点がある。
【0015】(2)フレームの大域的明るさ分布の分散
値を利用したディゾルブ/フェード検出方法があるが、
この方法は、フェード/ディゾルブ区間のIフレーム
と、Pフレームの明るさの変化、明るさの変化の分布の
グラフが放物線状として表れ、極大値と極小値との差が
非常に大きく、ディゾルブ/フェードの編集効果が数〜
数十フレームに亘って表れるという特性を利用してい
る。しかし、このディゾルブ/フェード検出方法におい
ては、ディゾルブ/フェードが検出される区間のみで明
るさの変化の分布が現れるべきであるが、ディゾルブ/
フェードが発生しない区間でも頻繁に現れ、ディゾルブ
/フェードが発生している区間では前記フレームの明る
さの分布が現れない場合が多いという問題点があった。
【0016】(3)イメージでのエッジ検出アルゴリズ
ムによるエッジの分布、及び検出されたエッジの動映像
的特性分析を利用したディゾルブ/フェードの検出方法
がある。この方法は、イメージデータからエッジを検出
する前処理段階と、動映像的特徴を利用して検出された
エッジを新たに現れるエッジと、消えてゆくエッジとに
区分し、これを基本としてエッジ変化率を計算する段階
と、前記新たに現れるエッジ、及び消えてゆくエッジの
時空間的分布を利用して、各編集効果を区分する後処理
段階と、を順次行うことで、ハードカット、ディゾル
ブ、フェード、ワイプの編集効果を区分して検出する。
【0017】
【発明が解決しようとする課題】然るに、このような従
来のビデオシーケンスでの漸進的なショット切換検出方
法は、殆どのイメージを実際にデコードしなければなら
ないため、エッジ検出演算に長い時間がかかり、実施速
度が極めて遅くなるという不都合な点があった。
【0018】そこで、本発明は、このような従来の問題
点を鑑みてなされたもので、本発明の目的は、両方向フ
レーム間の予測を利用したビデオ圧縮ドメインにおい
て、マクロタイプの時空間ドメイン上での分布変化を利
用して、ディゾルブ/フェードが発生された区間を迅
速、正確に検出し得るMPEG圧縮ビデオ環境でのディ
ゾルブ/フェード検出方法を提供することである。
【0019】
【課題を解決するための手段】このような目的を達成す
るため、本発明に係るMPEG圧縮ビデオ環境でのディ
ゾルブ/フェード検出方法においては、ビデオシーケン
ス内でディゾルブ/フェード編集効果が使用されたと推
測される候補区間を検出する段階と、前記検出されたデ
ィゾルブ/フェード候補区間での時空間的マクロブロッ
クタイプの分布を利用して、該当区間でディゾルブ/フ
ェード編集効果が使用されたか否かを判別する段階と、
前記候補区間の長さを特定限界値と比較して、該当区間
が特定限界値より大きいと、該区間をディゾルブ/フェ
ード区間と判断する段階と、順次行うことを特徴とす
る。
【0020】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。図1は、本発明の実施形態に
係る非線形的ビデオブラウジングインタフェースのブロ
ック図で、図示されたインタフェースを利用して主要部
をサーチすることで、使用者は、ビデオ全体を視聴する
ことなく、所望のビデオ内容のみを容易に視聴すること
ができるため、ディジタルビデオブラウジング方法にお
いて有用である。
【0021】そして、前記ビデオブラウジングを行うた
めの核心技術として、ショットセグメンテーション技法
及びショットクラスタリング技法がある。
【0022】このようなショットセグメンテーション技
法とショットクラスタリング技法との関係を図2を参照
して説明すると次の通りである。
【0023】図2は、本発明に係るショットセグメンテ
ーションとショットクラスタリングとの関係を示した構
成図で、図示されたように、ビデオストリームは、論理
的に構成されたシーンが連結されており、それぞれのシ
ーンは、複数のショットの連結により構成されている。
【0024】そして、ショットセグメンテーションと
は、ビデオストリームを各個別のショットにそれぞれ分
割する技術である。また、ショットクラスタリングと
は、各個別ショットを時間的/イメージ的/モーション
的/オーディオ的な類似性に基づいて、似ているショッ
ト同士を区分する論理的なシーン単位のビデオ構造を構
成する技術である。
【0025】又、ビデオ編集効果は、ビデオを構成する
複数のショットの連結方式により区分され、例えば、急
激な切換技法としてのハードカットや漸進的な切換技法
などがある。
【0026】また、漸進的な切換技法としては、ディゾ
ルブ、フェード、ワイプ及びその他の特殊効果などがあ
る。
【0027】ビデオ編集時に漸進的に二つのショット又
は各シーンを連結するためには、ディゾルブ及びフェー
ドが最も広く利用されている。ディゾルブは、二つの場
面がお互に重なって漸進的に一つの画面から他の画面に
移す技法である。
【0028】両方向フレーム相互間の予測によるビデオ
圧縮方法(MPEG)により圧縮されたビデオの時空間
ドメインでのマクロブロックタイプの分布変化を利用し
たディゾルブ/フェードの検出方法に対し、図3〜図6
を参照して説明すると、次のようである。図3は、本発
明に係るビデオシーケンスでのディゾルブによるショッ
ト切換の一例を示した構成図で、図示されたように、ビ
デオシーケンスが進行されるにつれ、二つの場面が相互
に漸進的に重なり合って、一つの画面(108)から他
の画面(124)に完全に切り替わる。
【0029】このように、ディゾルブ/フェードを利用
して検出されるショット切換をビデオシーケンスから分
析すると、次のような特性が現れる。 (1) ディゾルブ/フェードの開始画面と終了画面と
のカラー分布が極めて異なる。 (2) 一般に、ディゾルブ/フェードは、数フレーム
以上持続される。 (3) ディゾルブ/フェードの最初の画面は、漸次ぼ
んやりとなり、次の画面が漸次鮮明になる。 (4) 像がぼんやりとするピクセルと、鮮明なピクセ
ルとは、空間的に広く分布されている。
【0030】このような特性を利用して、本発明では、
圧縮ドメインで同時に両方向予測を行うBフレーム内の
複数のマクロブロックタイプの時空間上での分布及び変
化特性を利用して、効率的なディゾルブ/フェード検出
のためのアルゴリズムを実現することができる。
【0031】以下、前記アルゴリズムの実施過程を説明
する。先ず、ビデオシーケンスにおいて、ショット切換
の検出を行ってディゾルブ/フェード技術が使用された
と推測される候補領域を検出する。このとき、その候補
領域は、ディゾルブ/フェードが検出される場面の最初
のフレームと最終のフレーム間のカラーヒストグラムの
差が特定限界値より大きいときディゾルブ/フェードの
発生区間と判断される。
【0032】以上の過程を数式に表すと、次の通りであ
る。 HistDiff(fb,fe)>τcolor ……………(1)
【0033】上記式(1)中、fbは、ディゾルブ/フ
ェード場面の開始時点、feは、ディゾルブ/フェード
場面の終了時点、HistDiff(fb,fe)は、f
bとfe間のカラーヒストグラム上での差であり、τ
colorは、カラーヒストグラムの差によるショット切換
の発生を判断するための特定限界値である。
【0034】この候補領域の検出方法としては、ビデオ
フレームのカラーヒストグラムによりフレーム間の大域
的カラー分布差を利用してショット切換を検出する方
法、マクロブロックの時空間上の分布を利用して検出す
る方法、及びエッジの時空間上での分布及び変化形態の
特性を利用する方法がある。
【0035】カラー分布差を利用する方法において、カ
ラー分布比較の基準となるフレーム(fb,fe)の検出
方法は、次のようである。
【0036】先ず、ステップを利用する方法として、基
準フレームから時間的に一つのステップ間隔のフレーム
を選定してカラー分布を比較する方法がある。
【0037】および、H.xxx又はMPEGのようなビデ
オコーデックにおいて、より効率的なデコードを行うた
めに、イントラコードブロックを使用してIフレームを
候補領域([fb,fe])として検出する方法がある。
【0038】その後、このように検出されたディゾルブ
/フェード候補領域([fb,fe])内にハードカット
が存在するか否かを判別するが、ハードカットの存在可
否を判別することで、ディゾルブ/フェードの検出アル
ゴリズムの正確度を向上することができる。
【0039】ハードカットの検出方法としては、カラー
ヒストグラムに基づいた大域的カラー分布差を利用した
二つのフレーム間のイメージ差を利用する方法、マクロ
ブロックの時空間上での分布とその変化特性を利用する
方法、動きベクトルの時空間上での特性、及びエッジ検
出によるエッジの時空間上での分布及びその変化特性を
利用する方法などがある。
【0040】検出結果、ハードカットが存在しないと判
断されると、通常、ディゾルブ/フェード区間で特徴的
に示される時空間上でのマクロブロックタイプの分布を
基準にして、検出されたディゾルブ/フェード候補区間
([fb,fe])でディゾルブ/フェード編集効果が使
用されたか否かを判別する。
【0041】マクロブロックタイプの時空間上での分布
調査は、フレーム間の両方向を予測するBフレーム上で
行われる。
【0042】その選択されたBフレームは、候補区間
([fb,fe])のアンカーフレームを基準にしてその
アンカーフレームにそれぞれ隣接したBフレームであ
る。
【0043】アンカーフレームは、フレーム間の予測/
動き補償の基準となるフレームであって、Iフレーム又
はPフレームである。
【0044】以下、Bフレーム、Iフレーム及びPフレ
ームに対し、図4を参照して説明する。図4は、本発明
に係るMPEGビデオシーケンスでのGOP(Group of
picture)構造を示した構成図で、特定のMPEGビデ
オシーケンスの何れか一つのGOPを示したものであ
る。図中、陰影を施されて表示されたフレームは、アン
カーフレームと隣接したBフレームを示し、それらBフ
レームは、最小デコードドメインでディゾルブ/フェー
ドを検出し得るように、隣接したフレームである。
【0045】アンカーフレームは、フレーム間の予測/
動き補償の基準となるフレームであって、Bフレームは
常時二つのアンカーフレームを有する。
【0046】本発明では、デコードするのを最小にする
ため、全てのBフレームを検出してデコードせず、アン
カーフレームのみを検出してデコードすることで、ディ
ゾルブ/フェードを正確に検出し得るようになってい
る。
【0047】ディゾルブ/フェード区間のマクロブロッ
クの時空間分布特性を満足する[f b,fe]内で変形さ
れたディゾルブ/フェード候補領域([fb」,
e」])を求めるためには、アンカーフレームに隣接
したBフレームを1にセットし、そうでないBフレーム
は、0にセットする。
【0048】従って、Bフレームは、ピクチャードメイ
ンまでデコードされず、マクロブロックタイプに接近で
きる水準までデコードされる。
【0049】且つ、アルゴリズムの実施速度を向上させ
るために、アンカーフレームに隣接したBフレームのみ
を検出してデコードするとき、前記1にセットされたB
フレームの順方向の予測マクロブロックの個数と、逆方
向の予測マクロブロックの個数との和は0でなく、順方
向の予測比率と、逆方向の予測比率との中で大きい値が
特定限界値よりも大きくなる。
【0050】以上の説明を数式に表すと、次の通りであ
る。 Max(Mfwd/(Mfwd+Mbwd),Mbwd/(Mfwd+Mbwd))>τr ……………( 2) (if Mfwd+Mbwd≠0) SpatDist(MinType(Mfwd,Mbwd))>τs ……………(3) (if Mfwd・Mbwd=0) MinType(Mx,MY)=X (ifMx <MY)) ……………(4) MinType(Mx,MY)=Y (ifMx <MY)) ……………(5)
【0051】上記式中、Mfwdは、フレーム内での順方
向の予測マクロブロックの個数、Mb wdは、フレーム内
での逆方向の予測マクロブロックの個数、τrは、順方
向/逆方向比率に対する限界値、Mfwd/(Mfwd+M
bwd)は、順方向の予測比率、Mb wd/(Mfwd+Mbwd
は、逆方向の予測比率、X、Yは、任意の個数、Spa
tDist(A)は、Aタイプのマクロブロックの空間
分布度関数、τsは、マクロブロックの空間分布度の限
界値である。
【0052】前記過程を行って得られた[fb,fe]に
おいて、アンカーフレームに隣接したBフレーム中で1
にセットされたラン(Run)から最大の長さを有する
候補領域([fb」,fe」])を検出する。
【0053】順方向の予測比率と、逆方向の予測比率と
の中で大きい値が特定の限界値よりも大きい場合(式
2)は、前記ディゾルブ/フェード区間内でアンカーフ
レームに隣接したBフレーム内で順方向又は逆方向の予
測比率が極めて高く、このような現象は、ディゾルブ区
間内で持続的に現れる。
【0054】また、Bフレームでは、通常、より近接し
たアンカーフレームから一層多いマクロブロックを予測
するが、前記式は、ディゾルブ/フェード区間でマクロ
ブロックの予測比率が一層高く、持続的に現れるという
特性を利用したものである。
【0055】このような特性を図5のグラフに表した。
図5(A)及び図5(B)は、本発明に係るMPEGビ
デオシーケンスでの順方向の予測比率を示したグラフ
で、ディゾルブ区間と非ディゾルブ区間での順方向の予
測比率を示したものである。
【0056】前記式(3)は順方向の予測マクロブロッ
クと逆方向の予測マクロブロックが空間ドメイン上で大
域的に分散されていることを表している。すなわち、B
フレームでの順方向の予測マクロブロックの個数と、又
は逆方向の予測マクロブロックの個数との中で何れか一
つが0であるか、又は順方向の予測マクロブロックの個
数と、逆方向の予測マクロブロックの個数とが全て0で
なく、順方向の予測マクロブロックと、逆方向の予測マ
クロブロックとが空間ドメインで大域的に発生すること
を表している。
【0057】前記空間的分布関数は、イメージ内で特定
のタイプのマクロブロックの空間的大域分布度を判断す
る方法であって、多様な方法がある。一例として、Aタ
イプのマクロブロックの空間分布度を測定する方法を次
式のように表すことができる。 SpatDist(A)=CA/TA ……………(6)
【0058】上記式中、CAは、タイプAを基準とする
連結要素の総個数、TAは、イメージ上のタイプAのマ
クロブロックの総個数である。
【0059】上記式(6)に対し、図6を参照して説明
すると、次のようである。図6は、本発明に係るディゾ
ルブ区間のアンカーフレームと隣接したBフレームのマ
クロブロックタイプ別の分布を示したブロック図で、時
空間軸のディゾルブ区間のアンカーフレームと隣接した
Bフレーム内でのマクロブロックのタイプ別分布度を示
したものである。
【0060】前記順方向の予測マクロブロックと、逆方
向の予測マクロブロックとが空間ドメインで大域的に分
散するように誘導する関数は、二つのタイプのマクロブ
ロックがイメージ内で大域的に分散してることが分かる
空間分布関数であって、前記二つのタイプのマクロブロ
ックが大域的に分散されるほど、高い値を有する。
【0061】空間分布関数は、特定タイプのマクロブロ
ックの連結要素の個数を、イメージ内での特定タイプの
マクロブロック個数を入力として除算した値で決定す
る。
【0062】このようにディゾルブ/フェードが持続的
に検出された区間の長さが最大のディゾルブ/フェード
候補区間([fb,fe])の長さを特定限界値と比較し
て、限界値より大きい場合、該当区間([fb,fe]又
は([fb」,fe」]))をディゾルブ/フェード区間
と決定して、ディゾルブ/フェードを検出する。
【0063】このように、空間分布度を調べるときは、
フレームでの順方向の予測マクロブロックの個数と、逆
方向の予測マクロブロックの個数との中で小さい数を基
準にして、マクロブロックのタイプを選定するが、必要
に応じては、大きい数を基準にして空間分布度を調べる
こともできる。
【0064】以上の過程を経た後、マクロブロックタイ
プの時空間的分布を利用してディゾルブ/フェードを検
出するアルゴリズムにおいては、検出された候補区間が
実際にディゾルブ/フェードによるシーン変換区間であ
るかどうかを判断するために、時間的制約条件を適用す
る。
【0065】即ち、ディゾルブ/フェード区間におい
て、マクロブロックタイプの時空間的特性が一定時間以
上持続して示されると、該当区間をディゾルブ/フェー
ドによるシーンの転換区間であると判断し、そうでない
と、該当区間がディゾルブ/フェードによるシーンの転
換区間でないと最終判断する。このような内容を数式に
表すと、次のようである。 [e−b]=τt ……………(7) 上記式中、τtは、モデリング時間である。
【0066】前記過程で求められたディゾルブ/フェー
ド候補区間で最初のシーンのカラー変化度が特定限界値
より低い場合は、フェードインと判断し、最終のシーン
のカラー変化度が特定限界値よりも低い場合は、フェー
ドアウトと判断し、両方とも該当しない場合は、ディゾ
ルブと判断する。
【0067】即ち、前記ディゾルブとフェードとを区別
する過程を数式に表すと、次のようになる。 if ColorDist(fstart)< τd then Fade-In else if ColorDist(fend)< τd then Fade-Out else dissolve
【0068】ColorDist(f1)は、フレーム
(f1)のイメージがある程度多様なカラーで構成され
ているかどうかを判断する尺度であって、特定基準にサ
ンプリングされたピクセルのみに適用することができ
る。
【0069】τdは、フェードインと、フェードアウト
とを判定するための限界値、fstartは、ディゾルブ/
フェードの開始時点、fendは、ディゾルブ/フェード
の終了時点であり、fstartは、fb又はfb'を、fend
は、fe又はfe'を利用することができる。
【0070】前記数式においては、フェードインでは初
期に単純なシーンから開始され、フェードアウトでは画
面が漸次単純になる特性を利用した。
【0071】このように、本発明は、従来の技術により
非圧縮ドメインでピクセル単位のプロセッシングを利用
するか、カラーヒストグラムを利用するか、明るさ変化
を利用してディゾルブフェードを検出していたアルゴリ
ズムとは異なって、最小デコードドメインで両方向の予
測/動きを補償するBフレームでのマクロブロックタイ
プに対する時空間上の分布及びその変化の形態を利用す
るディゾルブ/フェード検出方法である。
【0072】
【発明の効果】以上説明したように、本発明に係るMP
EG圧縮ビデオ環境でのディゾルブ/フェード検出方法
においては、最小デコードドメインでプロセスが行われ
るため、実施速度が既存のアルゴリズムに比べて迅速
で、速いカメラモーション又はオブジェクトの大きいモ
ーション情報に対しても安定的である。
【0073】且つ、本発明は、ショットセグメンテーシ
ョン分野で具現し難い漸進的シーン転換方法として広く
利用されているフェード/ディゾルブ効果を迅速、正確
に検出し得るアルゴリズムを具現したものである。即
ち、基本的なショットセグメンテーションアルゴリズム
上の基本特性を利用するため、既存のショットセグメン
テーション及びショットクラスタリングアルゴリズムを
利用する装置でも、基本入力として使用することがで
き、適用範囲が広いという効果がある。
【図面の簡単な説明】
【図1】 本発明の実施形態に係る非線形的ビデオブラ
ウジングインタフェースのブロック図である。
【図2】 本発明に係るショットセグメンテーションと
ショットクラスタリングとの関係を示した構成図であ
る。
【図3】 本発明に係るMPEGビデオシーケンスでの
ディゾルブによるショット切換の一例を示した構成図で
ある。
【図4】 本発明に係るMPEGビデオシーケンスでの
GOP構造を示した構成図である。
【図5】 本発明に係るMPEGビデオシーケンスのデ
ィゾルブ/フェード区間と、そうでない区間とでの順方
向の予測比率を示したグラフである。
【図6】 本発明に係るディゾルブ区間でのアンカーフ
レームと隣接したBフレームのマクロブロックタイプ別
分布を示した構成図である。

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】 ビデオシーケンス内でディゾルブ/フェ
    ード編集効果が使用されたと推測される候補区間を検出
    する段階と、 前記検出されたディゾルブ/フェード候補区間に対し、
    ディゾルブ/フェード区間で特徴的に発生する時空間上
    でのマクロブロックタイプの分布に基づいて、該当区間
    でディゾルブ/フェード編集効果が使用されたか否かを
    判別する段階と、 前記検出されたディゾルブ/フェード候補区間内での時
    空間的マクロブロックタイプの分布特性が持続的に現れ
    る場合、該当区間の長さを特定限界値と比較してその限
    界値よりも大きいと、その区間をフェード/ディゾルブ
    区間と最終判断する段階と、 を順次行うことを特徴とするMPEG圧縮ビデオ環境で
    のディゾルブ/フェード検出方法。
  2. 【請求項2】 前記候補区間を検出する段階で検出され
    た候補区間内にハードカットが存在するか否かを判別し
    て、ハードカットが存在しない場合のみ、その後の段階
    に進行することを特徴とする請求項1に記載のMPEG
    圧縮ビデオ環境でのディゾルブ/フェード検出方法。
  3. 【請求項3】 前記候補区間は、前記ディゾルブ/フェ
    ードが検出されるシーンの最初のフレームと、最終のフ
    レーム間のカラーヒストグラムの差が特定限界値より大
    きいと、ディゾルブ/フェードの候補区間であると判断
    することを特徴とする請求項1に記載のMPEG圧縮ビ
    デオ環境でのディゾルブ/フェード検出方法。
  4. 【請求項4】 前記大域的カラー分布を比較する基準と
    なるフレームを選定する方法は、基準フレームから時間
    的に1ステップ間隔を置いたフレームを選定するか、又
    はイントラコードブロックのみを利用してコーディング
    された複数のIフレームを候補フレームに選定すること
    を特徴とする請求項3に記載のMPEG圧縮ビデオ環境
    でのディゾルブ/フェード検出方法。
  5. 【請求項5】 前記ディゾルブ/フェードの候補区間を
    検出する段階では、カラーヒストグラムに基づいた大域
    的カラー分布の差を利用して、二つのフレーム間のイメ
    ージ差を利用する方法、マクロブロックの時空間上の分
    布を利用する方法、動きベクトルの時空間上の分布を利
    用する方法、及びエッジの時空間上の分布及び変化特性
    を利用する方法中の何れか一つを選択して行うことを特
    徴とする請求項1に記載のMPEG圧縮ビデオ環境での
    ディゾルブ/フェード検出方法。
  6. 【請求項6】 前記ハードカット検出方法は、カラーヒ
    ストグラムに基づいた大域的カラー分布の差を利用し
    て、二つのフレーム間のイメージ差を利用する方法、マ
    クロブロックの時空間上の分布を利用する方法、動きベ
    クトルの時空間上の分布を利用する方法、及びエッジの
    時空間上の分布及び変化特性を利用する方法中の何れか
    一つを選択して行うことを特徴とする請求項1又は2に
    記載のMPEG圧縮ビデオ環境でのディゾルブ/フェー
    ド検出方法。
  7. 【請求項7】 前記マクロブロックタイプの時空間上の
    分布を利用して、該当区間でディゾルブ/フェード編集
    効果が使用されたか否かを判別する段階では、圧縮ドメ
    インで同時に両方向予測を行うBフレーム内でのマクロ
    ブロックタイプの時空間上の分布及び変化特性を利用す
    ることを特徴とする請求項1に記載のMPEG圧縮ビデ
    オ環境でのディゾルブ/フェード検出方法。
  8. 【請求項8】 前記選択されたBフレームは、前記候補
    領域内のアンカーフレームを基準として、そのアンカー
    フレームに隣接したBフレームであることを特徴とする
    請求項1又は7に記載のMPEG圧縮ビデオ環境でのデ
    ィゾルブ/フェード検出方法。
  9. 【請求項9】 前記アンカーフレームは、フレーム間の
    予測/動き補償の基準となるIフレーム又はPフレーム
    であることを特徴とする請求項1、7、8のいずれか一
    項に記載のMPEG圧縮ビデオ環境でのディゾルブ/フ
    ェード検出方法。
  10. 【請求項10】 前記マクロブロックタイプの時空間上
    での分布を利用して、該当区間でディゾルブ/フェード
    の編集効果が使用されたか否かを判別する段階では、 前記ディゾルブ/フェード候補区間内の前記アンカーフ
    レームに隣接したBフレーム中、「ディゾルブ/フェー
    ド区間でのBフレームのマクロブロックタイプの分布特
    性」を満足するBフレームを「1」にセットし、そうで
    ないフレームは、「0」にセットする段階と、 前記「1」にセットされたBフレーム中のそのBフレー
    ム区間の長さが最大のラン(Run)を求める段階と、
    を順次行うことを特徴とする請求項1又は7に記載の
    MPEG圧縮ビデオ環境でのディゾルブ/フェード検出
    方法。
  11. 【請求項11】 前記「ディゾルブ/フェード区間での
    Bフレームマクロブロックタイプ特性」は、該当Bフレ
    ームでの順方向の予測マクロブロックの個数と、逆方向
    の予測マクロブロックの個数との和が0でなく、順方向
    の予測比率と、逆方向の予測比率との中で大きい値が順
    方向/逆方向比率に対する限界値よりも大きいことを特
    徴とする請求項1、7、10中の何れか一項に記載のM
    PEG圧縮ビデオ環境でのディゾルブ/フェード検出方
    法。
  12. 【請求項12】 前記「ディゾルブ/フェード区間での
    Bフレームマクロブロックタイプ特性」は、該当Bフレ
    ームでの順方向の予測マクロブロックの個数と、又は逆
    方向の予測マクロブロックの個数との中で何れか一つが
    0であるか、又は順方向の予測マクロブロックの個数
    と、逆方向の予測マクロブロックの個数とが全て0でな
    く、順方向の予測マクロブロックと、逆方向の予測マク
    ロブロックとが空間ドメインで大域的に発生することを
    特徴とする請求項1、7、10中の何れか一項に記載の
    MPEG圧縮ビデオ環境でのディゾルブ/フェード検出
    方法。
  13. 【請求項13】 前記空間分布を表す関数は、特定タイ
    プのマクロブロックに連結要素の個数と、イメージ内で
    の特定タイプのマクロブロックの個数とが入力される
    と、前記入力された連結要素の個数を前記入力されたイ
    メージ内での特定タイプのマクロブロックの個数に除算
    した値により決定されることを特徴とする請求項1、
    7、10中の何れか一項に記載のMPEG圧縮ビデオ環
    境でのディゾルブ/フェード検出方法。
  14. 【請求項14】 前記順方向の予測マクロブロックと、
    逆方向の予測マクロブロックとが空間ドメインに大域的
    に発生するように誘導する関数は、二つのタイプのマク
    ロブロックがイメージタイプのマクロブロックのイメー
    ジに大域的に発生することが分かる関数(空間分布関
    数)であって、前記二つのタイプのマクロブロックが大
    域的に分散されるほど、高い値を有し、前記関数値がマ
    クロブロックの空間分布に対する限界値を超える場合
    は、該当Bフレームが「ディゾルブ/フェード区間での
    Bフレームマクロブロックタイプ特性」を満足すること
    を特徴とする請求項1、7、10、12中の何れか一項
    に記載のMPEG圧縮ビデオ環境でのディゾルブ/フェ
    ード検出方法。
  15. 【請求項15】 前記空間分布関数は、順方向、逆方向
    マクロブロックの中で個数が少ないタイプを選択して入
    力とするか、又は、前記順方向、逆方向マクロブロック
    中、個数が多いタイプを選択して入力とすることを特徴
    とする請求項1、7、10、12中の何れか一項に記載
    のMPEG圧縮ビデオ環境でのディゾルブ/フェード検
    出方法。
  16. 【請求項16】 前記検出されたディゾルブ/フェード
    候補区間での最初シーンのカラー変化度が特定限界値よ
    り低い場合は、フェードインと判断し、最終シーンのカ
    ラー変化度がフェードイン/アウトを決定するための限
    界値よりも低い場合は、フェードアウトと判断し、前記
    両方とも属しない場合は、ディゾルブと判断することを
    特徴とする請求項1に記載のMPEG圧縮ビデオ環境で
    のディゾルブ/フェード検出方法。
  17. 【請求項17】 前記カラー変化度は、イメージ内のピ
    クセルがある程度多様なカラーとして構成されているか
    どうかを基準とするが、前記画面の明るさは、イメージ
    内のサンプリングされたピクセルがある程度多様なカラ
    ーに構成されているかどうかを基準とすることを特徴と
    する請求項1又は16に記載のMPEG圧縮ビデオ環境
    でのディゾルブ/フェード検出方法。
JP2001063035A 2000-03-07 2001-03-07 Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法 Expired - Fee Related JP3656036B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR11334/2000 2000-03-07
KR1020000011334A KR20010087552A (ko) 2000-03-07 2000-03-07 엠펙(mpeg)압축 비디오 환경에서 매크로 블록의시공간상의 분포를 이용한 디졸브/페이드 검출 방법

Publications (2)

Publication Number Publication Date
JP2001285712A true JP2001285712A (ja) 2001-10-12
JP3656036B2 JP3656036B2 (ja) 2005-06-02

Family

ID=36371710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001063035A Expired - Fee Related JP3656036B2 (ja) 2000-03-07 2001-03-07 Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法

Country Status (5)

Country Link
US (1) US6940910B2 (ja)
EP (1) EP1132812B1 (ja)
JP (1) JP3656036B2 (ja)
KR (1) KR20010087552A (ja)
DE (1) DE60119012T2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301425A (ja) * 2007-06-04 2008-12-11 Nippon Hoso Kyokai <Nhk> ディゾルブ検出装置及びプログラム
JP2010517469A (ja) * 2007-01-31 2010-05-20 トムソン ライセンシング 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置
JP2015530034A (ja) * 2012-08-23 2015-10-08 トムソン ライセンシングThomson Licensing ビデオ・ビットストリーム内の徐々に変化するトランジションを示すピクチャを検出する方法および装置
JP2015536094A (ja) * 2012-10-01 2015-12-17 マイクロソフト テクノロジー ライセンシング,エルエルシー ビデオシーン検出
US9307240B2 (en) 2011-08-29 2016-04-05 Ntt Electronics Corporation Fade type determination device

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6735253B1 (en) * 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US7143434B1 (en) 1998-11-06 2006-11-28 Seungyup Paek Video description system and method
US7339992B2 (en) 2001-12-06 2008-03-04 The Trustees Of Columbia University In The City Of New York System and method for extracting text captions from video and generating video summaries
FI114433B (fi) * 2002-01-23 2004-10-15 Nokia Corp Otossiirtymän koodaaminen videokoodauksessa
KR100631768B1 (ko) 2004-04-14 2006-10-09 삼성전자주식회사 비디오 코딩에서 프레임간 예측방법 및 비디오 인코더와,비디오 디코딩방법 및 비디오 디코더
US7650031B2 (en) * 2004-11-23 2010-01-19 Microsoft Corporation Method and system for detecting black frames in a sequence of frames
WO2006096612A2 (en) 2005-03-04 2006-09-14 The Trustees Of Columbia University In The City Of New York System and method for motion estimation and mode decision for low-complexity h.264 decoder
FR2887731A1 (fr) * 2005-06-23 2006-12-29 Nextream France Sa Methode et dispositif de detection de fondus dans une sequence d'images
EP1914994A1 (en) * 2006-10-17 2008-04-23 Mitsubishi Electric Information Technology Centre Europe B.V. Detection of gradual transitions in video sequences
JP5190469B2 (ja) * 2007-01-26 2013-04-24 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 画像における境界領域処理
DE102007028175A1 (de) * 2007-06-20 2009-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatisiertes Verfahren zur zeitlichen Segmentierung eines Videos in Szenen unter Berücksichtigung verschiedener Typen von Übergängen zwischen Bildfolgen
TWI393114B (zh) * 2007-09-05 2013-04-11 Htc Corp 在作業系統切換時逐步調整螢幕亮度的方法
US9131213B2 (en) * 2007-09-07 2015-09-08 Evertz Microsystems Ltd. Method of generating a blockiness indicator for a video signal
JP2009077105A (ja) * 2007-09-20 2009-04-09 Sony Corp 編集装置および編集方法、プログラム、並びに記録媒体
WO2009126785A2 (en) 2008-04-10 2009-10-15 The Trustees Of Columbia University In The City Of New York Systems and methods for image archaeology
WO2009155281A1 (en) 2008-06-17 2009-12-23 The Trustees Of Columbia University In The City Of New York System and method for dynamically and interactively searching media data
JP5774995B2 (ja) 2008-11-13 2015-09-09 トムソン ライセンシングThomson Licensing Gopマージおよびビット割付けを用いたマルチスレッド・ビデオ符号化
US8671069B2 (en) 2008-12-22 2014-03-11 The Trustees Of Columbia University, In The City Of New York Rapid image annotation via brain state decoding and visual pattern mining
US8135222B2 (en) * 2009-08-20 2012-03-13 Xerox Corporation Generation of video content from image sets
CN104798363A (zh) * 2012-08-23 2015-07-22 汤姆逊许可公司 检测视频比特流中渐变画面的方法和装置
US9813706B1 (en) * 2013-12-02 2017-11-07 Google Inc. Video content analysis and/or processing using encoding logs
CN108176052B (zh) * 2018-01-31 2021-05-25 网易(杭州)网络有限公司 模型建造的模拟方法、装置、存储介质、处理器及终端
US10834458B2 (en) * 2019-03-29 2020-11-10 International Business Machines Corporation Automated video detection and correction

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214210A (ja) * 1993-12-17 1996-08-20 Nippon Telegr & Teleph Corp <Ntt> 映像カット点検出方法及び装置
JPH118854A (ja) * 1996-04-30 1999-01-12 Nippon Telegr & Teleph Corp <Ntt> カット点検出方法及び装置
WO1999032993A1 (en) * 1997-12-19 1999-07-01 Sharp Kabushiki Kaisha Method for hierarchical summarization and browsing of digital video
JPH11191862A (ja) * 1997-08-06 1999-07-13 General Instr Corp デジタルビデオ用フェード検出器
JP2000217117A (ja) * 1999-01-14 2000-08-04 Mitsubishi Electric Inf Technol Center America Inc 圧縮形式でのデジタル画像表現ビデオデ―タの処理方法
JP2000261810A (ja) * 1999-03-08 2000-09-22 Pioneer Electronic Corp フェード検出装置及び情報符号化装置
JP2001078196A (ja) * 1999-09-03 2001-03-23 Nec Corp 動画像符号化方法及び動画像符号化装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69527457T2 (de) 1994-03-31 2003-01-23 Siemens Corp Res Inc Feststellung von Szenenwechseln in kodierten Videosequenzen
EP0780844A3 (en) 1995-12-21 2002-03-20 Siemens Corporate Research, Inc. Cut browsing and editing apparatus
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
US6061471A (en) * 1996-06-07 2000-05-09 Electronic Data Systems Corporation Method and system for detecting uniform images in video signal
US5959697A (en) * 1996-06-07 1999-09-28 Electronic Data Systems Corporation Method and system for detecting dissolve transitions in a video signal
US6195458B1 (en) * 1997-07-29 2001-02-27 Eastman Kodak Company Method for content-based temporal segmentation of video
US6459459B1 (en) * 1998-01-07 2002-10-01 Sharp Laboratories Of America, Inc. Method for detecting transitions in sampled digital video sequences
US6278446B1 (en) 1998-02-23 2001-08-21 Siemens Corporate Research, Inc. System for interactive organization and browsing of video
US6393054B1 (en) * 1998-04-20 2002-05-21 Hewlett-Packard Company System and method for automatically detecting shot boundary and key frame from a compressed video data
US6721454B1 (en) * 1998-10-09 2004-04-13 Sharp Laboratories Of America, Inc. Method for automatic extraction of semantically significant events from video

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08214210A (ja) * 1993-12-17 1996-08-20 Nippon Telegr & Teleph Corp <Ntt> 映像カット点検出方法及び装置
JPH118854A (ja) * 1996-04-30 1999-01-12 Nippon Telegr & Teleph Corp <Ntt> カット点検出方法及び装置
JPH11191862A (ja) * 1997-08-06 1999-07-13 General Instr Corp デジタルビデオ用フェード検出器
WO1999032993A1 (en) * 1997-12-19 1999-07-01 Sharp Kabushiki Kaisha Method for hierarchical summarization and browsing of digital video
JP2000217117A (ja) * 1999-01-14 2000-08-04 Mitsubishi Electric Inf Technol Center America Inc 圧縮形式でのデジタル画像表現ビデオデ―タの処理方法
JP2000261810A (ja) * 1999-03-08 2000-09-22 Pioneer Electronic Corp フェード検出装置及び情報符号化装置
JP2001078196A (ja) * 1999-09-03 2001-03-23 Nec Corp 動画像符号化方法及び動画像符号化装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010517469A (ja) * 2007-01-31 2010-05-20 トムソン ライセンシング 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置
JP2015149084A (ja) * 2007-01-31 2015-08-20 トムソン ライセンシングThomson Licensing 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置
JP2008301425A (ja) * 2007-06-04 2008-12-11 Nippon Hoso Kyokai <Nhk> ディゾルブ検出装置及びプログラム
US9307240B2 (en) 2011-08-29 2016-04-05 Ntt Electronics Corporation Fade type determination device
JP2015530034A (ja) * 2012-08-23 2015-10-08 トムソン ライセンシングThomson Licensing ビデオ・ビットストリーム内の徐々に変化するトランジションを示すピクチャを検出する方法および装置
US9723309B2 (en) 2012-08-23 2017-08-01 Thomson Licensing Method and apparatus for detecting gradual transition picture in video bitstream
JP2015536094A (ja) * 2012-10-01 2015-12-17 マイクロソフト テクノロジー ライセンシング,エルエルシー ビデオシーン検出

Also Published As

Publication number Publication date
EP1132812A1 (en) 2001-09-12
KR20010087552A (ko) 2001-09-21
US6940910B2 (en) 2005-09-06
EP1132812B1 (en) 2006-04-26
US20010021267A1 (en) 2001-09-13
JP3656036B2 (ja) 2005-06-02
DE60119012D1 (de) 2006-06-01
DE60119012T2 (de) 2006-10-12

Similar Documents

Publication Publication Date Title
JP3656036B2 (ja) Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法
US7027509B2 (en) Hierarchical hybrid shot change detection method for MPEG-compressed video
JP4666784B2 (ja) ビデオシーケンスのキーフレーム抽出方法及びビデオシーケンスのキーフレーム抽出装置
JP3719933B2 (ja) 階層的ディジタル動画要約及び閲覧方法、並びにその装置
US7469010B2 (en) Extracting key frames from a video sequence
US8036263B2 (en) Selecting key frames from video frames
US8059936B2 (en) Video importance rating based on compressed domain video features
KR100468967B1 (ko) 썸네일 영상 생성장치 및 방법
JP2000224590A (ja) ビデオシ―ケンスの特徴抽出方法
JP2006510072A (ja) 一様なカラーセグメントを検出するための方法及びシステム
JP2001526859A (ja) ワールドワイドウェブ上の圧縮映像の指示及び編集方法及びアーキテクチュア
EP1053635B1 (en) Method for detecting transitions in sampled digital video sequences
US8363726B2 (en) Electronic apparatus, motion vector detecting method, and program therefor
Sugano et al. A fast scene change detection on MPEG coding parameter domain
De Bruyne et al. A compressed-domain approach for shot boundary detection on H. 264/AVC bit streams
Smeaton et al. An evaluation of alternative techniques for automatic detection of shot boundaries in digital video
JP2869398B2 (ja) カット点検出方法及び装置
JP4225503B2 (ja) 動画像のカット点検出装置
JPH10112863A (ja) 動き被写体情報抽出方法及び装置
KR20020040503A (ko) 동영상 비디오 스트림의 장면전환 검출방법
AU762791B2 (en) Extracting key frames from a video sequence
JP3333956B2 (ja) カット点検出方法および装置
Zhao et al. A MPEG video structure analysis scheme and its application to hierarchical video browser

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20040616

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20040621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050307

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees