JP2002232840A - 動画要約方法 - Google Patents
動画要約方法Info
- Publication number
- JP2002232840A JP2002232840A JP2001328320A JP2001328320A JP2002232840A JP 2002232840 A JP2002232840 A JP 2002232840A JP 2001328320 A JP2001328320 A JP 2001328320A JP 2001328320 A JP2001328320 A JP 2001328320A JP 2002232840 A JP2002232840 A JP 2002232840A
- Authority
- JP
- Japan
- Prior art keywords
- slow motion
- block
- commercial
- playback
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
- G06F16/745—Browsing; Visualisation therefor the internal structure of a single video sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/786—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
することが可能な動画要約方法を提供する。 【解決手段】 動画の特徴を抽出する特徴抽出器40
と、特徴をインテグレートし境界を決定するための隠れ
マルコフモデルなどのモデルを使用する確率モデル42
と、コマーシャル及び非コマーシャルスローモーション
再生セグメントを区別するコマーシャル/非コマーシャ
ルフィルタ44と、検出したスローモーション再生セグ
メントに基づき要約を生成する要約生成器46とを含
む。特徴抽出器40はブロック50でカラーヒストグラ
ムから特徴を抽出し、ブロック52で画素に基づく差か
ら3つの特徴を抽出する。ブロック52で抽出した特徴
は、再生セグメントのスローモーション,静止フィール
ド,及び/又はノーマル速度再生の各構成成分を特徴づ
ける。ブロック50で抽出した特徴は編集効果成分を特
徴付ける。
Description
し、より詳細には、動画シーケンスにおける意味的に重
要なイベントを検出することにより動画を要約する動画
要約方法に関する。
的に増大してきた。この傾向は、パーソナルコンピュー
タとディジタルテレビジョンが普及するにつれて、今後
とも引き続いて促進されると期待されている。ユーザに
とっての情報価値を高めるためには、ユーザが入手可能
な動画情報をナビゲートし、関連するコンテンツを見付
け出すのを支援するツールが必要である。“消費者”で
あるユーザにとって、かようなツールは、理解し易く使
い易いものであり、確実に予測できる挙動を提供できる
ものでなければならない。
索引(インデクシング)及び検索システムには3つのカ
テゴリがある。第1のカテゴリは、動画の構文解析を目
的とする方法を含んでいる。このカテゴリは、ショット
境界の検出,キーフレームの抽出,ショットのクラスタ
リング,コンテンツ作成テーブル,動画の要約及び動画
のスキミングの各方法を含んでいる。これらの方法は、
一般に計算量もさほど多くはなく、比較的確実な結果が
得られる。しかしながら、これらの方法は、動画コンテ
ンツの意味のモデル化や評価を試みないので、得られた
結果は意味的な(セマンテックな)関係をもたない。そ
の結果として、このシステムでの動画の探索(サーチ)
又は閲覧(ブラウジング)は、特定の興味を持つ動画コ
ンテンツを探しているユーザには苛立ちを与えることが
ある。
は、ニュース,スポーツ,アクション映画,クローズア
ップ又は群集等のカテゴリに動画シーケンスを分類する
ことを試みる。これらの分類は、粗いレベルでの動画シ
ーケンスの閲覧を容易にするが、ユーザが関心をもつコ
ンテンツを見付け出す助けにはならない。ユーザは、し
ばしば、オブジェクト,アクション又はイベントを記述
するキーワードのような正確な意味を持つラベルの形式
で探索オブジェクトを表現する。ユーザが関心をもつコ
ンテンツを見つけ出すのをより有効に支援するには、多
くの分類システムで可能なレベルよりさらに細いレベル
で動画コンテンツを分析することが望まれる。
は、コンテンツに関する規則を、特定の動画ドメイン
(定義域)又はコンテンツのサブジェクトエリア(対象
領域)の特徴に適用する。例えば、アメフト,サッカ
ー,野球及びバスケットのゲームにおけるイベント(事
象)の検出方法が提案されている。これらの方法により
検出された事象は、おそらく意味的にユーザに関連する
が、しかし、これらの方法は、放送番組におけるパター
ンの編集のような特定のドメインに関連する特定のアー
チファクトに多大に依存する。このために、これらの方
法を、種々多様なドメインからより一般的な動画分析に
展開させることを困難にしている。
き実状に鑑みてなされたものであり、動画中の意味的に
重要なイベントを確実に検出することが可能な動画要約
方法、さらにはこの動画要約方法を用いた動画分析のた
めの一般的システムを提供することをその目的とする。
ーモーション再生を含む動画の要約方法において、
(a)前記スローモーション再生用の前記動画を分析す
ることと、(b)前記分析に基づき前記動画を要約する
こととを含んで成ることを特徴としたものである。
検討すると、重要な事象は、続けてスローモーションで
再現されることが多い。スローモーション再生は、通
常、そのスポーツの試合に関して全体的な知識を持つ放
送プロデューサの決定に基づき、動画コンテンツに挿入
される。従って、動画のコンテンツにスローモーション
での再生があると、放映中のスポーツゲーム中に発生し
た重要又は興味深い事象を強力に表現することができ
る。このスローモーションの再生は、通常、原事象の該
当部分より長い時間にわたる事象の再生である。
合させたシステムを設計する試みとは異なり、スローモ
ーションの再生を用いることは、本質的に十分汎用的で
あり、従って、殆どのスポーツに応用可能であり、事
実、他の任意形式の動画プログラミングに適用可能であ
る。従って、スローモーション再生を実際に検出するよ
うにシステムを設計できれば、スローモーション再生
は、動画の意味的に重要な事象及びそれに続く動画コン
テンツの要約の代表として表示又は使用することができ
る。さらに、そのシステムは、特定スポーツの性質に関
する特別な仮定条件に拘束されないように設計すべきで
ある。スローモーション再生セグメントから得られる情
報は、事象検出と動画ハイライトの生成における一般的
な手がかり(合図)として使用でき、又は、独立情報又
は他の形式の情報と組み合わせて使用できる。
は、例えば、動画コンテンツのプロバイダ又は動画コン
テンツの消費者の何れの側でも、個人的な好み,使用条
件及びシステム資源に対する要求条件に従って期間が変
化する事象のハイライト(又は他の形式)を提供するた
めに利用できる。プロバイダは、例えば、複数のスポー
ツイベントのハイライトを、異なる時間長さで消費者に
提供することができる。
に、動画シーケンスのスローモーションセグメントを検
出する。これは、スローモーションセグメントを単に動
画のコンテンツをスポーツ又は非スポーツに分類するの
に用いる現存のシステムとは対照的である。さらに、現
存システムは、スローモーション再生セグメントの境界
位置を正確に特定するための解決策を提供していない。
本発明では、スローモーション再生セグメントと動画ス
トリーム中の境界の位置をより正確に特定するシステム
を提供する。
ョン再生セグメントを含む動画ストリームの統計モデル
の使用を含んでいる。当分野において“Hidden
Markov Model(隠れマルコフモデル)”と
して公知の統計モデルを使用することにより、スローモ
ーション再生セグメントの検出においては、現存システ
ムに比べてかなりの利点を有している。第1に、この統
計モデルは、1つの状態から次の状態への推移と同様に
動画ストリームの“状態”により特徴付けられるフレキ
シブルなフレームワークである。状態は、観測可能な特
性により表示され、動画データから直接測定できる。ス
ローモーション再生部分を記述する状態は、特定用途の
必要に応じて柔軟に統計モデルに付加することができ
る。この好適なシステムは、容易に測定でき計算量も少
ない1組の動画特性を利用する。
ョンの再生セグメントを含む動画ストリームを正確にモ
デル化できるように、実際の動画データで訓練される。
現存システムは、スローモーションを許容しない。
リーム内のイベントにモデルの状態をマッチングするこ
とにより、スローモーション再生セグメントの境界(始
点と終点)を発見する効率のよい統計的に最適な技法を
可能にする。さらに、このフレームワークは、動画デー
タから測定された特定の観測可能な特性を柔軟に付加又
は除去することを可能にする。現存システムでは、固定
された測定値のセットだけが、スローモーションセグメ
ントの存在を検出するのに用いられる。これと対照的
に、本発明のシステムの好適な実施態様は、新しい測定
値を統計モデルに付加することができ、検出性能を大幅
に強化できる。このシステムはオーディオビジュアルス
トリームの動画データからの測定値のみを使用するが、
本発明のシステムは、動画データの使用だけに限定され
るものではない。オーディオデータのような他の測定値
もこのシステムに含むことができると理解すべきであ
る。
ーム部分であるスローモーション再生セグメントを動画
資料中に周期的に挿入されたコマーシャル部分から区別
する新規の方法を含んでいる。しかしながら、全体とし
てのシステムは、例えばコマーシャルの現存検出技法の
ような、スローモーション再生検出結果からコマーシャ
ルを区別するか又は除去する他の技法も利用できると理
解すべきである。
ーモーション再生セグメントとその境界位置とが与えら
れることにより、動画の要約を生成する幾つかの技法を
記述する。そして動画要約が問題となっているスポーツ
ゲームに関する知識に基づくと考えられる場合でも同様
に動画の要約を生成する幾つかの技法を記述する。ここ
での説明は、全体としては、スポーツのシーケンスを記
述するが、ここに記述する技法は、他の動画コンテンツ
にも適用できると理解すべきである。
パターンを示す図である。動画分析メカニズムについて
議論する前に、スポーツ動画中のスローモーション再生
パターンを最初に紹介するのが有効であろう。スポーツ
番組中のスローモーション再生パターンは、一般にブロ
ック10に示すアクションショットと称する、オブジェ
クト(人物,ボール等)の非常に早い動きを含んでい
る。アクションショット10の後には、ブロック12に
示す他のショットすなわち動画コンテンツが続き、さら
に、ブロック14に示すスローモーション再生が続く。
特殊効果或いはブロック16に示す編集効果は、殆どの
場合、ブロック12のノーマルショットとブロック18
のスローモーション再生セグメントの間に表示される。
ブロック18のスローモーション再生の後には、通常、
ブロック20に示す他の編集効果がノーマル再生に先立
ち表示される。スローモーション再生14に続き、スポ
ーツイベントの継続のような他のショットをブロック2
2で表示する。
例を示す図である。通常、スローモーション再生手順
は、6つの構成成分、即ち、編集効果入力23,静止フ
ィールド25,スローモーション再生24,ノーマル再
生26,静止フィールド28,編集効果出力30を含ん
でなる。
スローモーション再生14の始点と終点をマークし、通
常、フェードイン/アウト,クロス/付加−ディゾル
ブ,ワイプのような段階的に推移する。テレビ局のロゴ
が編集効果入力23と編集効果出力30の期間に頻繁に
表示される。他の技法も同様に用いることができる。
の技法、即ち、ノーマル速度(NTSCの場合60フィ
ールド/秒)で記録したクリップ内フィールドの幾つか
を置き換えるか、又は、高速スーパーモーションカメラ
で高速(NTSCの場合180フィールド/秒)記録し
たクリップを60フィールド/秒の速度で表示すること
により達成する。他の技法も同様に用いることができ
る。
ション再生セグメントの始点と終点に用いることがあ
る。スローモーション再生セグメント期間中、動画プレ
イ速度は、ノーマル速度プレイ26が時々用いられるの
で、常にノーマル速度より遅いわけではない。
常、編集効果入力23、スローモーション再生24及び
編集効果出力30は、スローモーション再生14に含ま
れていることが判明した。他の3つの要素は、望むなら
ば、頻繁に使用しなくてもよく、任意の動画シーケンス
内に存在していればよい。従って、スローモーション再
生の特徴は略無限の可能な組合せを有する。図3は、ス
ローモーション再生セグメントの1例を示している。こ
の例では、編集効果入力23,静止フィールド25,ス
ローモーション再生24,ノーマル再生26,スローモ
ーション再生24,静止フィールド28,編集効果出力
30の順に並んだスローモーション再生を示している。
を検討して、コマーシャルが頻繁にスローモーション再
生セグメントを用いていることが判明した。かように、
粗い動画要約システムの場合、スポーツのような動画の
スローモーション再生セグメントをコマーシャル内のス
ローモーション再生セグメントと区別することが望まし
い。
説明するための図である。このシステムは、4つの基本
部分、即ち、特徴抽出器40と、特徴をインテグレート
し境界を決定するための隠れマルコフモデル(又は他の
モデル)を使用する確率モデル42と、コマーシャル及
び非コマーシャルスローモーション再生セグメントを区
別するコマーシャル/非コマーシャルフィルタ44と、
検出したスローモーション再生セグメントに基づき要約
を生成する要約生成器46とを含んでいる。
ストグラム(ブロック50)から特徴を抽出し、ブロッ
ク52において画素に基づく差から3つの特徴を抽出す
るように設計されている。この画素に基づく技法は、分
析適応コンテンツにおいて柔軟性を有する。さらに、こ
のシステムは、好ましくは、MPEG−2動画ストリー
ム中で通常発見される動きベクトルを使用しない。他の
特徴抽出技法も同様に使用できる。ブロック52で抽出
した特徴は、再生セグメントのスローモーション,静止
フィールド,及び/又はノーマル速度再生の各構成成分
を特徴づける。ブロック52により用いられる好適な技
法は、2つの連続フィールドにおける画素に関する差の
計算である。任意の他のフィールドセットを望むならば
使用してよい。ブロック50で抽出した特徴は、編集効
果成分を特徴付け、好ましくは、各フィールドのRGB
カラーヒストグラムに基づき決定される。
するための図である。図4のブロック52で抽出された
3つの特徴は、スライディングウィンドウ内のゼロクロ
ス(ゼロ交差)数(ブロック54)と、スライディング
ウィンドウ内の最低値(ブロック56)と、画素毎の差
の導関数(ブロック58)によって特徴付けることがで
きる。ゼロ交差(ブロック54)とスライディングウィ
ンドウ内の最低値(ブロック56)は、フィールド反復
の検出を目的とし、画素毎の差の導関数(ブロック5
8)は、静止フィールドの検出を目的とする。要約すれ
ば、ブロック60で2つの連続フィールド間の画素毎の
差を計算し、ブロック62で時間軸に沿ってスライディ
ングウィンドウを生成し、ブロック64,66,54で
スライディングウィンドウ内のゼロ交差を計算し、ブロ
ック56でスライディングウィンドウ内の最低値を計算
し、ブロック58で画素毎の差の導関数を計算する。
好適な技法について次に説明する。勿論、他の画素毎の
差の計算技法も望むならば同様に使用できる。ブロック
60では、2つの連続するフィールド間の画素毎の差を
計算する。計算式は次の通りである。 D(t)=f(img(n,m,t),img(n,
m,t−1))
あり、式中のf(x)は2つの画像間の画素毎の差を計
算する一般関数であり、img(n,m,t)は座標
(n,m),時間tにおける画素情報を示す。2つの画
像間の差を記述する任意の関数を望むならば使用でき
る。画素毎の差を計算するための特定の興味をもつ2つ
の関数は、平均p次輝度差と相互情報輝度差を含んでい
る。
述できる。
及び時間tにおける輝度の強さ、pは次数、N及びMは
各々垂直解像度及び水平解像度である。このシステム
は、複数のディスタンス(距離とする)(例えば3つの
距離)を計算し、所望の1つ(例えば、最低値)を選択
できることに留意すべきである。スローモーション再生
をフィールドの反復より生成させる場合、奇数フィール
ド及び偶数フィールド間の1ライン差を補償するために
殆どのスローモーション装置は反復フィールドを原位置
より1ライン上方又は下方に移動させるので、最低値を
選択するのが好ましい。理想的には、システムが3つの
差を計算しなくて済むようにこの移動を予測できること
である。しかしながら、多くのシステムは、予測パター
ン通りにはならない。従って、3つの差を計算し、最低
値を選択するのが好ましい。
(n,m,t-1)),MI(I(n-1,m,t),I(n,m,t-1)))
毎の相互情報差である。システムは、再び、複数(例え
ば3つの)相互情報を計算し、その内の1つ(例えば最
低値)を選択する。前述の計算式は、差を計算するため
に輝度情報のみを使用するが、カラー情報又は他の情報
も、望むならば、同様に用いてよい。
p=1及びp=2)は、有意の差を示さなかった。
の画素毎の輝度平均平方差(p=2)を示す図で、図6
(a),(b)はそれぞれ、フィールド反復(NBAの
バスケットボール),スーパーモーションVTR(サッ
カー)により生成した2種類のスローモーションの2つ
の画素毎の輝度平均平方差(p=2)を示している。激
しい変動は、スローモーションの再生が発生している期
間を示している。
前フィールドを反復する時は2つのフィールド間の差は
小さく、現フィールドが前フィールドを反復しない時は
2つのフィールド間の差は大きい。小−大−小の変化に
より、激しい変動が発生する。スーパーモーションVT
R法の場合、VTRは常に180フィールド/秒の固定
速度で作動しており、スローモーションはしばしば、正
確にこの速度の3分の1ではないので、幾つかのフィー
ルドは表示期間中に反復又は脱落する。フィールドの反
復と脱落は、時間軸に沿った画素毎の差の変動として現
れる。しかしながら、フィールド反復法の場合の変動
は、スーパーモーションVTR法の場合の変動よりもか
なり大きい。
毎回Fフィールド前進する“スライディングウィンド
ウ”を生成する。実際に、ブロック62では、処理のた
めに1組のフィールドを選択する。望むならば、任意セ
ットのフィールド,フレーム又は逐次又は非逐次のフィ
ールド,フレームを選択してよい。
ディングウィンドウ内のフィールドの統計値を計算す
る。好ましくは、この統計値は、次式で計算できる差の
平均値である。
ドウ毎にゼロ交差数を計算する。通常のゼロ交差は次の
ように計数する。
ができるが、従来技法は振幅情報を無視しており、これ
は、小さな変動が大きな変動と同じ結果を生じることを
意味することが判明した。従って、本発明による修正ゼ
ロ交差計数技法は振幅情報を含んでいる。この新しい技
法例は、次の通りである。
値である。従来の技法とこの修正振幅感知技法を比較す
る。追加のパラメータ閾値θiが導入される。閾値θiが
大きければ大きいほど、ゼロ交差は少ない。図7にこの
差を示しており、図7(a),(b)はそれぞれ、ゼロ
交差の従来の定義,ゼロ交差の修正された定義を説明す
るための図である。図7(a)における従来の定義では
4個のゼロ交差が存在するが、図7(b)における修正
された定義では閾値θ1に対する1個のゼロ交差と閾値
θ2に対する0個のゼロ交差が存在することとなる。勿
論、静的又は動的なこの閾値に任意の値を用いることが
できる。
づきpzc(t,b)により規定することができる。最初
に、W昇順閾値を定義することができる。昇順閾値の例
を、以下の12個の閾値表(W=12)に示す。
S−1から選択した他の閾値である。
ィングウィンドウ内の連続するフィールドの画素毎の差
の最低値を定義することができる。le(t)は次式で
定義できる。 le(t)=min(D(t),D(t−1),…,D
(t−S+1))
毎の差の導関数dr(t)を次式で定義できる。 dr(t)=D(t)−D(t−1)
は、段階的推移の検出のような任意の推移を検出でき
る。この好適な技法では、最初に2つのカラーヒストグ
ラム間の距離を次のように定義する。
HB(I,t)は各々、時間tにおけるフィールドの赤
色,緑色,青色のヒストグラムである。動画進化率(vi
deo-evolution ratio:VER)は、さらに次のように
定義できる。
グメントの構造はかなり複雑であることが認められる。
6つの異なる成分が存在し、これらの成分は、多数の組
み合わせを生み出すことができる。効率のよい高レベル
のフレームワークは、複雑さをモデル化するのに有効で
ある。特に、この好適なシステムは、隠れマルコフモデ
ル(HMM)をフレームワークとして用いて、特徴抽出
器からの4つの特徴をインテグレートし、境界を検出
し、スローモーション再生セグメントの全ての候補につ
いて確率を計算する。
る。隠れ状態を導入することにより、HMMは非定常シ
グナルをモデル化する能力を有し、時間ワーピング能力
を有する。HMMの理論は、よきトレーニングアルゴリ
ズムとインターフェイスアルゴリズムを提供する。トレ
ーニングアルゴリズムは、期待値最大化(EM)アルゴ
リズムであってよく、局所最小値への収斂を保証するこ
とができる。インターフェイスアルゴリズムは、ビタビ
アルゴリズムであってよく、観測シーケンスの大局的に
最適な隠れ状態を保証することができる。さらに、両ア
ルゴリズムは、計算処理も効率的である。
Mによって有効にモデル化できる。このシステムは、1
つのセグメント内の6つの可能な成分をHMMの隠れ状
態にマッピングすることができる。さらに、オーディオ
特徴のような新しい特徴をHMMに容易に付け加えるこ
とができる。
HMMを使用することは、簡単ではない。HMMは、元
来、パターン認識/分類のために開発されたものであ
り、パターン検出のために開発されたものではない。H
MMは、HMMがモデル化するクラスにシーケンスが属
する確率を計算するのは得意である。HMMを用いて長
い入力シーケンスに隠されたパターンの始点と終点を検
出するのは難しい。1つの簡単な解決策は、別の方法を
用いて始点と終点の全候補を検出し、HMMを用いてH
MMが生み出した非常に低い確率を持つ候補を見つけ出
すことである。
MMにスローモーション再生の始点と終点(即ち境界)
を発見させる新しい技法を開発した。幾つかの候補を見
付け出す代わりに、新技法は、正規化+閾値技法を用い
て候補中の1点を見付け出し、次に、2つの前方及び後
方HMMを用いて、全てその1点より開始し、“境界”
隠れ状態を導入することにより境界を見付け出す。この
システムは、その1点より前方及び後方に例えば800
個のような複数の連続フィールドを、各々、前方及び後
方HMMへの入力シーケンスとして抽出する。後方への
シーケンスは、逆時系列である。全てのスローモーショ
ン再生は、通常20秒以内であるので、(フィールドレ
ートが毎秒60フィールドであり長さが1200フィー
ルドより短ければ)、800個の後方及び前方点は、各
々、始点と終点を含んでいなければならない。後方HM
M及び前方HMMは、同じパラメータと構造を共有し、
“ノーマル表示”段階を示す“境界”隠れ状態を有す
る。ビタビアルゴリズムを用いて最適な隠れ状態を計算
する場合は、特別な“境界”隠れ状態に達する最初のフ
ィールドが、後方シーケンスの始点であり、前方シーケ
ンスの終点である。
は、5つの構成部分、即ち、(1)プリプロセッシング
70,(2)1点検出72,(3)前方HMM74,
(4)後方HMM76,(5)ポストプロセッシング7
8を含んでいる。プリプロセッシング70は特徴をHM
Mの範囲に変換するために用いる。ポストプロセッシン
グ78は、幾つかの重複候補を結合するか又は候補に関
する2つのHMMによって生成された確率により幾つか
の候補をフィルタで除去するために用いられる。各構成
部分について順番に説明する。
つの特徴を、Vの離散レベルを持つ、HMMが使用でき
る範囲に変換する。ゼロ交差に基づく特徴は、すでにV
離散レベルのフォーマットになっている。しかしなが
ら、残りの3つの特徴は、連続フォーマットである。か
ように、線形量子化アルゴリズム又は非線形量子化アル
ゴリズムを用いて特徴をV離散レベルに量子化する。線
形量子化は全く単純であるが、非線形量子化アルゴリズ
ムはより良い結果をもたらす。非線形量子化アルゴリズ
ムは、LBGアルゴリズム又はSOMアルゴリズムのよ
うな任意ベクトル量子化アルゴリズム又は自己クラスタ
リングアルゴリズムであってよい。
フモデル)の始点を計算する技法を説明するための図で
ある。図8を参照して、可能なスローモーション再生候
補中の1点を検出する1点検出器の1例を説明する。1
点検出器では、まずzc(t)の最大値及び最小値を検
出する(80)。最大値が閾値より大きいかを判断し
(81)、大きくなければスローモーション再生が無い
こととなる(82)。逆に最大値が閾値より大きけれ
ば、zc(t)を最大値と最小値で0〜1に正規化する
(83)。次にzc(t)>0.8を満たす全ての間隔
(インターバル)を選択する(84)。そして全ての間
隔の中央値を見つけ(85)、各中央値の前方向及び後
方向の800個の点に対し、前方シーケンスと後方シー
ケンスを形成する(86)。
のように設計できる。観測シーケンスをO=(o1,o2
…,oT)と仮定する。ここでoT={le(t),dr
(t),zc(t),ver(t)}であり、時間tに
おけるVレベル離散観測ベクトルである。該当する隠れ
状態は、q=(q1,q2,…qT)である。観測確率は
次の通りである。
(t)|qi)p(ver(t)|qi) 連結確率は次式で与えられる。 p(O,q) = p(qi)p(q2|q1)…p(qT|qT-1)p(o1|q1)p(o2|q2)
…p(oT|qT)
メント中の構成部分とその関係をモデル化し、同時に境
界を検出するために、システムは、次のような4+1の
状態を用いることができる。即ち、 qt=0:フィールド反復, qt=1:ノーマル再生(ノーマルリプレイ), qt=2:静止フィールド, qt=3:編集効果, qt=4:ノーマルプレイの状態である。
初の4つは、スローモーションの再生セグメント中の4
つの構成部分、スローモーション、ノーマル速度再生、
静止フィールド、編集効果と各々正確に対応する。5番
目は、ビタビアルゴリズム実行後の境界の決定に用い
る。これは、図1の成分である他のショットに相当す
る。HMMの構成を図9に示す。図9において、90,
91,92,93,94はそれぞれフィールド反復,ノ
ーマル速度再生,静止フィールド,編集効果,ノーマル
プレイの状態を示し、円は隠れ状態を表わし、黒矩形は
観測を表わし、矢印は推移確率を表わし、線は観測確率
を表わしている。
の形状をとる。
74と後方HMM76で検出された境界を受け取る。図
10を参照してポストプロセッサの処理を説明する。H
MM74と76で計算された確率が閾値より小さければ
(95,YES)、境界は無効であり破棄される(9
6)。境界が他の候補により生成された境界と重複する
場合(97,YES)は、重複する境界の組を結合して
より大きい組を形成する(98)。
コマーシャルと非コマーシャルを区別する。例えば、テ
レビ放送においては普通であるが、スポーツ番組に含ま
れているコマーシャル内にもスローモーションのセグメ
ントが含まれている。かように、システムは、コマーシ
ャル中のスローモーションセグメント(“コマーシャル
スローモーション”と呼ぶ)と実際の番組中のスローモ
ーションセグメント(“非コマーシャルスローモーショ
ン”と呼ぶ)を区別しなければならない。2つのタイプ
のスローモーションを区別し、コマーシャルスローモー
ションをフィルタで除去するために、本発明は、コマー
シャル/非コマーシャルスローモーションフィルタを開
発した。
フィルタを説明するための図である。コマーシャル/非
コマーシャルスローモーションフィルタの好ましい構造
は、コマーシャル中の低モーションセグメントのカラー
ヒストグラムが、スポーツイベントのような残りの動画
中のセグメントのカラーヒストグラムとは異なっている
原理に基づいている。一方、ゲーム中の全てのセグメン
トは、同様なヒストグラムを有している。かように、シ
ステムがゲームのセグメントを基準として得れば、各ス
ローモーション再生セグメントのカラーヒストグラムの
距離を基準のカラーヒストグラムと比較することによ
り、コマーシャルスローモーション再生セグメントをフ
ィルタで除去できる。
メントを基準セグメントとして選択する。このシステム
は、コマーシャルが2分より短く、2つのコマーシャル
間の間隔が5分より長いという観測結果を利用する。こ
れにより、ここでは、任意のスローモーション再生の場
合に、スローモーションの2分前又は2分後の2つの位
置がスポーツゲームであると仮定する。システムをより
強健にするために、システムはこれらの2つの位置をス
ローモーションがコマーシャルであるか否かを決定する
ための基準として使用することができる。詳細には、シ
ステムは、これらの2つの位置における2つの2秒セグ
メント(2sクリップ)の平均カラーヒストグラムとス
ローモーション再生間の平均カラーヒストグラム差を計
算し、低い値を、このスローモーションとゲーム基準の
カラーヒストグラム間の差として選択する。すなわち、
コマーシャル/非コマーシャルフィルタ44は、図11
を参照すると、スローモーション再生前2分,再生後2
分の2sクリップをロードし(100,102)、それ
ぞれの平均カラーヒストグラムを計算し(103,10
5)、スローモーションクリップのロード(101)及
びその2sクリップ内の平均カラーヒストグラムの計算
(104)の結果との距離(distance)を計算
し(106,107)、その小さい方を選択して結果を
キューに加える(108)。この関係を図12に示す。
黒い矩形は、コマーシャル内のスローモーションを表わ
し、灰色の矩形はスポーツ番組中のスローモーションを
表わし、白い矩形は最初のコマーシャルスローモーショ
ン(最初の黒い矩形)に対する基準を示している。
計算後(109でYES)、システムは、距離値に基づ
いてコマーシャルか非コマーシャルかを決定する。この
アルゴリズムを図11の後半分に示す。1つの閾値を、
コマーシャル内にスローモーションがあるか否かを決定
するために使用できる。もし幾つかのスローモーション
があれば、システムは、自己クラスタリング技法を用い
て、全てのスローモーションを2つのカテゴリ、即ち、
コマーシャル又は非コマーシャルに分類する。図11に
示す技法は、より短い距離の最大誘導関数に基づいてい
る。基本原理は、コマーシャル内の距離は類似であり、
非コマーシャル内の距離も類似であるが、これら2つの
カテゴリ間の距離にはかなりのギャップが存在すること
である。図11を参照すると、まず昇順でキューをソー
トし(110)、閾値より大きいかを判断し(11
1)、小さければコマーシャル無しとなる(112)。
逆に閾値より大きければ、ソートされたキューの中の最
大ジャンプのインデックスIを検出し(113)、Iよ
り低いインデックスをもつスローモーション再生を非コ
マーシャルとし、それ以外をコマーシャルとする(11
4)。
は、スローモーション再生情報に基づき動画番組のハイ
ライト要約を生成することができる。作成されたハイラ
イトは、最短から最長までのハイライト範囲で詳細が変
化する複数レベルの要約を提供する。複数レベルの要約
は、例えば下記を含むことができる。
ト(非コマーシャル)の連鎖。結果として得られるハイ
ライトは、コマーシャルを含まない番組の簡潔な要約を
提供する。 2.拡張(非コマーシャル)スローモーションセグメン
トの連鎖。拡張は、各スローモーションセグメントの始
点と終点にt1及びt2秒を加えることにより実行され
る。 3.上記2項に記載した技法は、拡張時間間隔を該当ス
ローモーション再生セグメントの統計値の関数として選
択する。1つの実施態様において、t1値はスローモー
ション再生において記述されるイベントの実際の長さに
比例して設定される。比例係数kの値は、所望の要約の
長さによって決められる。しかしながら、この場合、k
が十分大きければ、前のスローモーションセグメントと
重なる可能性がある。かようなイベントを避けるため
に、チェック機構を導入し、k値を減少させる。
を示す図である。
る。
示す図である。
ための図である。
ある。
る。
始点を計算する技法を説明するための図である。
示す図である。
ある。
明するための図である。
中のスローモーション再生間の関係を示す図である。
ト、14…スローモーション再生、16,20…編集効
果、18…スローモーション、22…他のショット、2
4…スローモーション、26…ノーマル速度再生、28
…静止フィールド、30…編集効果/出力、40…特徴
抽出器、42…確率モデル、44…コマーシャル/非コ
マーシャルフィルタ、46…要約生成器、50…カラー
ヒストグラムからの特徴、52…画素に基づく差からの
3つの特性、70…プリプロセッシング、72…スロー
モーション再生中の1点の検出、74…前方境界検出用
HMM(隠れマルコフモデル)、76…後方境界検出用
HMM、78…ポストプロセッシング。
Claims (1)
- 【請求項1】 スローモーション再生を含む動画の要約
方法において、(a)前記スローモーション再生用の前
記動画を分析することと、(b)前記分析に基づき前記
動画を要約することとを含んで成ることを特徴とする動
画要約方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US24573300P | 2000-11-02 | 2000-11-02 | |
US09/823,437 US6931595B2 (en) | 2000-11-02 | 2001-03-30 | Method for automatic extraction of semantically significant events from video |
US09/823437 | 2001-03-30 | ||
US60/245733 | 2001-03-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002232840A true JP2002232840A (ja) | 2002-08-16 |
Family
ID=26937421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001328320A Pending JP2002232840A (ja) | 2000-11-02 | 2001-10-25 | 動画要約方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US6931595B2 (ja) |
EP (1) | EP1204034B1 (ja) |
JP (1) | JP2002232840A (ja) |
DE (1) | DE60138079D1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101275933B1 (ko) * | 2007-10-19 | 2013-06-14 | 퀄컴 인코포레이티드 | 모션 보조된 이미지 센서 구성 |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7904813B1 (en) * | 1998-12-28 | 2011-03-08 | Sony Corporation | Method for editing video information and editing device |
US8028314B1 (en) | 2000-05-26 | 2011-09-27 | Sharp Laboratories Of America, Inc. | Audiovisual information management system |
US8020183B2 (en) | 2000-09-14 | 2011-09-13 | Sharp Laboratories Of America, Inc. | Audiovisual management system |
US20030038796A1 (en) * | 2001-02-15 | 2003-02-27 | Van Beek Petrus J.L. | Segmentation metadata for audio-visual content |
US7904814B2 (en) | 2001-04-19 | 2011-03-08 | Sharp Laboratories Of America, Inc. | System for presenting audio-video content |
US7143354B2 (en) | 2001-06-04 | 2006-11-28 | Sharp Laboratories Of America, Inc. | Summarization of baseball video content |
US7499077B2 (en) * | 2001-06-04 | 2009-03-03 | Sharp Laboratories Of America, Inc. | Summarization of football video content |
US7203620B2 (en) * | 2001-07-03 | 2007-04-10 | Sharp Laboratories Of America, Inc. | Summarization of video content |
US7474698B2 (en) | 2001-10-19 | 2009-01-06 | Sharp Laboratories Of America, Inc. | Identification of replay segments |
KR100614371B1 (ko) * | 2001-12-22 | 2006-08-18 | 주식회사 휴맥스 | 디지털 방송 스트림의 변속재생 제어정보 기록방법과,그에 따른 디지털 방송수신기에서의 변속재생 제어방법 |
US7120873B2 (en) * | 2002-01-28 | 2006-10-10 | Sharp Laboratories Of America, Inc. | Summarization of sumo video content |
US7165024B2 (en) * | 2002-02-22 | 2007-01-16 | Nec Laboratories America, Inc. | Inferring hierarchical descriptions of a set of documents |
US8214741B2 (en) | 2002-03-19 | 2012-07-03 | Sharp Laboratories Of America, Inc. | Synchronization of video and data |
GB0215624D0 (en) * | 2002-07-05 | 2002-08-14 | Colthurst James R | Razor head |
US7657836B2 (en) * | 2002-07-25 | 2010-02-02 | Sharp Laboratories Of America, Inc. | Summarization of soccer video content |
AU2002368116A1 (en) * | 2002-07-26 | 2004-02-16 | Communications Research Laboratory, Independent Administrative Institution | Content summarizing apparatus and content summarizing program |
US7657907B2 (en) | 2002-09-30 | 2010-02-02 | Sharp Laboratories Of America, Inc. | Automatic user profiling |
JP4036328B2 (ja) * | 2002-09-30 | 2008-01-23 | 株式会社Kddi研究所 | 動画像データのシーン分類装置 |
US7676820B2 (en) * | 2003-01-06 | 2010-03-09 | Koninklijke Philips Electronics N.V. | Method and apparatus for similar video content hopping |
US8356317B2 (en) | 2004-03-04 | 2013-01-15 | Sharp Laboratories Of America, Inc. | Presence based technology |
US8949899B2 (en) | 2005-03-04 | 2015-02-03 | Sharp Laboratories Of America, Inc. | Collaborative recommendation system |
US7594245B2 (en) | 2004-03-04 | 2009-09-22 | Sharp Laboratories Of America, Inc. | Networked video devices |
US20080138029A1 (en) * | 2004-07-23 | 2008-06-12 | Changsheng Xu | System and Method For Replay Generation For Broadcast Video |
GB2421135A (en) | 2004-12-09 | 2006-06-14 | Sony Uk Ltd | User resizable video display of catalogue entries |
US7383254B2 (en) * | 2005-04-13 | 2008-06-03 | Microsoft Corporation | Method and system for identifying object information |
US8689253B2 (en) | 2006-03-03 | 2014-04-01 | Sharp Laboratories Of America, Inc. | Method and system for configuring media-playing sets |
EP1995961A4 (en) * | 2006-03-14 | 2012-08-15 | Sony Corp | IMAGE PROCESSING DEVICE AND METHOD |
US7921106B2 (en) * | 2006-08-03 | 2011-04-05 | Microsoft Corporation | Group-by attribute value in search results |
CN101542481A (zh) | 2006-11-14 | 2009-09-23 | 皇家飞利浦电子股份有限公司 | 用于检测慢动作的方法和设备 |
US20080269924A1 (en) * | 2007-04-30 | 2008-10-30 | Huang Chen-Hsiu | Method of summarizing sports video and apparatus thereof |
US8238719B2 (en) * | 2007-05-08 | 2012-08-07 | Cyberlink Corp. | Method for processing a sports video and apparatus thereof |
US8126262B2 (en) * | 2007-06-18 | 2012-02-28 | International Business Machines Corporation | Annotating video segments using feature rhythm models |
US8284258B1 (en) * | 2008-09-18 | 2012-10-09 | Grandeye, Ltd. | Unusual event detection in wide-angle video (based on moving object trajectories) |
US8289447B1 (en) * | 2009-07-14 | 2012-10-16 | Altera Corporation | Cadence detection for film mode de-interlacing |
US8821275B2 (en) * | 2010-09-24 | 2014-09-02 | Multimedia Games, Inc. | Wagering game, gaming machine, gaming system and method with slow motion replay |
US8923607B1 (en) * | 2010-12-08 | 2014-12-30 | Google Inc. | Learning sports highlights using event detection |
US9386358B2 (en) * | 2014-05-29 | 2016-07-05 | Echostar Technologies L.L.C. | Automatic identification of relevant video content through replays |
US10229324B2 (en) | 2015-12-24 | 2019-03-12 | Intel Corporation | Video summarization using semantic information |
US10303984B2 (en) | 2016-05-17 | 2019-05-28 | Intel Corporation | Visual search and retrieval using semantic information |
CN106961444A (zh) * | 2017-04-26 | 2017-07-18 | 广东亿荣电子商务有限公司 | 一种基于隐马尔可夫模型的恶意网络爬虫检测方法 |
CN108093297A (zh) * | 2017-12-29 | 2018-05-29 | 厦门大学 | 一种影片片段自动采集的方法及系统 |
WO2020123394A1 (en) * | 2018-12-09 | 2020-06-18 | Spot AI, Inc. | Systems and methods for distributed image processing |
WO2022239005A2 (en) * | 2021-05-12 | 2022-11-17 | W.S.C. Sports Technologies Ltd. | Automated tolerance-based matching of video streaming events with replays in a video |
CN114268746B (zh) * | 2021-12-20 | 2023-04-28 | 北京百度网讯科技有限公司 | 一种视频生成方法、装置、设备及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5521841A (en) * | 1994-03-31 | 1996-05-28 | Siemens Corporate Research, Inc. | Browsing contents of a given video sequence |
US5805733A (en) * | 1994-12-12 | 1998-09-08 | Apple Computer, Inc. | Method and system for detecting scenes and summarizing video sequences |
KR0183149B1 (ko) * | 1995-12-30 | 1999-05-01 | 김광호 | 동화상 검출방법 |
US6219837B1 (en) * | 1997-10-23 | 2001-04-17 | International Business Machines Corporation | Summary frames in video |
US6055018A (en) * | 1997-11-04 | 2000-04-25 | Ati Technologies, Inc. | System and method for reconstructing noninterlaced captured content for display on a progressive screen |
US5956026A (en) * | 1997-12-19 | 1999-09-21 | Sharp Laboratories Of America, Inc. | Method for hierarchical summarization and browsing of digital video |
US6144375A (en) * | 1998-08-14 | 2000-11-07 | Praja Inc. | Multi-perspective viewer for content-based interactivity |
US6342904B1 (en) * | 1998-12-17 | 2002-01-29 | Newstakes, Inc. | Creating a slide presentation from full motion video |
US6236395B1 (en) * | 1999-02-01 | 2001-05-22 | Sharp Laboratories Of America, Inc. | Audiovisual information management system |
US6774917B1 (en) * | 1999-03-11 | 2004-08-10 | Fuji Xerox Co., Ltd. | Methods and apparatuses for interactive similarity searching, retrieval, and browsing of video |
JP2000278688A (ja) * | 1999-03-24 | 2000-10-06 | Sony Corp | 動きベクトル検出装置およびその方法と画像処理装置 |
US6549643B1 (en) * | 1999-11-30 | 2003-04-15 | Siemens Corporate Research, Inc. | System and method for selecting key-frames of video data |
US6678635B2 (en) * | 2001-01-23 | 2004-01-13 | Intel Corporation | Method and system for detecting semantic events |
-
2001
- 2001-03-30 US US09/823,437 patent/US6931595B2/en not_active Expired - Fee Related
- 2001-10-25 JP JP2001328320A patent/JP2002232840A/ja active Pending
- 2001-10-31 EP EP01126031A patent/EP1204034B1/en not_active Expired - Lifetime
- 2001-10-31 DE DE60138079T patent/DE60138079D1/de not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101275933B1 (ko) * | 2007-10-19 | 2013-06-14 | 퀄컴 인코포레이티드 | 모션 보조된 이미지 센서 구성 |
Also Published As
Publication number | Publication date |
---|---|
EP1204034A3 (en) | 2006-04-05 |
DE60138079D1 (de) | 2009-05-07 |
EP1204034A2 (en) | 2002-05-08 |
US6931595B2 (en) | 2005-08-16 |
EP1204034B1 (en) | 2009-03-25 |
US20020080162A1 (en) | 2002-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002232840A (ja) | 動画要約方法 | |
Gunsel et al. | Temporal video segmentation using unsupervised clustering and semantic object tracking | |
US7653131B2 (en) | Identification of replay segments | |
US8488682B2 (en) | System and method for extracting text captions from video and generating video summaries | |
US7177470B2 (en) | Method of and system for detecting uniform color segments | |
US6940910B2 (en) | Method of detecting dissolve/fade in MPEG-compressed video environment | |
US7046731B2 (en) | Extracting key frames from a video sequence | |
US6813313B2 (en) | Method and system for high-level structure analysis and event detection in domain specific videos | |
US20040125877A1 (en) | Method and system for indexing and content-based adaptive streaming of digital video content | |
JP4271930B2 (ja) | 複数の状態に基づいて連続した圧縮映像を解析する方法 | |
Smeaton et al. | An evaluation of alternative techniques for automatic detection of shot boundaries in digital video | |
Xu et al. | Algorithms and System for High-Level Structure Analysis and Event Detection in Soccer Video | |
Mei et al. | Structure and event mining in sports video with efficient mosaic | |
Mei et al. | Sports video mining with mosaic | |
Su et al. | Transition effect detection for extracting highlights in baseball videos | |
Han et al. | Multilevel analysis of sports video sequences | |
JP2007513398A (ja) | プログラムのハイレベル構造を特定する方法及び装置 | |
Tiburzi et al. | Camera motion analysis in on-line MPEG sequences | |
Kokaram et al. | Content controlled image representation for sports streaming | |
Kim et al. | Media adaptation model based on character object for cognitive TV | |
Mentzelopoulos et al. | Football video annotation based on player motion recognition using enhanced entropy | |
Tekalp | Semantic multimedia analysis for content-adaptive video streaming | |
Pan et al. | SPORTS VIDEO FOR HIGHLIGHTS GENERATION | |
Bhaskar et al. | A novel approach to predict the popularity of the video | |
JP2003153192A (ja) | 複数のフレームを含む圧縮されているビデオを分析する方法およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060905 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060911 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061005 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080129 |