JP2002133420A - 映像インデックス付けおよびイメージ読み出しシステム - Google Patents

映像インデックス付けおよびイメージ読み出しシステム

Info

Publication number
JP2002133420A
JP2002133420A JP2001205891A JP2001205891A JP2002133420A JP 2002133420 A JP2002133420 A JP 2002133420A JP 2001205891 A JP2001205891 A JP 2001205891A JP 2001205891 A JP2001205891 A JP 2001205891A JP 2002133420 A JP2002133420 A JP 2002133420A
Authority
JP
Japan
Prior art keywords
change
image
unit
cut
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001205891A
Other languages
English (en)
Inventor
Heather Yu Hon
ホン・ヘザー・ユ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of JP2002133420A publication Critical patent/JP2002133420A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7864Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using domain-transform features, e.g. DCT or wavelet transform coefficients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 計算量の観点から効率的な方法でセグメント
化を実現する映像セグメント化システム等を提供する。 【解決手段】 映像セグメント化システムは、映像シー
ケンスの隣接フレーム間の類似度を表すS距離の測定値
を生成し、圧縮された映像シーケンスの直流輝度信号の
周波数分解を利用する。高・低周波シグニチャが、ウェ
ーブレット変換を用いて周波数分解された信号から生成
される。カット検出部は、低周波シグニチャからカット
変化を、フェード検出部は、高周波シグニチャからフェ
ード変化を、ディゾルブ変化検出部は、2重フレーム差
分アルゴリズムによりディゾルブ変化を識別する。映像
読み出しシステムは、問い合わせイメージとデータベー
スイメージとのS距離を生成し、低・高周波成分シグニ
チャを利用してイメージ間の類似度のS距離測定値を生
成する。その結果、類似のデータベースイメージを閲覧
し、検索できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、概して映像信号処
理に関する。より具体的には、本発明は、映像インデッ
クス付けおよびイメージ検索に関する。
【0002】
【従来の技術】この過去数年、高速ネットワークで利用
可能な大域幅は劇的に増加してきている。同時に、コン
ピュータの製造者は、パーソナルコンピュータのハード
ドライブの記憶容量を増加し、ハードドライブにアクセ
スするシステムバスおよびマザーボードの速度を向上さ
せた。データ圧縮アルゴリズムの質および効率も、同様
に、特に映像データに関して、情報伝送効率およびアク
セス速度を向上させた。
【0003】データベース管理者の重要な役目の1つ
は、データへの容易かつ直感的なアクセスを提供するこ
とである。この役目は、ユーザがイメージを検索したい
とき、または映像セグメントなどの他の映像データを検
索したいときには、特に困難である。データの閲覧と検
索を行う1つの有用な方法は、テキストベースの検索を
通じて、インターネットで、ユーザが関連するインター
ネットページを素早くかつ直感的にアクセスできるよう
にすることである。
【0004】映像データの検索を可能にするために、映
像読み出しシステムは、データベースに蓄積されたイメ
ージや映像フレームを用いて、問い合わせのあったイメ
ージに類似するイメージを強調する。ユーザが問い合わ
せのあったイメージを提供する方法は、複数存在する。
例えば、ユーザは、探しているイメージを大雑把に認識
しているであろう。ユーザは、手書きでイメージの簡単
なスケッチを描き、スキャナを用いてそのスケッチをア
ップロードする。または描画ソフトウェアが利用でき
る。そのイメージの写真または、類似するイメージを用
いて、データベース内の他の類似のイメージを探すこと
ができる。
【0005】ユーザが、最も関連のないイメージに対し
て最も関連するデータベースイメージのリストの提供を
受けられるよう、イメージ検索エンジンは、問い合わせ
のあったイメージとデータベースイメージとの間の類似
度の測定値を生成できなければならない。イメージ読み
出しシステムに関連するイメージ検索システムは、細部
の小さな違いを無視して、問い合わせのあったスケッチ
またはイメージの重要な特徴と、データベースイメージ
との類似度を検索できなければならない。換言すれば、
イメージ検索エンジンは、問い合わせのあったイメージ
と、データベースイメージとの間の映像的な類似度を一
様に測定しなければならない。
【0006】映像シーケンスの検索の際、問い合わせの
あったイメージを映像シーケンスの各フレームと比較す
るのは、イメージ読み出しシステムには非効率であろ
う。映像シーケンスは、典型的には1以上のショット
(shot)を含む。「ショット」とは、1つのカメラで中
断なく撮影された、関連するフレームのシーケンス(連
続)である。非効率さをなくすため、イメージデータベ
ース管理者は、そのショットをセグメント化する時間を
とらなければならず、また、そのショットをあらわすキ
ーフレームを識別しなければならない。この問題を解決
するため、映像のセグメント化およびキーフレーム識別
を自動的に行うことが望ましい。
【0007】自動映像インデックス化への第1ステップ
は、激しい変化と緩慢な変化の両方を識別する能力を持
つことである。激しい変化は、2つのイメージ間の非連
続的な変化であり、カット変化としてもまた称される。
緩慢な変化は、フェード、ディゾルブ、およびワイプ変
化を含む。イメージが、徐々に消えて黒または白にな
り、または黒または白から徐々に現れる場合には、フェ
ード変化が起こる。あるイメージが徐々に消えると同時
に他のイメージが徐々に現れる場合には、ディゾルブ変
化が起こる。第1のイメージが第2次のイメージを徐々
に押し出すと、ワイプ変化が起こる。緩慢な変化は、1
つより多いショットから作成される複合ショットであ
る。
【0008】ショット変化検出部は、自動映像インデッ
クスシステムにおいて、激しい変化と緩慢な変化の両方
を自動的にうまく感知しなければならない。ショット変
化検出部はまた、他の変化を感知すべきではない。換言
すれば、ショット変化検出部は、細部の小さな変化、イ
メージの動きおよびカメラの動きを無視すべきである。
例えば、パン、ズーミング、チルティング(tilting)
は、問い合わせ結果に大きな影響を与えてはならない。
【0009】
【発明が解決しようとする課題】従来の映像読み出しシ
ステムは、ヒストグラム変化、フレーム変化、動きベク
トル解析、圧縮変化、および、ニューラルネットワーク
アプローチを含む、いくつかのタイプのショット変化の
検出技術を利用していた。フレーム変化検出システム
は、局部の動きに極端に反応する。ヒストグラム検出シ
ステムは、激しいショット変化およびフェードをうまく
識別するが、ワイプおよびディゾルブといった緩慢な変
化の動作は不十分である。動きベクトル検出システム
は、巨大なイメージデータベースを利用する際には禁止
すべき、大量の計算が必要になる。ニューラルネットワ
ーク検出システムは、他のカット検出システムを超える
よりよい性能を提供できない。ニューラルネットワーク
検出システムは、ニューラルネットワークの学習過程で
大量の計算が必要になる。
【0010】フェード、ディゾルブ、およびワイプ変化
のような、アドレスの緩慢な変化に取り組む、さらなる
アルゴリズムが提案されている。エッジトラッキングシ
ステムは、入力および出力エッジパーセンテージ(ente
ring and exiting enteringpercentages)の相対値を測
定する。エッジトラッキングシステムは、緩慢な変化を
20%未満を正確に識別することができる。エッジトラ
ッキングシステムは、動き推定ステップが必要であり、
計算量が多い連続フレームを割り当てる。エッジトラッ
キングシステムの性能は、動き推定ステップの精度に大
きく依存する。クロマティックスケーリングシステム
は、黒へのフェードイン変化および黒からフェードアウ
ト変化のみを想定する。クロマティックスケーリングシ
ステムはまた、オブジェクトの動きおよびカメラの動き
は、変化期間の前および後にゆっくりと生じると想定す
る。
【0011】
【課題を解決するための手段】本発明による映像セグメ
ント化システムは、複数のフレームを有する映像シーケ
ンスを提供する映像ソースを含む。映像セグメント化シ
ステムは、映像シーケンスの隣接フレーム間のS距離
(S-distance)の測定値を生成する。S距離測定値は、
隣接フレーム間での類似度を評価する。
【0012】周波数分解部は、好ましくはウェーブレッ
ト分解を利用し、各フレームについて、低周波および高
周波シグニチャ(low frequency and high frequency s
ignature)を生成する。カット検出部は、2つの隣接す
るフレーム間の変化を、低周波シグニチャを用いて識別
する。カット検出部は、隣接フレームについて低周波シ
グニチャの係数間の差信号を生成し、その差信号を閾値
と比較する。差信号が閾値を超えれば、カット変化を表
す。
【0013】カット変化を識別した後、本発明による映
像セグメント化システムは、フェード検出部を利用す
る。フェード検出部は、カット変化の間に位置するフレ
ームの高周波シグニチャを用いて、フェード変化を識別
する。フェード検出部は、和信号生成部を含む。和信号
生成部は、各フレームの高周波シグニチャの係数の和を
計算し、和信号を線形信号と比較する。線形信号は、フ
ェードインに対しては増加関数、および、フェードアウ
トに対しては減少関数である。ディゾルブ変化検出部
は、高周波シグニチャを用いて可能性のあるディゾルブ
変化を識別する。2重フレーム差分生成部は、ディゾル
ブ変化を確認する。理解されるように、本発明による映
像セグメント化システムは、激しい変化および緩慢な変
化の識別性を劇的に向上させている。映像セグメント化
システムは、計算量の観点から効率的な方法でセグメン
ト化を実現する。
【0014】本発明によるイメージ読み出しシステムは
また、S距離測定を用いて、問い合わせのあったイメー
ジを、データベース内のイメージと比較する。S距離測
定により、ユーザは、インターネットにより提供される
テキストベースシステムと類似の検索および閲覧が可能
になる。
【0015】
【発明の実施の形態】図1を参照して、映像シーケンス
10が示されている。映像シーケンス10は、各々が1
以上のフレーム16−1〜16−nを含む、複数のショ
ット12−1〜12−nを含む。映像シーケンス10
は、n個のショットと、m個のフレームを有する。本発
明による自動映像インデックスシステムは、好ましく
は、n個のショット12間の激しい変化および緩慢な変
化の両方を識別することができる。n個のショット間の
変化を識別した後は、映像インデックス化、読み出し、
および、他の使用のため、各ショット12についてキー
フレームが選択される。キーフレームはショットにおけ
る最初のフレームであってもよいし、中央フレームまた
はフレームの組み合わせであってもよい。n個のショッ
ト間の変化すべてが、容易に識別できるわけではない。
例えば、ショットn−1およびショットnの間の変化
は、カット変化20である。ショット1およびショット
2の間の変化は、ディゾルブ変化22である。
【0016】図2〜4は、激しいショット変化および緩
慢なショット変化の両方に関連するふれーむを示す。図
2を参照して、時刻tで始まる映像シーケンスの第1フ
レーム30の後には、時刻(t+1)で始まる映像シー
ケンスの第2フレーム32が続く。フレーム30および
32間は激しい変化があるので、カット変化が図2の
(34で示す)時刻(t+1)において指定される。
【0017】図3は、フェードアウト変化40のnフレ
ームを示す。時刻tにおいて、フレーム44が発生し、
イメージは直ちに識別可能である。フレーム46は時刻
(t+1)において発生し、イメージ42’の鮮明度
は、フレーム44のイメージ42に対して、やや減少し
ている。時刻(t+n−1)において、イメージ4
2’’の鮮明度は、時刻(t+n)までさらに減少し、
イメージ42は概して消滅し、黒または白といった単色
になる。フェードイン変化は、その逆である。
【0018】ここで図4を参照して、ディゾルブ変化5
4が示されており、n個のフレームを含んでいる。時刻
tにおいて、フレーム58のイメージ56の鮮明度は比
較的高い。時刻(t+1)では、フレーム60のイメー
ジ56’の鮮明度は減少し、比較的低い鮮明度の第2の
イメージ62が見えるようになる。時刻(t+n−1)
において、フレーム66のイメージ56’’の鮮明度は
減少し、イメージ62’の鮮明度は高くなる。時刻(t
+n)では、フレーム70のイメージ56は消滅し、イ
メージ62’’の鮮明度は増加する。
【0019】図5を参照して、激しい変化および緩慢な
変化を検出する自動映像インデックスシステム80が示
されている。自動映像インデックスシステム80は、メ
モリ86に接続されたプロセッサ84と、入力/出力イ
ンターフェース90とを含む。メモリ86は、読み出し
専用メモリ(ROM)、ランダムアクセスメモリ(RA
M)、光学式記録装置、ハードドライブおよび/または
他の適切な記録装置を含む。自動映像インデックスシス
テム80は、ローカル映像(イメージ)データベース9
2のような映像シーケンスのソース、または、ローカル
エリアネットワーク(LAN)96を介して利用可能
な、映像(イメージ)データベース94のような配信映
像(イメージ)データベース、または、インターネット
に接続可能なワイドエリアネットワーク(WAN)10
0を介して利用可能な映像(イメージ)データベース9
8を含む。自動映像インデックスシステム80はまた、
キーボード、マウス、1以上のディスプレイ、イメージ
スキャナ、プリンタ、および/または他の入力/出力
(I/O)機器などの、I/O機器104を含む。
【0020】映像シーケンスセレクタ110により、ユ
ーザは、映像(イメージ)データベース92、94およ
び/または98に格納される1以上の映像シーケンスを
選択できる。映像シーケンスの選択は、ダイアログボッ
クスを介して従来の方法により行うことができる。映像
シーケンスの選択は、マウスおよび/またはキーボード
の選択を用いて進められる。画像抽出部114は、選択
された映像シーケンスの各フレームについて、サムネイ
ルの直流(DC)イメージを抽出する。周波数分解部1
16は、画像抽出部114に接続され、各サムネイルD
Cイメージの周波数領域で分解する。周波数分解部は、
高速フーリエ変換(FFT)、離散コサイン変換(DC
T)離散フーリエ変換(DFT)、またはウェーブレッ
ト変換を利用できる。Haarウェーブレット変換のよ
うな、ウェーブレット変換の計算上の効率のために、ウ
ェーブレット変換が好ましい。
【0021】Motion Picture Experts Group(MPE
G)映像シーケンスソースが利用されると、それらは、
典型的には、512×512画素またはそれより大きい
フレームサイズを有する。一般には、DCイメージは、
8×8画素ブロックで生成される。典型的なサムネイル
MPEGイメージは、512/8×512/8または6
4×64画素ブロックまたはそれ以上である。ウェーブ
レット変換を利用したMPEGサムネイルフレームイメ
ージの分解は、高周波領域成分および低周波領域成分を
生成する十分な入力になるとことが知られている。この
技術は、サムネイルDCイメージがAC係数と比較して
非常に容易にMPEG映像から抽出できることから、有
利である。サムネイルDC成分を用いることにより、必
要な計算時間が少なくなる。
【0022】低周波成分(Low Frequency Component:L
FC)シグニチャ(signature)生成部120は、LF
Cシグニチャを各イメージごとに生成する。高周波成分
(High Frequency Component:HFC)シグニチャ生成
部124は、HFCシグニチャを各イメージごとに生成
する。ある実施例では、ウェーブレット変換が利用され
て、LFCおよびHFCシグニチャが生成される。HF
CシグニチャおよびLFCシグニチャは、以下のように
生成される。
【0023】Fは、ホストコンテンツφを表す。F’
は、圧縮またはぼかしなどの処理後の関数Fである。自
動映像インデックスおよびイメージ読み出しが望まれる
と、以下の必要性が生じることがわかる。
【0024】
【数1】
【0025】I は、φのウェーブレット変換を表
す。I’は、0に設定された小さな係数を有するウェ
ーブレット領域のイメージφである。視覚的データ圧縮
に関する研究では、イメージφのウェーブレット変換の
小さな係数を無視すると、視覚的にI’− I→0と
なることが示されている。F(I’)が、φの視覚コンテ
ンツを一様に保持するI’から抽出された特徴である
とする。すると、視覚的に、F(I’)−F(I)→0が
得られる。よって、Fは、F(I b’)−F(I b)≧F
(I a’)−F(I a)である判別関数として用いることが
できる。ここで、I aおよびI bは、視覚的に異なる
2つの別個のイメージ(フレーム)である。
【0026】映像セグメント化およびイメージ読み出し
について、2つのイメージ間または2つの映像フレーム
間のすべてのコンテンツの変化を、計測する必要があ
る。計測は、2つのイメージまたはフレームの全構造を
反映する。S距離は、ウェーブレット領域における、2
つのイメージまたはフレーム間の距離の測定値である。
S距離は、2つのイメージの有効なLFCおよび/また
はHFCが、どれほど共通であるかを測定するものであ
る。その結果、S距離は、2つのイメージまたはフレー
ム間の全体の類似点および/または相違点に関するよい
測定値となり、以下に説明するように、イメージの閲覧
および検索に用いることができる。
【0027】Vt(t∈[0,n])は、映像シーケンスVの
フレームtを表す。また、Iは、イメージを表す。v1 t
およびv2 tは、ショット1およびショット2を表す。イ
メージサイズは、X×Yである。また、x∈[1,X] およ
び y∈[1,Y]として、it(x,y)は、フレームtの(x,y)番
目の係数の強度を表し、i(x,y)は、イメージIの(x,y)
番目の係数の強度になる。
【0028】S距離を定義するため、2つのイメージに
ついてウェーブレット変換を行う。例えば、2つのイメ
ージは、イメージの読み出しのための問い合わせのあっ
たイメージおよび目標イメージ、すなわち、映像セグメ
ント化のための2つの連続したフレームである。イメー
ジit(x,y)のウェーブレット係数は、it (x,y)と表す。
各フレーム/イメージのLFCシグニチャSLおよびHF
CシグニチャSHは、以下のように定義される。
【0029】
【数2】
【0030】ここで、εn-1<i(x,y)≦εn(n=0, 1,
2,...)のとき、δ(i(x,y))=nである。また、IL
(またはIH) は、低周波数(または高周波数)サブバ
ンドを表す。VtLまたはVtHも同様である。i(x,y) は、
マルチチャネル強度関数の単一のチャネルであることに
留意されたい。I’から抽出された特徴であるφtの、
区別されたシグニチャであるF(LFCおよびHFCシ
グニチャ)を見つけ出した後は、この特徴を利用するア
ルゴリズムが、以下に説明するように、映像処理アプリ
ケーションのために利用される。
【0031】図5に戻って、カット検出部130は、L
FC生成部120に接続されて、映像シーケンスにおけ
るカット変化を識別する。フェード検出部134は、H
FC生成部124に接続されて、映像シーケンスにおけ
るフェード変化の開始点および終了点を識別する。ディ
ゾルブセグメント収集部138は、HFC生成部124
に接続されて、映像シーケンスにおけるディゾルブ変化
が存在する可能性のある開始点および終了点を識別す
る。
【0032】ディゾルブ変化確認部142は、2重フレ
ーム差分(double frame differencing:DFD)アルゴ
リズムを用いて、ディゾルブセグメント収集部138に
より識別された、存在する可能性のあるディゾルブ変化
の存在を確認する。セグメント化データ生成部142
は、カット検出部130、フェード検出部134、およ
び、ディゾルブ変化確認部142により識別された、カ
ット変化データ、フェード変化データ、および、ディゾ
ルブ変化データを収集する。セグメント化データ生成部
142は、映像データベース92、94、98内への格
納のため、または、他のコンピュータまたはI/O機器
104への伝送のため、インターフェース90に変化デ
ータを伝送する。
【0033】図6を参照して、カット検出部130は、
LFC生成部120に接続されており、S距離差分生成
部150、カット閾値生成部152、および、比較部1
54を含む。カット変化データ収集部154は、映像シ
ーケンスに対するカット変化を収集する。S距離差分生
成部150または比較部154の出力に関しては、必要
であれば、スムージングフィルタ(図示せず)を利用し
てもよい。
【0034】図7を参照して、カット検出部130の動
作がより詳細に示されている。ステップ160では、カ
ット閾値が設定される。ステップ162では、S距離関
数差分が計算される。
【0035】S距離を計算するため、LFCおよびHF
Cシグニチャに対して重み関数が適用される。そして、
映像シーケンスのフレームに対して、S距離関数差分が
計算される。S距離差分は、フレームtおよびフレーム
(t+1)のように、連続するフレームの組に対して計
算される。S距離は、重み付け関数を適用した後で、L
FCおよびHFCシグニチャの差分をとることにより、
2つのイメージ、すなわち、映像シーケンスの連続する
2つのフレーム間の距離を測定したものである。
【0036】
【数3】
【0037】ここで、ξL、ξH、ΩLおよびΩHは重み関
数である。
【0038】カットシーケンスを識別する際、高周波シ
グニチャ成分、および/または、重み関数ξHは、0に
設定される。任意の連続フレームに対して、∂をカット
閾値として、S(t,t+1) > ∂のとき、フレームtからフ
レーム(t+1)まで(または(T−t)からT
t+1まで)は、カット変化を観測できる。それ以外の
場合には、カット変化が観測できない。ステップ164
では、フレームtおよび(t+1)に対するS距離関数
差分は、カット閾値と比較される。ステップ166で決
定されるように、S距離関数差分がカット閾値を超える
と、ステップ168において、カット変化が示される。
超えない場合には、ステップ170においてカット変化
は存在しないとされる。(t+2)、(t+
3)、...、(t+n)についてのさらなるフレーム
の組は、同様に取り扱われる。
【0039】図8を参照して、フェード検出部134が
より詳細に示されている。フェード検出部134は、高
周波成分信号生成部124に接続され、和信号生成部1
80、線形関数生成部184、および、比較回路188
を含む。カット検出部130がカット変化を識別するの
で、フェード検出部134は、連続する2つのカット間
で映像のサブシーケンスのみを分析する。
【0040】フェードおよびディゾルブ変化中での映像
フレームの変化特性は、以下のようにモデル化できる。
【0041】
【数4】
【0042】ここで、E(T)は、特性関数である。また、
F(υt 1)、F(υt 2)は、連続する2つのショットの、未編
集動画シーケンス特性関数を表す。η(t) は、η(t0) =
1 および η(tn) = 0 となる減少関数である。Cは、
ショット変化でのすべてのフレームに存在するテキス
ト、ラベル、またはロゴなどの、一定の(または背景
の)イメージである。そして、t0、tN は、変化の開始
点および終了点である。
【0043】フェードアウトの間、第2シーケンスは存
在せず、任意のt (t∈(t0, tN)) に対して、F(υt 2) =
0 となる。フェードインでは、任意のt (t∈(t0, tN))
に対して、F(υt 1) = 0 となる。すなわち、以下の数5
のようになる。
【0044】
【数5】
【0045】ディゾルブの間は、S1(t), S2(t)の双方が
0にはならない。
【0046】
【数6】
【0047】変化特性関数 E(t) の例は、変化強度関数
i(x,y,z) およびエッジ強度関数G(x, y, z) を含む。
【0048】
【数7】
【0049】ここで、i1, i2 は、第1および第2の未
編集動画シーケンスの強度を規定する。G1 および G
2は、イメージシーケンスI1 および I2 の、対応するエ
ッジイメージシーケンスの画素強度関数である。Ic
よび Gc は、それぞれ、一定のイメージおよび一定のエ
ッジイメージの画素強度関数を表す。上述の数式では、
(x, y) がエッジ点ではない場合、Gk(x, y, t) = 0 で
あることに留意されたい。そのため、エッジイメージ内
のエッジ点のみが、この特性関数に寄与する。
【0050】フェード変化に対する分析が行われるショ
ット内のフレーム数に基づいて、減少関数の値、およ
び、フェード変化検出に用いられる重み関数が、線形関
数生成部184により設定される(図9のステップ19
0)。ステップ194では、各フレームの高周波係数の
和が計算される。
【0051】
【数8】
【0052】ステップ196において、差分回路188
は、線形関数生成部184により出力された減少関数
と、各フレームに対して、和信号生成部180により出
力された和の差分を生成する。ステップ200で判断さ
れるように、差分が、ショットシーケンスの各フレーム
に対してほぼ0であれば、すなわち、
【0053】
【数9】
【0054】であれば、ステップ202において、フェ
ードアウトが生じる。そうでない場合には、ステップ2
04において、差分回路は、和から、(1−減少関数)
を減算する。ステップ208で判断されるように、差分
が、ショットの各フレームに対してほぼ0であれば、す
なわち
【0055】
【数10】
【0056】であれば、ステップ210において、フェ
ードインが示される。そうでない場合には、ステップ2
12において、フェードイン変化もフェードアウト変化
も存在しないとされる。
【0057】図10を参照して、ディゾルブセグメント
収集部138がより詳細に示されている。ディゾルブセ
グメント収集部138は、HFC生成部124に接続さ
れている。各フレームについての高周波係数は、合計さ
れる。
【0058】
【数11】
【0059】理想ディゾルブ信号生成部224は、変化
統計関数である理想ディゾルブ関数を生成する。スムー
ジングフィルタ228は、合計されたHFCを平滑化す
る。差分回路229は、理想ディゾルブ信号生成部22
4の出力と、平滑化され合計されたHFC出力との差分
を生成する。ステップ230で判断されるように、その
差分がほぼ0であれば、すなわち
【0060】
【数12】
【0061】であれば、T0 およびTNは、ディゾルブの
可能性がある開始点および終了点として示される。実験
結果によれば、HFCは、色ヒストグラム、フレーム差
分、および動きベクトル解析と比較しても、より正確に
フェードおよびディゾルブを予測する。一般に、ディゾ
ルブ変化のS H(t) は、「U」字形であり、その中央が、
ディゾルブ変化の可能性のある中央点を識別する局所的
最小値になっている。また、両側の局所的最大値は、デ
ィゾルブ変化の可能性のある開始点および終了点を識別
する。
【0062】図10および11を参照して、ディゾルブ
変化確認部142がより詳細に示されている。ディゾル
ブ変化確認部142は、ディゾルブセグメント収集部1
38に接続されており、そこから、ディゾルブ変化の可
能性がある開始点および終了点を受け取る。ディゾルブ
変化確認部142は、LFCシグニチャ120に接続さ
れ、2重フレーム差分(DFD)生成部250を含む。
2重フレーム差分(DFD)生成部250は、ディゾル
ブセグメント収集部138の出力に接続されている。
【0063】理想ディゾルブは、「V」字形の強度関数
を有し、シーケンスにおいて、局所的な動作またはカメ
ラ動作は存在しない。第1ショットの強度の変化は、負
の傾きを有し、線形である。強度i(x, y, ik) を有する
フレームik が存在する。これは、N=2m+1 のとき、ディ
ゾルブの開始フレームおよび終了フレームi(x, y, i k)
および i(x, y, ik) の平均強度と等しい。すなわち、
数13に示すようになる。
【0064】
【数13】
【0065】(N=2m (N: 整数)のとき、ikは擬似フレー
ムであることに留意されたい。)動画シーケンスIのフ
レームidのDFDは、この平均値と、フレームidとの画
素対画素比較の累積として規定される。ここで、idは、
可能性のあるディゾルブ変化セグメントにおけるフレー
ムである。
【0066】
【数14】
【0067】ディゾルブ変化確認部142は、さらに、
スムージングフィルタ254を含む。スムージングフィ
ルタ254は、DFD信号の出力を平滑化する。確認済
みディゾルブ変化収集部256は、映像シーケンスに対
する、確認されたディゾルブ変化データを格納する。
【0068】図11を参照して、ステップ260におい
て、DFD信号生成部250は、ディゾルブセグメント
収集部138により提供される開始点および終了点に対
するLFCシグニチャに関するDFD信号を計算する。
ステップ264において、スムージングフィルタ254
は、DFD信号生成部250から提供されたデータをフ
ィルタリングする。ステップ266において、DFD信
号の傾きは、DFD信号が凹状かどうか(すなわち、数
15が成り立つかどうか)
【0069】
【数15】
【0070】および、凹状の深さが閾値を超えるかどう
かを識別するのに用いられる。両方が成り立つ場合、ス
テップ208において、ディゾルブ変化が示される。一
方または双方が成り立たない場合、ステップ269にお
いて、ディゾルブ変化は存在しないとされる。
【0071】理解できるように、自動映像インデックス
システム80は、激しいショット変化および緩慢なショ
ット変化の両方が識別のできる可能性が高い映像シーケ
ンスを、自動的にインデックス付けする。さらに、第1
のフレーム、中間フレーム、またはフレームの組み合わ
せを選択することにより、イメージ読み出し、および、
要約するため、各ショットからキーフレームが選択でき
る。
【0072】図12を参照して、イメージ読み出しシス
テム300が示されている。図5からの参照符号が用い
られており、図12において、同様の構成要素を識別す
るのに利用される。イメージ読み出しシステム300
は、問い合わせイメージキャプチャ装置310を含む。
問い合わせイメージキャプチャ装置310は、I/O機
器104を利用する。問い合わせイメージは、写真また
はスケッチを取り込むスキャナなどのI/O機器104
を用いて入力できる。プロセッサ84およびメモリ86
に関連する描画ソフトウェアもまた、スケッチを入力す
るのに利用できる。また、問い合わせイメージは、イン
ターネット上で選択し、ポータブル記録メディアを用い
て入力し、ハードドライブに格納でき、または、データ
ベース92、94、および、96から選択できる。他の
適切な問い合わせイメージソースは、当業者には明らか
であろう。問い合わせイメージキャプチャ装置310
は、周波数分解部312に接続される。周波数分解部3
12は、ウェーブレット変換、DFT、DCT、FF
T、または、他の適切な周波数領域変換を用いて、問い
合わせイメージの周波数分解を行う。しかし、好ましく
は、Haar変換を用いたウェーブレット分解が利用さ
れる。
【0073】周波数分解部312の出力は、LFC生成
部314およびHFC生成部316に接続される。イメ
ージ読み出し装置320は、少なくとも1つのデータベ
ース92、94、および、96からの問い合わせイメー
ジとの比較のため、イメージを読み出す。イメージ読み
出し装置320は、周波数分解部322にイメージを出
力する。周波数分解部322は、同様に、ウェーブレッ
ト変換、DCT、DFT、FFT、または、他の適切な
周波数領域変換を行う。
【0074】周波数分解部322の出力は、LFC生成
部324およびHFC生成部326に入力される。LF
C生成部314および324の出力は、LFC重み付け
装置330に入力される。HFC生成部316および3
24の出力は、HFC重み付け装置340に入力され
る。適切な重み付けが行われると、S距離生成部342
はS距離測定値を生成する。
【0075】フレームtおよび(t+1)に行われるS
距離測定は、問い合わせイメージおよびデータベースイ
メージに関して行われる。S(t, t+1) は、S(Q, φ) で
置換される。ここで、Qは問い合わせイメージを表し、
φnは、データベース内のn番目のイメージを表す。
【0076】
【数16】
【0077】問い合わせイメージQに対して、最小のS
距離測定値を有するイメージは、テキストベースの閲覧
および検索と同様の方法で、読み出し結果を類似度が最
大のものから最小のものの順に戻される。
【0078】理解できるように、問い合わせイメージ
は、イメージデータベース92、94または98からの
複数のイメージと比較され、S距離測定値は、とイメー
ジとデータベースイメージとの相対的な類似度を規定す
る。その結果、プロセッサ84、および、メモリ86
は、類似度が最大のものから最小のものの順で問い合わ
せイメージを配列し、ユーザによる選択のため、問い合
わせ結果をI/O機器104の1つに出力する。
【0079】図13を参照して、第2の実施の形態のイ
メージ読み出しシステム350が示されている。問い合
わせイメージキャプチャ装置352は、上述のようにし
て問い合わせイメージを取り込む。イメージ読み出し部
354は、問い合わせイメージとの比較のため、イメー
ジを読み出す。どのようにイメージが格納されるかに応
じて、イメージ読み出し部354の出力は、点線365
で示されるように、周波数分解部356、LFC信号生
成部358、HFC信号生成部360、LFCおよびH
FC重み装置364へと入力される。S距離測定値の処
理は、図12に関して上で説明したと同じである。デー
タベースイメージ上での処理をいくつか削除することに
より、計算効率が改善される。
【0080】上記から、本発明は、データベースイメー
ジと問い合わせイメージとの間の類似度に基づいて、問
い合わせイメージに適合した、考えられるデータベース
イメージのリストを生成する。図5、6および8には、
別々の機能ブロックがみられるが、当業者であれば、こ
れらの機能は、複数の機能を行うより大きな機能ブロッ
クに組みあわせることができる。イメージ読み出しシス
テムによれば、大型のデータベースでイメージを検索で
きる。拡張イメージデータベースを閲覧しおよび検索す
ることは、劇的に簡単化される。
【0081】現在の好ましい実施の形態で本発明を説明
した。本発明は、添付の特許請求の範囲で説明されるよ
うに、本発明の精神から逸脱することなく、修正および
変更が可能であることが理解される。
【0082】
【発明の効果】本発明のイメージ読み出しシステムによ
れば、大型のデータベースでイメージを検索できる。拡
張イメージデータベースを閲覧しおよび検索すること
は、劇的に簡単化される。
【図面の簡単な説明】
【図1】 複数のショットを含む映像シーケンスを示す
図である。
【図2】 カット変化に関連する映像シーケンスの複数
のフレームを示す図である。
【図3】 フェード変化に関連する映像シーケンスの複
数のフレームを示す図である。
【図4】 ディゾルブ変化に関連する映像シーケンスの
複数のフレームを示す図である。
【図5】 本発明による自動映像インデックス化システ
ムを示す機能ブロック図である。
【図6】 図5のカット変化検出部をさらに詳細に示す
機能ブロック図である。
【図7】 図6のカット変化検出部のフローチャートで
ある。
【図8】 図5のフェード検出部をさらに詳細に示すフ
ローチャートである。
【図9】 図8のフェード変化検出部のフェード変化検
出を示すフローチャートである。
【図10】 図5のディゾルブ変化セグメント収集部さ
らに詳細に示すフローチャートである。
【図11】 ディゾルブ変化確認部の動作を示すフロー
チャートである。
【図12】 イメージ読み出しシステムの、ある実施例
の機能ブロック図である。
【図13】 イメージ読み出しシステムの、第2の実施
例の機能ブロック図である。

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】 複数のフレームを含む映像シーケンスを
    提供する映像ソースであって、複数のフレームの各々
    は、複数の画素を含む映像ソースと、 前記映像ソースに接続され、前記複数のフレームの各々
    について、シグニチャを生成する周波数分解部と、 ウェーブレット変換係数を表す行列を利用する前記シグ
    ニチャを格納するデータ構造体であって、各係数は、重
    要度の基準に基づいて選択された個々の重み因子が乗算
    されるデータ構造体と、 前記映像ソースおよび前記周波数分解部に接続され、前
    記データ構造体に格納された前記シグニチャを用いて、
    隣接する2つのフレーム間でカット変化を識別する カ
    ット検出部とを備えた、映像セグメント化システム。
  2. 【請求項2】 前記低周波シグニチャは、x×yの係数
    の第1の組を含む、請求項1に記載の映像セグメント化
    システム。
  3. 【請求項3】 前記映像シーケンスは圧縮されたフォー
    マットであり、前記フレームの各々は、複数の画素を含
    む複数のブロックを含み、前記ブロックの各々は直流
    (DC)輝度信号および交流(AC)輝度信号を有す
    る、請求項1に記載の映像セグメント化システム。
  4. 【請求項4】 前記周波数分解部は、ウェーブレット分
    解、離散フーリエ変換(DFT)、および離散コサイン
    変換の少なくとも1つを利用する、請求項1に記載の映
    像セグメント化システム。
  5. 【請求項5】 前記周波数分解部は、Haar変換を用いる
    ウェーブレット変換分解を利用する、請求項4に記載の
    映像セグメント化システム。
  6. 【請求項6】 前記カット検出部が、 カット閾値信号を生成するカット閾値生成部と、 前記周波数分解部に接続され、第1のフレームに対する
    x×yの係数の第1の組と、前記第1のフレームに隣接
    する第2のフレームに対するx×yの係数の第1の組と
    を比較することにより、差分信号を生成する差分信号生
    成部と、 前記カット閾値生成部および前記差分信号生成部と接続
    され、前記差分信号が前記カット閾値信号より大きい場
    合には、前記隣接する2つのフレーム間のカット変化を
    識別する比較部とを備えている、請求項2に記載の映像
    セグメント化システム。
  7. 【請求項7】 前記差分信号生成部は、前記差分信号を
    計算する前に、重み関数を適用する、請求項1に記載の
    映像セグメント化システム。
  8. 【請求項8】 前記周波数分解部は、前記複数のフレー
    ムの各々に対して、x×yの係数の第2の組を含む高周
    波シグニチャを生成する、請求項2に記載の映像セグメ
    ント化システム。
  9. 【請求項9】 前記カット検出部は、第1のカット変化
    および第2のカット変化を識別する、請求項8に記載の
    映像セグメント化システム。
  10. 【請求項10】 前記映像シーケンスの隣接するフレー
    ムのシーケンスに対して、前記高周波シグニチャを用い
    てフェード変化を識別するフェード変化検出部であっ
    て、フェード変化は前記第1のカット変化および第2の
    カット変化の間に存在するフェード変化検出部をさらに
    備えた、請求項9に記載の映像セグメント化システム。
  11. 【請求項11】 前記フェード検出部は、 前記第1のカット変化および第2のカット変化の間に存
    在する前記フレームの各々に対して、フェード閾値を割
    り当てる線形信号生成部と、 前記第1のカット変化および第2のカット変化の間に存
    在する前記フレームの各々に対して、前記高周波シグニ
    チャにおけるx×yの係数の第2の組を加算することに
    より和信号を提供する和信号生成部と、 前記線形信号生成部と、前記和信号生成部とに接続さ
    れ、前記和信号を、前記第1のカット変化および第2の
    カット変化の間に存在する前記フレームの各々に対する
    前記フェード閾値と比較し、前記第1のカット変化およ
    び第2のカット変化の間に存在する前記フレームの各々
    に対して、前記和信号と前記フェード閾値とがほぼ等し
    い場合に、フェード変化を示す比較回路とをさらに備え
    た、請求項10に記載の映像セグメント化システム。
  12. 【請求項12】 前記線形信号生成部は、フェードアウ
    ト変化を識別する減少線形信号、および、フェードイン
    変化を識別する増加線形信号を提供する、請求項11に
    記載の映像セグメント化システム。
  13. 【請求項13】 前記第1のカット変化および第2のカ
    ット変化の間に存在する前記映像シーケンスの隣接する
    フレームに対して、前記低周波シグニチャおよび前記高
    周波シグニチャを用いてディゾルブ変化を識別するディ
    ゾルブ検出部をさらに備えた、請求項9に記載の映像セ
    グメント化システム。
  14. 【請求項14】 ディゾルブ検出部は、前記ディゾルブ
    変化の可能性のある開始点および終了点を識別するディ
    ゾルブセグメント収集部と、 前記可能性のある開始点および終了点を確認するディゾ
    ルブ変化確認部とを備えた、請求項13に記載の映像セ
    グメント化システム。
  15. 【請求項15】 前記ディゾルブセグメント収集部は、 前記高周波成分に基づいて和信号を生成する合計部と、 ディゾルブ信号を生成するディゾルブ生成部と、 前記合計部、および、前記ディゾルブ生成部に接続さ
    れ、前記和信号および前記ディゾルブ信号に基づいて差
    分信号を生成する差分生成部と、 前記差分生成部に接続され、前記ディゾルブ変化の可能
    性のある開始点および終了点を識別する開始終了識別部
    とを含む、請求項14に記載の映像セグメント化システ
    ム。
  16. 【請求項16】 前記ディゾルブセグメント収集部は、
    前記合計部、および、前記差分生成部の間に接続された
    スムージングフィルタを含む、請求項15に記載の映像
    セグメント化システム。
  17. 【請求項17】 前記ディゾルブ変化確認部は、前記可
    能性のある開始点および終了点に関する2重フレーム差
    分アルゴリズムを利用する、請求項16に記載の映像セ
    グメント化システム。
  18. 【請求項18】 問い合わせイメージソースと、 複数のイメージを含むデータベースと、 前記映像ソースおよび前記問い合わせイメージソースと
    に接続され、前記問い合わせイメージおよび前記データ
    ベースイメージに対して、低周波シグニチャおよび高周
    波シグニチャを生成する周波数分解部であって、前記シ
    グニチャをデータ構造体に格納し、ウェーブレット変換
    係数を表す行列を利用し、各係数には、重要度の基準に
    基づいて選択された個々の重み因子が乗算される周波数
    分解部と、 前記データ構造体に格納された前記シグニチャに基づい
    て、前記データベースイメージの各々に対してS距離測
    定値を生成するS距離生成部とを備えた、映像読み出し
    システム。
  19. 【請求項19】 前記S距離生成部は、前記問い合わせ
    イメージの前記低周波信号および高周波信号と、前記デ
    ータベースイメージとを比較して、S距離測定値を生成
    する、請求項18に記載の映像読み出しシステム。
  20. 【請求項20】 前記データベースイメージは、前記S
    距離測定値に基づいて、最も高い類似度から最も低い類
    似度の順で戻される、請求項19に記載の映像読み出し
    システム。
JP2001205891A 2000-07-06 2001-07-06 映像インデックス付けおよびイメージ読み出しシステム Pending JP2002133420A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/611133 2000-07-06
US09/611,133 US7042525B1 (en) 2000-07-06 2000-07-06 Video indexing and image retrieval system

Publications (1)

Publication Number Publication Date
JP2002133420A true JP2002133420A (ja) 2002-05-10

Family

ID=24447766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001205891A Pending JP2002133420A (ja) 2000-07-06 2001-07-06 映像インデックス付けおよびイメージ読み出しシステム

Country Status (2)

Country Link
US (1) US7042525B1 (ja)
JP (1) JP2002133420A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006138270A1 (en) * 2005-06-14 2006-12-28 Corescient Ventures, Llc System and method for searching media content
JP2009201132A (ja) * 2009-04-24 2009-09-03 Kddi Corp 動画像のカット点検出装置
JP2010200111A (ja) * 2009-02-26 2010-09-09 Toshiba Corp 映像信号処理装置及びその制御方法及びテレビジョン信号受信装置
CN112766269A (zh) * 2021-03-04 2021-05-07 深圳康佳电子科技有限公司 一种图片文本检索方法、智能终端及存储介质
KR20220002064A (ko) * 2020-06-30 2022-01-06 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 이미지를 처리하는 방법, 장치, 기기, 저장 매체 및 프로그램

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100438703B1 (ko) * 2001-09-27 2004-07-05 삼성전자주식회사 계층적 이미지 인덱싱 방법 및 그 장치
US7711193B2 (en) * 2006-11-07 2010-05-04 Aol Inc. Recognizing blank and nearly blank images
US20090319883A1 (en) * 2008-06-19 2009-12-24 Microsoft Corporation Automatic Video Annotation through Search and Mining
EP2216983A1 (en) * 2009-02-05 2010-08-11 Mitsubishi Electric R&D Centre Europe B.V. Detection of wipe transitions in video
US9026034B2 (en) 2010-05-04 2015-05-05 Project Oda, Inc. Automatic detection of broadcast programming
EP2735141A4 (en) 2011-07-18 2015-03-04 Viggle Inc SYSTEM AND METHOD FOR PURSUIT AND REWARDING MEDIA AND ENTERTAINMENT USE WITH PRACTICALLY REAL-TIME REWARDS
CN104199902A (zh) * 2014-08-27 2014-12-10 中国科学院自动化研究所 一种线性动态系统的相似性度量计算方法
US10074015B1 (en) 2015-04-13 2018-09-11 Google Llc Methods, systems, and media for generating a summarized video with video thumbnails
US9607224B2 (en) * 2015-05-14 2017-03-28 Google Inc. Entity based temporal segmentation of video streams
US9948859B2 (en) * 2015-08-19 2018-04-17 Optimum Semiconductor Technologies, Inc. Video image alignment for video stabilization

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245436A (en) * 1992-02-14 1993-09-14 Intel Corporation Method and apparatus for detecting fades in digital video sequences
US5477276A (en) * 1992-12-17 1995-12-19 Sony Corporation Digital signal processing apparatus for achieving fade-in and fade-out effects on digital video signals
US5508750A (en) * 1995-02-03 1996-04-16 Texas Instruments Incorporated Encoding data converted from film format for progressive display
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
US6061471A (en) * 1996-06-07 2000-05-09 Electronic Data Systems Corporation Method and system for detecting uniform images in video signal
JP3166716B2 (ja) * 1998-08-12 2001-05-14 日本電気株式会社 フェード画像対応動画像符号化装置及び符号化方法
US6449392B1 (en) * 1999-01-14 2002-09-10 Mitsubishi Electric Research Laboratories, Inc. Methods of scene change detection and fade detection for indexing of video sequences
US6327390B1 (en) * 1999-01-14 2001-12-04 Mitsubishi Electric Research Laboratories, Inc. Methods of scene fade detection for indexing of video sequences
US6493042B1 (en) * 1999-03-18 2002-12-10 Xerox Corporation Feature based hierarchical video segmentation
US6542619B1 (en) * 1999-04-13 2003-04-01 At&T Corp. Method for analyzing video
US6477269B1 (en) * 1999-04-20 2002-11-05 Microsoft Corporation Method and system for searching for images based on color and shape of a selected image

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006138270A1 (en) * 2005-06-14 2006-12-28 Corescient Ventures, Llc System and method for searching media content
JP2010200111A (ja) * 2009-02-26 2010-09-09 Toshiba Corp 映像信号処理装置及びその制御方法及びテレビジョン信号受信装置
JP4575501B2 (ja) * 2009-02-26 2010-11-04 株式会社東芝 映像信号処理装置及びその制御方法及びテレビジョン信号受信装置
US7956932B2 (en) 2009-02-26 2011-06-07 Kabushiki Kaisha Toshiba Image signal processing apparatus, method of controlling the same, and television signal receiving apparatus
JP2009201132A (ja) * 2009-04-24 2009-09-03 Kddi Corp 動画像のカット点検出装置
KR20220002064A (ko) * 2020-06-30 2022-01-06 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 이미지를 처리하는 방법, 장치, 기기, 저장 매체 및 프로그램
US11704896B2 (en) 2020-06-30 2023-07-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device and storage medium for image processing
KR102571513B1 (ko) * 2020-06-30 2023-08-29 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 이미지를 처리하는 방법, 장치, 기기, 저장 매체 및 프로그램
CN112766269A (zh) * 2021-03-04 2021-05-07 深圳康佳电子科技有限公司 一种图片文本检索方法、智能终端及存储介质
CN112766269B (zh) * 2021-03-04 2024-03-12 深圳康佳电子科技有限公司 一种图片文本检索方法、智能终端及存储介质

Also Published As

Publication number Publication date
US7042525B1 (en) 2006-05-09

Similar Documents

Publication Publication Date Title
JP4426966B2 (ja) スケーラブルなビデオ要約およびナビゲーションのシステムおよび方法
JP3568117B2 (ja) ビデオ画像の分割、分類、および要約のための方法およびシステム
Koprinska et al. Temporal video segmentation: A survey
US6549643B1 (en) System and method for selecting key-frames of video data
US6741655B1 (en) Algorithms and system for object-oriented content-based video search
US8467611B2 (en) Video key-frame extraction using bi-level sparsity
EP1999753B1 (en) Video abstraction
US20120148149A1 (en) Video key frame extraction using sparse representation
JP2002133420A (ja) 映像インデックス付けおよびイメージ読み出しシステム
JP4907938B2 (ja) 少なくとも1つの画像及び画像群を表現する方法、画像又は画像群の表現、画像及び/又は画像群を比較する方法、画像又は画像群を符号化する方法、画像又は画像シーケンスを復号する方法、符号化されたデータの使用、画像又は画像群を表現する装置、画像及び/又は画像群を比較する装置、コンピュータプログラム、システム、及びコンピュータ読み取り可能な記憶媒体
US8489613B1 (en) LSH-based retrieval using sub-sampling
CN1909670B (zh) 图像表示和分析方法
JP5117670B2 (ja) 画像及び画像群を表現する方法、画像又は画像群を比較する方法、画像又は画像群を検索する方法、各方法を実行する装置およびシステム、プログラム、及びコンピュータ読み取り可能な記憶媒体
KR20110036934A (ko) 비디오 컨텐츠 내의 인물들의 자동화된 주석을 위한 방법 및 시스템
WO2012141655A1 (en) In-video product annotation with web information mining
Gauch et al. Real time video scene detection and classification
JP2002513487A (ja) オブジェクト指向コンテンツに基づくビデオ・サーチ用のアルゴリズム及びシステム
Zhu et al. Automatic scene detection for advanced story retrieval
Wu et al. A suffix array approach to video copy detection in video sharing social networks
Elminir et al. Multi feature content based video retrieval using high level semantic concept
Chu et al. Travel video scene detection by search
Zhang Video content analysis and retrieval
Zhu et al. A novel scheme for video scenes segmentation and semantic representation
Krishnamoorthy et al. Object level frame comparison for video shot detection with orthogonal polynomials model
Park et al. Indexing technique for similarity matching in large video databases

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060627