JP3916813B2 - Data series search apparatus and method - Google Patents
Data series search apparatus and method Download PDFInfo
- Publication number
- JP3916813B2 JP3916813B2 JP30174599A JP30174599A JP3916813B2 JP 3916813 B2 JP3916813 B2 JP 3916813B2 JP 30174599 A JP30174599 A JP 30174599A JP 30174599 A JP30174599 A JP 30174599A JP 3916813 B2 JP3916813 B2 JP 3916813B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- reference data
- series
- query
- data series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、データが時系列的に変化するデータ系列と、類似するデータ系列を複数組のデータ系列の中から検出したり、1つの大きなデータ系列の中から検出する場合に好適なデータ系列検索装置および方法に関する。
【0002】
【従来の技術】
近年、DVD(デジタル・ビデオ・ディスク)やデジタルTV放送の普及とともに膨大な量の動画像コンテンツが一般家庭でも簡単に手に入れることができるようになってきている。一方では、PC(パーソナルコンピュータ)の高性能化、記憶装置の大容量化も進んでおり、PCあるいはPCの機能を有する装置動画像を取り込むニーズが高まってきている。この大きな流れの中で、動画像の検索や,理解、認識などの動画像処理はますます重要な技術となってきている。
【0003】
動画像検索において、ユーザが膨大な動画像DB(データベース)の中から所望の区間を選び出すためには、制作者が予め付与した出演者やあらすじ等の情報やユーザの手入力によるインデックス、および画像理解に基づき自動生成されたインデックスをてがかりにする方法が提案されている。
【0004】
従来の動画像検索に関連した第1の方法としてはIPMネットワークによりシンボル化された動画像DBを記述し、クエリーの(検索の元となる)動画像についてもシンボル化を行い、対応するネットワークを検索する方法が提案されている。(遠藤他、”動画像の自己組織化ネットワークによるモデル化とその動的特徴の可視化”信学技法PRMU97−78,pp.49−54,July,1997)。
【0005】
また、この方法に関連する文献としては以下のものがある。
【0006】
・矢部他、”ジェスチャ動画像と意味的記述単語系列のネットワーク構造対応に基づくジェスチャ認識”人工知能学会全国大会(第13回)論文集、S3−05,pp95−98、June,1999.
・伊藤他,”時系列標準パターンの任意区間によるスポッティングのためのReference Interval−free連続DP(RIFCDP),”信学論,VolJ79D−II,No.9,pp1474−1483、Step.,1996.
・西村他、”動作者適応のためのオンライン教示可能なジェスチャ動画像の認識システム、”信学論、Vol.J81−D−II、No.8,pp1822−1830,Aug.,1998.
・西村他”距離画像を用いた低解像度特長によるジェスチャのスポッティング認識,”人工知能学会全国大会(第13回)論文集、S3−06,pp99−102,June,1999.
第2の方法として、アクティブ検索により動画像DBおよびクエリーの画像特徴ベクトルのヒストグラムを計算し、類似度を求めて検索する以下の提案として以下のものがある。
【0007】
・柏野他,”マルチモーダルアクティブ検索を用いた画像・音響系列の高速検索,”信学技報,PRMU98−80、pp51−58、Sep.,1998.
第3の方法としてカット単位での代表画像の特徴を記号化して検索に用いる提案として以下のものがある。
【0008】
・長坂他,”時系列フレームの圧縮符号化に基づく映像シーンの高速分類方法”,信学論,VolJ81−D−II,No.8,pp.1831−1837,Aug.,1998.
【0009】
【発明が解決しようとする課題】
上述の第1の方法はデータベース中の動画像の各フレームとクエリーの動画像の各フレームとのマッチング(距離計算)を行うために、動画像のフレーム数が多いほどマッチングの計算時間が膨大となり、リアルタイムで検索を行うことが難しいという問題がある。
【0010】
第2の方法は、区間限定のCM検索のように任意の入力区間に未対応であるためにクエリー入力がフレーム単位で逐次行われ,その度に検索を行うといった、区間が限定されない画像の実時間検索には向いていない。
【0011】
そこで、本発明の目的は、フレームワイズの検索を行う上で、動画像データなど、時系列的にデータが変化するデータ系列の逐次入力される記号系列をフレームワイズに検索を行うことができるデータ系列検索装置および方法を提供することにある。
【0012】
【課題を解決するための手段】
このような目的を達成するために、本発明は例えば特許請求の範囲に記載されるように構成する。
【0021】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳細に説明する。
【0022】
最初に本実施形態のデータ系列検索方法について図1を参照して説明する。
【0023】
(第1の実施形態)
本実施形態では、逐次入力されるクエリーのフレーム画像において、一定区間のフレーム窓を図1に示すように時間軸に沿って移動させながらフレーム単位で、検索のための情報処理を行い、クエリーの連続のフレーム画像(動画像)と類似する参照動画像部分を検出する。以下にその検索処理内容を説明する。
【0024】
(a)参照動画像によるVQ空間の作成
クエリー画像の比較の対象となる参照動画像からフレーム単位で画像の特徴量を取得する。本実施例では1つのフレームをいくつかに分割し、画像の色情報または輝度情報を用いてN(正の整数)要素をもつ特徴ベクトルする。この特徴ベクトルを使用して画像の特徴が類似しているフレーム同士を集め1つの集合(セントロイド(centroid)と呼ばれる)を形成し、複数のフレーム画像の集合群に動画像を分類する。画像の分類方法としては、周知の方法を使用することができる。本実施形態では量子化と呼ばれる方法を使用する。より具体的には、あるフレーム画像の特徴ベクトルと、すでに存在する1つの集合の中の全特徴ベクトルとの間の2乗誤差が一定距離以内であれば、そのフレーム画像を比較の対象となった集合の中に組み入れる。また、上記2乗誤差が一定距離以内でない場合には、そのフレーム画像を代表特徴ベクトル(セントロイドベクトル)とする新しい集合を作成する。このようにして参照動画像を量子化すると、図1に示すような複数の集合が形成される。この複数の集合群をVQ空間と呼ぶことにする。
【0025】
セントロイドベクトルV(i)を以下のように定義する。ただし、i=1,2.....,M, Mはセントロイド総数、Nは特徴要素数である。
【0026】
【数1】
【0027】
また、集合に含まれるフレーム画像を識別するためにフレーム画像のフレーム番号τを記憶するテーブルZ(i)を用意する。iはセントロイド(集合)の識別番号である。テーブルZ(i)の内容を数式で表現すると以下のようになる。
【0028】
【数2】
【0029】
ただし、K(i)はセントロイド番号iに属するリファレンス(参照)フレームの総数となる。以後、
【0030】
【外1】
【0031】
は
【0032】
【外2】
【0033】
と略して表す。
【0034】
(b)ヒストグラムの作成
クエリーとしての動画像が、各フレーム単位でVQ空間と同様に特徴ベクトルの形態で入力されてくるとする。時刻tにおけるクエリー入力フレームの特徴ベクトルf(t)は、
【0035】
【数3】
【0036】
であり、VQ空間の各セントロイドベクトル(代表特徴ベクトル)とクエリーのフレーム画像との2乗誤差の和を最小にするセントロイドの番号をこのフレーム画像に対するVQコードm(t)とする。
【0037】
【数4】
【0038】
t≧Tとして時刻tまでの区間Tの間での入力フレームシーケンス
【0039】
【数5】
【0040】
を考えると、対応するVQコードシーケンスは、
【0041】
【数6】
【0042】
である。このとき、対応するリファレンスフレームシーケンスは(2)式より以下のようになる。
【0043】
【数7】
【0044】
時刻tにおいてはK(m(t))個のレファレンスフレームが存在する。これをt-Tからtまでの長さTの区間で、横軸が参照動画像のフレーム番号uとして、縦軸を各レファレンスフレームののヒストグラムh(t,u)として(図1参照)、各リファレンスフレーム番号に対応するセロノイド番号が何度ヒットされたかの統計を求める。
【0045】
【数8】
【0046】
【数9】
【0047】
【数10】
【0048】
次の時刻t+1になった場合には、これまでのt-Tの時刻に関してのヒストグラムを減少させ、新たなt+1でのヒストグラムを増加させるように、フレーム窓の区間を移動させる。
【0049】
(c)クラスタリング
これまでに作成したヒストグラムを基にフレーム単位でのクラスタリングを行う。本実施形態でのクラスタリングは設定したスレッショルド(しきい値)よりも大きい区間[Cmin,Cmax]をクラスタとして検出する(図1参照)。
【0050】
上述のデータ系列検索方法にしたがって、パーソナルコンピュータにより動画像検索の実験を行った。動画像(参照(リファレンス),クエリーとも)にはすでにキャプチャリング、特徴化を行ったものを用いた。特徴化方法は龍谷大学が提唱する60要素からなるベクトルとした。テレビの放映画像200,000フレーム(2時間分)を用いてVQ空間のセントロイド数は13,316であった。
【0051】
参照動画像と同一のクエリー画像を用いて検索を行った結果、少なくともクエリーと同一の区間を参照動画像中で検出することができた。
【0052】
(実施形態2)
上述の実施形態では、フレームの順次性を考慮していないために、参照画像のある一部分のフレーム順序が逆になったような動画像がクエリーとなった場合、参照画像の上記一部分の動画像が検出結果として得られてしまう。そこで、このようなことが無いようにフレームの順次性を考慮した第2実施形態を次に説明する。
【0053】
(1)時間順序性を顧慮したヒストグラムの作成
ヒストグラムの、フレームの時間順序性を考慮した作成方法は以下のとおりである。(7)式に関して、
【0054】
【外3】
【0055】
の代わりに
【0056】
【外4】
【0057】
を考慮した(8) 式を採用する。
【0058】
【数10】
【0059】
ここで
【0060】
【外5】
【0061】
は式(9)の通り。
【0062】
【数11】
【0063】
ここで、
【0064】
【外6】
【0065】
【数12】
【0066】
となる式である。
【0067】
1つめの条件において、
【0068】
【外7】
【0069】
は時刻t-1で存在していたクラスタが参照画像上の時刻の増加方向に伸びる場合、または、時刻t-1でクラスタは存在せず開始点となりうる場合に
【0070】
【外8】
【0071】
となり、それ以外は空となる値である。1つ目の条件では
【0072】
【外9】
【0073】
を漸化的に、今回の
【0074】
【外10】
【0075】
のうち前回伸びていたクラスタの時刻
【0076】
【外11】
【0077】
よりも先になるものが存在する場合に
【0078】
【外12】
【0079】
とする。2つ目の条件では、値
【0080】
【外13】
【0081】
【外14】
【0082】
がクラスタの開始点となりうる参照画像上の時刻で、時刻t-1でのヒストグラム上のフレーム番号
【0083】
【外15】
【0084】
とそのu軸上の2つ前まで、つまり,
【0085】
【外16】
【0086】
におけるヒストグラムの値がそれぞれ0である場合に真となる値である。
【0087】
なお、式中ではクラスタが伸びるための条件として、前回伸びているクラスタから時刻2以内で再びヒストグラムが投票されること、また、新しくクラスタが開始する条件として前回のクラスタから時刻2以上離れていることとしている。
【0088】
(2)クラスタリング
検索結果として参照動画像を求めるクラスタリング時に、時刻tにおいて、
上記(10)式の
【0089】
【外17】
【0090】
で空でないものを探す(クラスタが伸びつづけている)
ヒストグラム中
【0091】
【外18】
【0092】
以前に一定区間Tc(例えばヒストグラム作成のためのTの4分の1)以上連続して非0でない区間を持つ
【0093】
【外19】
【0094】
を探す。
【0095】
該当する
【0096】
【外20】
【0097】
に対応した非0でない区間の開始時刻および
【0098】
【外21】
【0099】
を、それぞれクラスタの開始時刻および終了時刻とする。
【0100】
(3)動画検索アプリの検索結果表示方法
動画像の検索結果の表示例を図2に示す。上記方法でクラスタリングされた空でない
【0101】
【外22】
【0102】
を全て表示していく。
【0103】
時刻tにおいての結果は上記2の方法でクラスタリングしたものであるとする。次の時刻t+1では空でない
【0104】
【外23】
【0105】
を新たに求めることができる。クラスタリングの方法から伸びた差分は
【0106】
【外24】
【0107】
であるから、既に表示してある対応する結果部分にそれぞれに対応する
【0108】
【外25】
【0109】
のうち、最も時刻の進んだフレームを上書きするようにする。表示する位置は、例えば伸びたクラスタの元である対応する
【0110】
【外26】
【0111】
から最も近い画像の位置とする(画像に対応させて最新の
【0112】
【外27】
【0113】
を記憶する)。これを繰り返していくと、クエリーが逐次入力された場合の検索された結果が、動画像として表示されていくことになる。ある時刻において
【0114】
【外28】
【0115】
が空になった場合にはその画像を削除し、他の空でない
【0116】
【外29】
【0117】
に対応する画像でレイアウトし直す。
【0118】
(実施形態3)
上述の実施形態で説明したデータ系列検索方法にしたがって、動画像などのデータ系列と類似する個所を参照データ系列の中から検索(検出)するデータ系列検索装置を次に第3実施形態として説明する。
【0119】
図3は第3実施形態のシステム構成を示す。データ系列検索装置は汎用のパーソナルコンピュータが後述のプログラムを実行することにより実現されるので、パーソナルコンピュータの構成の説明は簡単に留める。
【0120】
図3において、CPU10、システムメモリ11、入出力インターフェース(I/O)12、ハードディスク記憶装置(HDDと略記する)13、入力装置14および出力装置15がバスに記憶されている。なお、バスにはCDROM読取装置(不図示)も接続されている。
【0121】
CPU10は図5に示す処理プログラムを実行してデータ系列の検索を行う。また、オペレーティングシステム(OS)にしたがって、システム制御を行う。
【0122】
システムメモリ11はCPU10が実行すべきプログラムをローディングすると共に、CPU10に対する入出力データを一時記憶する。出力装置15(本例の場合表示装置)に出力するデータもシステムメモリ11に一時記憶される。
【0123】
I/O12を介して、検索対象の動画像、すなわち、クエリーの動画像が外部装置、たとえば、ビデオカメラ等から入力される。HDD13はOS用のプログラムデータ系列検索用のプログラムを保存目的のために記憶する。入力装置14としてはマウスのようなポインティングデバイスおよびキーボードを使用することができる。入力装置14からはCPU10に対する動作指示、本形態の場合には、データ系列検索用のプログラムの起動の指示を入力する。出力装置15は、検索結果を出力する。本実施形態では出力装置15として表示装置を使用するが、他に、プリンタや通信装置を使用することもできる。
【0124】
被検索の対象となる参照動画像はI/O12を介して逐次入力されるものとする。また、上述した量子化により複数のセントロイド、すなわち、画像の特徴が類似するフレーム番号を集めた複数組の集合がテーブルの形態で、HDD13に保存されているものとする。上記テーブルは、図4に示すようにセントロイド番号ごとにそのセントロイドに含まれるフレーム画像のフレーム番号が記載されている。また、各セントロイド番号に対応させて、そのセントロイドを代表するフレーム画像(代表特徴点)の特徴データもテーブルに記載されている。以下、このテーブルを参照テーブルと呼ぶことにする。
図5〜図8を参照して図4のシステムのデータ系列検索動作を説明する。
【0125】
図5はデータ系列検索プログラムのメイン処理手順を示し,図6〜図8はメイン処理手順中の個別処理の詳細を示す。図5の処理プログラムは、入力装置14からのユーザによる起動指示に応じて、HDD13からシステムメモリ11にロードされCPU10により実行される。
【0126】
図5のプログラムが起動されると、CPU10は、外部装置からクエリーの動画像をI/O12を介して入力し、従来と同様にして特徴化して、特徴化された特徴データをシステムメモリ11に一時記憶する(ステップS10)。次に、CPU10はフレーム窓として使用するバッファ(システムメモリ内)にクエリーの動画像の先頭から所定数、説明の便宜上、3枚のフレーム画像を取り込む(ステップS20)。
【0127】
次に、CPU10は取り込んだ3枚のフレー画像の第1枚目のフレーム画像番号を距離計算の対象として設定する(ステップS30)。CPU10は、第1枚目のフレーム画像の特徴が最短距離にある代表特徴データのセントロイド番号を特徴データの距離計算により取得する(ステップS40)。この処理は、図6を使用して後で詳細に説明する。
【0128】
たとえば、セントロイド番号1が取得されると、CPU10は参照テーブルを参照して、セントロイド番号1の集合に含まれる参照動画像のフレーム番号(以下、参照フレーム番号と略記する)を取得する。たとえば、セントロイド番号1の集合には、参照フレーム番号1〜5が含まれているとすると、各参照フレーム番号のヒストグラムの値(得点)を記憶する変数がそれぞれ1だけインクリメントされる。この例では、参照フレーム番号1〜5のヒストグラムのそれぞれの値が初期値0から1にインクリメントされる(ステップS60)。
【0129】
次にCPU10はクエリーのフレーム番号を第1番目のフレーム番号から第2番目のフレーム番号に変更して、フレーム番号の特徴データと類似する代表特徴データを有するセントロイド番号を検出する(ステップS60→S30〜S40)。
【0130】
検出されたセントロイド番号の集合内の参照フレーム番号を参照テーブルから取得すると、参照フレーム番号に対応する全てのヒストグラムの値を1だけインクリメントする(ステップS40)。このようにして、ステップS30〜S60の処理を繰り返して、バッファに格納した3枚のクエリーの特徴データに類似するセントロイドおよびそのセントロイドに含まれる参照フレーム番号を検出する。また、その参照フレーム番号のヒストグラムの値がインクリメントされて行く(図1参照)。
【0131】
バッファに格納された3枚のフレーム画像についてヒストグラムが計算されると、CPU10は手順をステップS10に戻し、バッファをFIFO(ファーストインファーストアウト)する。具体的には、バッファの記憶内容を前送りし、最初の記憶データを破棄して、新しい次のデータ、この場合、第4番目のクエリーのフレーム画像の特徴データをバッファに格納する(ステップS70→S75→S10)。以下、CPU10はステップS30〜S60の手順を繰り返して、第2番目〜第4番目のフレーム画像の特徴データのそれぞれについて、最短距離の代表特徴データを有するセントロイド番号を検出する。また、そのセントロイドに含まれる参照フレーム番号を検出して、ヒストグラムの値をインクリメントする。
【0132】
クエリーの動画像の全てのフレーム画像について、上述の処理を終了すると、CPU10はヒストグラムの値の分布において、ヒストグラムの値がしきい値以上となる山の部分の参照フレーム画像の連続区間を検出する(図1のクラスタ部分)。
【0133】
検出されたフレーム画像の時間軸上の連続区間は参照フレーム番号の形態で与えられるので、CPU10は連続区間の開始の参照フレーム番号と、最終の参照フレーム番号を出力装置15から出力する。
【0134】
図5のステップS40の最短距離のセントロイド番号の検出処理の詳細を図6を参照して説明する。
【0135】
図6において、CPU10は、セントロイド番号を初期値1に設定する(ステップS100)。次に、設定されたセントロイド番号に対応する代表特徴データを参照テーブルから取得する。取得した代表特徴データと、クエリー側の特徴データとの距離計算を従来と同様の計算方法で行う(ステップS110)。
【0136】
距離の計算結果が得られると、これまでに得られた最小の距離計算結果と比較する。なお、距離計算結果が第1回目の場合には、これまでに得られた最小値として予めステップS100で大きな値を初期設定しておけばよい。これにより、セントロイド番号1の特徴データについての距離計算結果が、これまでの最小の距離計算結果としてシステムメモリ11に一時格納される(ステップS120→S130)。
CPU10は手順をステップS140からS100に戻し、セントロイド番号を次の番号、この場合”2”に更新し、セントロイド番号2の代表特徴データと、クエリー側の特徴データとの間の距離を計算する。距離の計算結果は、これまでに得られた最小値と比較され、新たに得られた距離計算結果がこれまでの最小値よりも小さい場合には、新しく得られた距離計算結果が、これまでに得られた最小値に変更される。また、この時使用されたセントロイド番号がシステムメモリ11に更新的に一時記憶される。このようにして、ステップS100〜S140の手順を繰り返して最後のセントロイド番号まで距離計算を繰り返すと、システムメモリ11には、最小の距離計算結果が得られた時のセントロイド番号が一時記憶されていることになる。
【0137】
図5のステップS50のヒストグラム作成処理を図7を参照して説明する。図7において、上述のセントロイド番号検出処理により検出されたセントロイド番号がシステムメモリ11に一時記憶されているので、参照テーブルを参照し、セントロイド番号の示す集合に含まれる参照フレーム番号のヒストグラムの値に対しては、加算値を”1”とし、それ以外の参照フレーム番号のヒストグラムの値に対しては加算値”0”が与えられる(ステップS210)。
【0138】
本実施形態では、参照フレーム番号1から最終の番号まで、参照フレーム番号を更新しながら(ステップS200)、ヒストグラムの値の加算処理を一括して行う(ステップS200〜S230のループ処理)。加算されたヒストグラムの値は、参照フレーム番号に関連付けられてシステムメモリ11内に一時記憶される。
【0139】
図5のクエリー画像と合致(類似も含む)する参照動画像部分の検出処理を図8を参照して説明する。説明の便宜上、図1に示すヒストグラムが作成されているものとする。図8の処理手順はフラグを使用する。このフラグはヒストグラム分布でしきい値以上となる参照フレーム番号の連続性の有無をオン/オフで表す。より具体的には、ヒストグラム分布中で、図1のCminでヒストグラムの値がしきい値を超えると、フラグがオンのままとなり、Cmaxでしきい値以下になるとフラグがオフになる。したがって、フラグがオフからオンに切り替わる時点の参照フレーム番号が検索結果の開始フレーム番号であり、フラグがオンからオフに切り替わる時点の参照フレーム番号が検索結果の最終フレーム番号となる。
【0140】
CPU10は参照フレーム番号を初期値”1”,フラグを初期値オフに設定する(ステップS300)。設定された参照フレーム番号のヒストグラムの値をシステムメモリ11から読み出して、予め定められているしきい値と比較する。図1の例では、参照フレーム番号1のヒストグラムの値は”0”であるので、ステップS310の比較判定ではNO(ヒストグラムの値(得点)はしきい値よりも小)の判定が得られる。
【0141】
このため、手順はステップS310→S311へと進み、フラグがオンであるか否かが判定される。この判定処理は、ヒストグラム分布の値がしきい値より大きい部分から小さい部分に切り替わる個所、すなわち、最終フレーム番号部分を検出するための判定処理である。フラグはオフであるので、判定結果はNOの判定(参照フレーム番号1は最終フレーム番号ではない)が得られる。
【0142】
したがって、手順はステップS311→S340→S300へと進み、処理対象の参照フレーム番号が”2”に更新される。図1を見ると明らかなように、参照フレーム番号2のヒストグラムの値は”0”なので、手順はステップS300→S310→S311→S340→S300の経路を進む。この手順経路はヒストグラムの値がしきい値を超える参照フレーム番号Cminに処理対象の参照フレーム番号が到着するまで繰り返される。
【0143】
処理対象の参照フレーム番号がCminに更新されると、ステップS310のしきい値との比較判定処理で、判定結果がYESとなる。続いて、現在のフラグの判定処理によりフラグがオフであることが確認される。これにより手順は、ステップS310→S320→S330と進み、ここで、フラグがオフからオンに変更される。また、検索結果の開始フレーム番号としてCminがシステムメモリ11に登録され、検査結果部分のフレーム長さが値”1”に初期設定される。
【0144】
手順はステップS330→S340→S300へと進み、処理対象の参照フレーム番号がCmin+1に更新される。図1に示すように、このフレーム位置のヒストグラムの値はしきい値よりも大きいのでステップS310の判定結果はYESとなる。現在のフラグはオンなので、手順はステップS310→S320→S325へと進み、これまでの検索結果部分の長さ”1”に値”1”が加算され、検索結果部分のフレーム長さが”2”に更新される。
【0145】
以後、図1のヒストグラム分布中で、処理対象の参照フレーム番号がCmaxまで、ステップS300〜S325→S340→S300の手順経路が繰り返し実行されて、検索結果部分の長さの計数が行われる。
【0146】
処理対象の参照フレーム番号がCmax+1になると、図1のヒストグラムではヒストグラムの値がしきい値以下となるので、手順はステップS300→S310→S311の経路を進む。フラグはオンになっているので、ステップS311の判定処理はYES判定、すなわち、ヒストグラム分布の山の終了の判定が得られる。本実施形態では雑音除去のためにステップS312の判定処理を設け、ヒストグラム分布の山の時間軸上の長さ(参照フレームの連続の長さ)がしきい値以上となった場合に、参照フレームの連続部分を検索結果として確定している。本例では、ステップS312の判定処理がYES判定となるなるので、現在の参照フレーム番号(Cmax+1)から数値1を引いた値が連続部の終了フレーム番号として、システムメモリ11に登録される。また、フラグがオフされる(ステップS312〜S314).
以下、CPU10は上述の処理手順にしたがって、処理対象の参照フレーム番号を更新しながら(ステップS300)、図1のヒストグラムの山の部分の開始および終了位置(参照フレーム番号)を検出する。
【0147】
検出された参照フレームの開始番号および終了番号が、クエリーについての検索結果として出力される。以上述べた処理手順は第1の実施形態の方法をソフトウェアで実現するが、第2の実施形態についても(9)式〜(11)式を使用して、ヒストグラムのフレームの順次性を確認する処理手順を実行すればよく、詳細な説明を要しないであろう。
【0148】
上述の実施形態の他に次の実施形態を実施できる。
【0149】
1)第1の実施形態ではヒストグラムの山の部分を検出する条件を、
(a)ヒストグラムの値がしきい値以上であること
(b)山の長さがしきい値以上であること
(c)ヒストグラムの分布曲線が連続であること
と定めているが、用途に応じて異なる検出条件を定めてもよい。
【0150】
たとえば、上記(c)の代わりに、2つの山が検出された場合に、前の山の終了位置と後の山の開始位置の間の距離がしきい値以下の場合、2つの山は連続とみなすというような条件を設定することもできる。また、(a)、(b)で使用する閾値の値をキーボード等から入力することにより可変設定すると、検索精度をユーザが調整することができる。
【0151】
2)検索結果の出力の形態は、参照フレームの開始番号および終了番号を文字の形態で出力する方法、参照フレームの開始番号と、以後の参照フレームの枚数を文字の形態で出力する方法、さらにはヒストグラムの分布曲線の形態で図形表示する方法、参照フレーム開始番号〜終了番号までの間の参照部分動画像を表示画面に表示する方法等用途に応じて適宜定めればよい。
【0152】
3)本実施形態ではデータ系列として、動画像を例に説明したが、他のデータ系列、たとえば、音声データやアナログあるいはデジタルの信号波形など、連続的に値が変化する信号,データ系列に対して本発明を適用できる。
【0153】
4)フレーム窓に記憶する特徴データはクエリ画像のフレーム画像が入力されるごとに更新される。そこで、フレーム窓に新たに記憶されたと特徴データと、参照テーブルの代表点の特徴データとの距離計算を行い、その距離計算結果をシステムメモリ11に記憶しておくとよい。これにより、この特徴データがフレーム窓に記憶されている間、この特徴データを使用した距離計算はその都度行う必要はなく、システムメモリ11に一時記憶した距離計算結果を使用することができる。これにより、距離計算時間を短縮することができる。また、フレーム窓に新規に格納されるクエリー画像の特徴データは変化するが前の時刻の特徴データと現在の時刻の特徴データの差分値を求め、この差分値を使用して、前回の距離計算結果に対する補正値を求めることにより、距離計算時間を短縮することもできる。
【0154】
5)図5の処理プログラムを記録しておく記憶媒体は、ROM,RAMのようなICメモリ、ハードディスクのような固定記憶装置、フロッピーディスク、MOなどの携帯用記録媒体とすることができる。また、このような記録媒体に記録された処理プログラムが圧縮されたり暗号化されたとしても、本発明で定義されている記録媒体に該当することは言うまでもない。さらに、図5の処理プログラムが、電話線のような、通信ネットワークや、RS232Cのような通信ケーブルを介して外部装置からデータ系列検索装置にダウンロードされる場合には、外部装置上の図5の処理プログラムを記憶する記憶装置等が本発明の記録媒体に該当する。
【0155】
6)上述した実施形態は本発明を説明するための1実施形態であって、上記実施形態に対して種々の変形を行っても、その変形した実施形態が本願特許請求に範囲に記載した技術思想に合致する場合には、その改良形態は特許権の侵害となる。
【0156】
【発明の効果】
本発明では、時系列的にデータが連続するデータ系列では、データの値が急激に変化することはまれであって、データの特徴が部分的に変化する点に着目し、参照データ系列を構成する複数の参照データを複数の集合に分類しておく。また、各集合を代表する代表参照データが用意される。これら代表参照データとクエリー側のデータ系列の各データとの距離を計算する。従来では参照データ系列の各参照データとクエリー側の各データとの間の距離を計算しなければならなかったので、本発明の方が距離計算回数が大幅に低減される。また、クエリーの画像と類似する代表参照データを有する集合が検出されると、その集合に含まれる参照データで時系列的に連続するものを取得することにより、クエリーに類似する個所についての参照データ系列の中の検索結果とすることができる。
【0157】
さらに、得られた検索結果の中で、データの順次性を調べることにより、データの並び順がクエリーのデータ系列とは逆順となったような部分参照データ系列を検索結果から排除することができる。
【0158】
さらにはヒストグラム分布のような情報処理として計算時間の短い統計的手法を使用して、特定の1以上の集合の中に散在する複数の参照データから時間軸の連続する部分参照データ系列を見かけ上作成することができる。
【0159】
以上の結果、距離計算の計算時間が短縮され、もって、逐次入力されたクエリーのデータ系列(記号化されたデータ系列)をフレームワイズ,リアルタイムに検索することが可能となる。
【図面の簡単な説明】
【図1】本発明第1の実施形態のデータ系列検索方法を説明するための説明図である。
【図2】本発明第2の実施形態の検索結果の出力例を示す説明図である。
【図3】本発明第3の実施形態のシステム構成を示すブロック図である。
【図4】各セントロイドに含まれる参照データのフレーム番号を記載した参照テーブルの一例を示す説明図である。
【図5】CPU10が実行する処理プログラムの内容を示すフローチャートである。
【図6】CPU10が実行する処理プログラムの内容を示すフローチャートである。
【図7】CPU10が実行する処理プログラムの内容を示すフローチャートである。
【図8】CPU10が実行する処理プログラムの内容を示すフローチャートである。
【符号の説明】
10 CPU
11 システムメモリ
12 I/O
13 HDD
14 入力装置
15 出力装置[0001]
BACKGROUND OF THE INVENTION
The present invention is a data series search suitable for detecting a data series in which data changes in time series and a similar data series from a plurality of data series, or detecting from one large data series. apparatusAnd methodsAbout.
[0002]
[Prior art]
In recent years, with the widespread use of DVDs (digital video discs) and digital TV broadcasts, a vast amount of moving image content can be easily obtained even in ordinary households. On the other hand, the performance of PCs (personal computers) and the capacity of storage devices are increasing, and there is an increasing need for capturing PCs or apparatus moving images having PC functions. In this large flow, moving image processing such as retrieval, understanding, and recognition of moving images has become an increasingly important technology.
[0003]
In moving image search, in order for a user to select a desired section from an enormous moving image DB (database), information such as performers and synopses previously provided by the producer, an index manually input by the user, and images A method has been proposed in which an automatically generated index is used as a key.
[0004]
As a first method related to the conventional moving image search, a moving image DB symbolized by the IPM network is described, and the moving image of the query (from which the search is made) is also symbolized, and the corresponding network is A search method has been proposed. (Endo et al., “Modeling of Video by Self-Organizing Network and Visualization of Its Dynamic Features”, Science Technique PRMU 97-78, pp. 49-54, July, 1997).
[0005]
Further, the following documents are related to this method.
[0006]
Yabe et al., “Gesture Recognition Based on Network Structure Correspondence between Gesture Video and Semantic Description Word Sequence”, Japanese Society for Artificial Intelligence (13th), S3-05, pp95-98, June, 1999.
Ito et al., “Reference Interval-free continuous DP (RIFCDP) for spotting by an arbitrary section of a time-series standard pattern,” “Science, VolJ79D-II, No. 9, pp 1474-1483, Step. , 1996.
・ Nishimura et al., “On-line teaching gesture video recognition system for operator adaptation”, “Science Theory, Vol. J81-D-II, no. 8, pp1822-1830, Aug. 1998.
・ Nishimura et al. “Spotting recognition of gestures using low-resolution features using range images”, “Artificial Intelligence Society National Convention (13th) Proceedings, S3-06, pp99-102, June, 1999.
As a second method, there are the following proposals for calculating a moving image DB and a histogram of image feature vectors of a query by active search, and searching for similarity.
[0007]
Kanno et al., “High-speed image / sound sequence search using multimodal active search,” IEICE Technical Report, PRMU 98-80, pp51-58, Sep. 1998.
As a third method, there are the following proposals for symbolizing the characteristics of representative images in units of cuts and using them for retrieval.
[0008]
Nagasaka et al., “High-speed classification method of video scenes based on compression coding of time-series frames”, IEICE theory, VolJ81-D-II, No. 8, pp. 1831-1837, Aug. 1998.
[0009]
[Problems to be solved by the invention]
Since the first method described above performs matching (distance calculation) between each frame of the moving image in the database and each frame of the query moving image, the larger the number of moving image frames, the longer the calculation time for matching. There is a problem that it is difficult to search in real time.
[0010]
The second method does not correspond to an arbitrary input section as in the section-limited CM search, so that query input is sequentially performed in units of frames, and a search is performed each time. Not suitable for time search.
[0011]
Accordingly, an object of the present invention is to perform frame-wise search for a symbol series that is sequentially input of a data series whose data changes in time series, such as moving image data, when performing frame-wise search. Series search deviceAnd methodsIs to provide.
[0012]
[Means for Solving the Problems]
To achieve these goals,The present invention is configured as described in, for example, the claims.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0022]
First, the data series search method of this embodiment will be described with reference to FIG.
[0023]
(First embodiment)
In the present embodiment, in a query frame image that is sequentially input, information processing for search is performed in units of frames while moving a frame window in a certain section along the time axis as shown in FIG. A reference moving image portion similar to a continuous frame image (moving image) is detected. The contents of the search process will be described below.
[0024]
(A) Creation of VQ space by reference moving image
Image feature amounts are acquired in frame units from reference moving images to be compared with query images. In this embodiment, one frame is divided into several, and a feature vector having N (positive integer) elements is obtained using color information or luminance information of the image. Using this feature vector, frames having similar image features are collected to form one set (called centroid), and the moving images are classified into a set group of a plurality of frame images. As a method for classifying images, a known method can be used. In this embodiment, a method called quantization is used. More specifically, if the square error between a feature vector of a certain frame image and all the feature vectors in an already existing set is within a certain distance, that frame image is a comparison target. In the set. If the square error is not within a certain distance, a new set is created with the frame image as a representative feature vector (centroid vector). When the reference moving image is quantized in this way, a plurality of sets as shown in FIG. 1 are formed. The plurality of set groups will be referred to as a VQ space.
[0025]
The centroid vector V (i) is defined as follows. Here, i = 1, 2 ...., M, M are the total number of centroids, and N is the number of feature elements.
[0026]
[Expression 1]
[0027]
In addition, a table Z (i) for storing the frame number τ of the frame image is prepared in order to identify the frame image included in the set. i is an identification number of a centroid (set). The contents of the table Z (i) are expressed by mathematical expressions as follows.
[0028]
[Expression 2]
[0029]
However, K (i) is the total number of reference (reference) frames belonging to the centroid number i. After that
[0030]
[Outside 1]
[0031]
Is
[0032]
[Outside 2]
[0033]
It abbreviates as.
[0034]
(B) Creation of histogram
Assume that a moving image as a query is input in the form of a feature vector in the same manner as the VQ space for each frame. The feature vector f (t) of the query input frame at time t is
[0035]
[Equation 3]
[0036]
The centroid number that minimizes the sum of the square errors between each centroid vector (representative feature vector) in the VQ space and the query frame image is defined as the VQ code m (t) for this frame image.
[0037]
[Expression 4]
[0038]
Input frame sequence during interval T up to time t with t ≧ T
[0039]
[Equation 5]
[0040]
The corresponding VQ code sequence is
[0041]
[Formula 6]
[0042]
It is. At this time, the corresponding reference frame sequence is as follows from equation (2).
[0043]
[Expression 7]
[0044]
At time t, there are K (m (t)) reference frames. This is a section of length T from tT to t, the horizontal axis is the frame number u of the reference moving image, and the vertical axis is the histogram h (t, u) of each reference frame (see FIG. 1). The statistic of how many times the seronoid number corresponding to the frame number has been hit is obtained.
[0045]
[Equation 8]
[0046]
[Equation 9]
[0047]
[Expression 10]
[0048]
When the next time t + 1 is reached, the frame window section is moved so as to decrease the histogram for the time t-T so far and increase the histogram at the
[0049]
(C) Clustering
Clustering is performed in frame units based on the histograms created so far. In the clustering in this embodiment, a section [Cmin, Cmax] larger than the set threshold (threshold) is detected as a cluster (see FIG. 1).
[0050]
In accordance with the above-described data series search method, an experiment of moving image search was performed using a personal computer. We used already captured and characterized moving images (both reference and query). The characterization method was a vector composed of 60 elements proposed by Ryukoku University. The number of centroids in the VQ space using TV broadcast images of 200,000 frames (2 hours) was 13,316.
[0051]
As a result of searching using the same query image as the reference moving image, at least the same section as the query could be detected in the reference moving image.
[0052]
(Embodiment 2)
In the above-described embodiment, since the sequentiality of frames is not taken into consideration, when a moving image in which the frame order of a part of a reference image is reversed is a query, the moving image of the part of the reference image Is obtained as a detection result. A second embodiment that considers the sequentiality of frames so as not to cause this will be described next.
[0053]
(1) Creation of histogram considering time order
A method of creating a histogram in consideration of the time order of frames is as follows. Regarding equation (7)
[0054]
[Outside 3]
[0055]
Instead of
[0056]
[Outside 4]
[0057]
Eq. (8) is taken into consideration.
[0058]
[Expression 10]
[0059]
here
[0060]
[Outside 5]
[0061]
Is as in equation (9).
[0062]
## EQU11 ##
[0063]
here,
[0064]
[Outside 6]
[0065]
[Expression 12]
[0066]
This is an expression.
[0067]
In the first condition,
[0068]
[Outside 7]
[0069]
If the cluster that existed at time t-1 extends in the direction of increasing time on the reference image, or if the cluster does not exist at time t-1 and can be the starting point
[0070]
[Outside 8]
[0071]
The other values are empty. In the first condition
[0072]
[Outside 9]
[0073]
Gradually, this time
[0074]
[Outside 10]
[0075]
Time of the last cluster
[0076]
[Outside 11]
[0077]
If there is something ahead of
[0078]
[Outside 12]
[0079]
And In the second condition, the value
[0080]
[Outside 13]
[0081]
[Outside 14]
[0082]
Is the time on the reference image that can be the starting point of the cluster, and the frame number on the histogram at time t-1
[0083]
[Outside 15]
[0084]
And up to two before the u axis,
[0085]
[Outside 16]
[0086]
This is a value that is true when the histogram values at are 0 respectively.
[0087]
It should be noted that, in the formula, as a condition for the cluster to grow, the histogram is again voted within the
[0088]
(2) Clustering
At the time t when clustering for obtaining a reference moving image as a search result,
Of the above formula (10)
[0089]
[Outside 17]
[0090]
Search for non-empty (cluster continues to grow)
In histogram
[0091]
[Outside 18]
[0092]
Previously has a non-zero interval continuously over a certain interval Tc (eg, 1/4 of T for histogram creation)
[0093]
[Outside 19]
[0094]
Search for.
[0095]
Applicable
[0096]
[Outside 20]
[0097]
The start time of the non-zero interval corresponding to
[0098]
[Outside 21]
[0099]
Are the start time and end time of the cluster, respectively.
[0100]
(3) Search result display method of video search application
A display example of the search result of the moving image is shown in FIG. Non-empty clustered with the above method
[0101]
[Outside 22]
[0102]
Are all displayed.
[0103]
The result at time t is assumed to be clustered by the above two methods. Not empty at next
[0104]
[Outside 23]
[0105]
Can be newly requested. The difference from the clustering method is
[0106]
[Outside 24]
[0107]
Therefore, it corresponds to the corresponding result part already displayed.
[0108]
[Outside 25]
[0109]
Of these, the frame with the most advanced time is overwritten. The position to display corresponds to the origin of the stretched cluster, for example
[0110]
[Outside 26]
[0111]
The position of the image closest to (the latest image corresponding to the image
[0112]
[Outside 27]
[0113]
Remember). If this process is repeated, the search result when the query is sequentially input will be displayed as a moving image. At a certain time
[0114]
[Outside 28]
[0115]
If is empty, delete the image and not other empty
[0116]
[Outside 29]
[0117]
Re-layout with an image corresponding to.
[0118]
(Embodiment 3)
A data sequence search apparatus that searches (detects) a portion similar to a data sequence such as a moving image from a reference data sequence according to the data sequence search method described in the above embodiment will be described as a third embodiment. .
[0119]
FIG. 3 shows a system configuration of the third embodiment. Since the data sequence search apparatus is realized by a general-purpose personal computer executing a program described later, the description of the configuration of the personal computer will be kept simple.
[0120]
In FIG. 3, a
[0121]
The
[0122]
The
[0123]
A moving image to be searched, that is, a moving image of a query is input from an external device such as a video camera via the I /
[0124]
It is assumed that the reference moving image to be searched is sequentially input via the I /
The data sequence search operation of the system of FIG. 4 will be described with reference to FIGS.
[0125]
FIG. 5 shows a main processing procedure of the data series search program, and FIGS. 6 to 8 show details of individual processing in the main processing procedure. The processing program of FIG. 5 is loaded from the
[0126]
When the program shown in FIG. 5 is started, the
[0127]
Next, the
[0128]
For example, when the
[0129]
Next, the
[0130]
When the reference frame number in the set of detected centroid numbers is acquired from the reference table, all histogram values corresponding to the reference frame number are incremented by 1 (step S40). In this manner, the processes in steps S30 to S60 are repeated to detect a centroid similar to the feature data of the three queries stored in the buffer and the reference frame number included in the centroid. Further, the value of the histogram of the reference frame number is incremented (see FIG. 1).
[0131]
When the histogram is calculated for the three frame images stored in the buffer, the
[0132]
When the above processing is completed for all the frame images of the query moving image, the
[0133]
Since the continuous section on the time axis of the detected frame image is given in the form of a reference frame number, the
[0134]
Details of the shortest distance centroid number detection process in step S40 of FIG. 5 will be described with reference to FIG.
[0135]
In FIG. 6, the
[0136]
When the distance calculation result is obtained, it is compared with the minimum distance calculation result obtained so far. If the distance calculation result is the first time, a large value may be initially set in advance in step S100 as the minimum value obtained so far. As a result, the distance calculation result for the feature data of
The
[0137]
The histogram creation process in step S50 of FIG. 5 will be described with reference to FIG. In FIG. 7, since the centroid number detected by the above-described centroid number detection process is temporarily stored in the
[0138]
In this embodiment, the reference frame number is updated from the
[0139]
With reference to FIG. 8, a description will be given of a process of detecting a reference moving image portion that matches (including similarities) with the query image of FIG. For convenience of explanation, it is assumed that the histogram shown in FIG. 1 has been created. The processing procedure of FIG. 8 uses a flag. This flag indicates whether the reference frame number that is equal to or greater than the threshold value in the histogram distribution is on / off. More specifically, in the histogram distribution, when the value of the histogram exceeds the threshold value at Cmin in FIG. 1, the flag remains on, and when Cmax falls below the threshold value, the flag is turned off. Therefore, the reference frame number when the flag is switched from OFF to ON is the start frame number of the search result, and the reference frame number when the flag is switched from ON to OFF is the final frame number of the search result.
[0140]
The
[0141]
For this reason, the procedure proceeds from step S310 to step S311 and it is determined whether or not the flag is on. This determination process is a determination process for detecting a portion where the value of the histogram distribution is switched from a portion larger than a threshold value to a smaller portion, that is, a final frame number portion. Since the flag is off, the determination result is NO (
[0142]
Therefore, the procedure proceeds from step S311 to S340 to S300, and the reference frame number to be processed is updated to “2”. As is apparent from FIG. 1, since the value of the histogram of the
[0143]
When the reference frame number to be processed is updated to Cmin, the determination result is YES in the comparison determination process with the threshold value in step S310. Subsequently, it is confirmed that the flag is off by the current flag determination process. As a result, the procedure proceeds in steps S310 → S320 → S330, where the flag is changed from OFF to ON. Further, Cmin is registered in the
[0144]
The procedure proceeds from step S330 to S340 to S300, and the reference frame number to be processed is updated to
[0145]
Thereafter, in the histogram distribution of FIG. 1, the procedure path of steps S300 to S325 → S340 → S300 is repeatedly executed until the reference frame number to be processed is Cmax, and the length of the search result portion is counted.
[0146]
When the reference frame number to be processed becomes Cmax + 1, the histogram value in the histogram of FIG. 1 is equal to or less than the threshold value, and thus the procedure proceeds along the path of steps S300 → S310 → S311. Since the flag is on, the determination process in step S311 is YES, that is, the determination of the end of the peaks in the histogram distribution is obtained. In the present embodiment, the determination process of step S312 is provided for noise removal, and when the length of the peak of the histogram distribution on the time axis (continuous length of the reference frame) is equal to or greater than the threshold value, the reference frame Are confirmed as search results. In this example, since the determination process in step S312 is YES, the value obtained by subtracting the
Thereafter, the
[0147]
The start number and end number of the detected reference frame are output as a search result for the query. In the processing procedure described above, the method of the first embodiment is realized by software. In the second embodiment, the sequentiality of the frames of the histogram is confirmed using the equations (9) to (11). A processing procedure may be performed and no detailed description will be required.
[0148]
In addition to the above-described embodiment, the following embodiment can be implemented.
[0149]
1) In the first embodiment, the condition for detecting the peak portion of the histogram is
(A) Histogram value is greater than or equal to threshold value
(B) The length of the mountain is greater than or equal to the threshold value
(C) The histogram distribution curve is continuous.
However, different detection conditions may be determined depending on the application.
[0150]
For example, instead of the above (c), when two peaks are detected, if the distance between the end position of the previous peak and the start position of the subsequent peak is equal to or less than the threshold value, the two peaks are continuous. It is also possible to set a condition such as Further, if the threshold value used in (a) and (b) is variably set by inputting from a keyboard or the like, the user can adjust the search accuracy.
[0151]
2) The search result is output in a method of outputting the reference frame start number and end number in the form of characters, a method of outputting the reference frame start number and the number of reference frames thereafter in the form of characters, May be determined as appropriate according to the application such as a method of displaying a graphic in the form of a histogram distribution curve, a method of displaying a reference partial moving image between the reference frame start number and the end number on the display screen.
[0152]
3) In the present embodiment, a moving image has been described as an example of a data series. However, for other data series, for example, a signal or data series whose values continuously change, such as audio data or analog or digital signal waveforms. The present invention can be applied.
[0153]
4) The feature data stored in the frame window is updated each time a frame image of the query image is input. Therefore, it is preferable to calculate the distance between the feature data newly stored in the frame window and the feature data of the representative point of the reference table and store the distance calculation result in the
[0154]
5) The storage medium for recording the processing program of FIG. 5 can be an IC memory such as ROM or RAM, a fixed storage device such as a hard disk, a portable recording medium such as a floppy disk or MO. Further, it goes without saying that even if a processing program recorded on such a recording medium is compressed or encrypted, it corresponds to the recording medium defined in the present invention. Furthermore, when the processing program of FIG. 5 is downloaded from an external device to a data sequence search device via a communication network such as a telephone line or a communication cable such as RS232C, the processing program of FIG. A storage device for storing the processing program corresponds to the recording medium of the present invention.
[0155]
6) The above-described embodiment is an embodiment for explaining the present invention. Even if various modifications are made to the above-described embodiment, the modified embodiment is a technology described in the claims of the present application. If it matches the idea, the improved form would infringe the patent right.
[0156]
【The invention's effect】
In the present invention, in a data series in which data is continuous in time series, it is rare that the value of the data changes suddenly, and the reference data series is constructed by focusing on the fact that the data characteristics change partially. A plurality of reference data is classified into a plurality of sets. In addition, representative reference data representing each set is prepared. The distance between the representative reference data and each data of the data series on the query side is calculated. Conventionally, since the distance between each reference data in the reference data series and each data on the query side has to be calculated, the number of distance calculations is greatly reduced in the present invention. Further, when a set having representative reference data similar to the query image is detected, the reference data included in the set is acquired in a time-sequential manner, thereby obtaining reference data for a portion similar to the query. It can be a search result in the series.
[0157]
Further, by examining the sequentiality of the data in the obtained search results, it is possible to exclude a partial reference data series in which the data arrangement order is reverse to the query data series from the search results. .
[0158]
Furthermore, using a statistical method with a short calculation time as information processing such as histogram distribution, apparently a partial reference data series with continuous time axis from a plurality of reference data scattered in one or more specific sets Can be created.
[0159]
As a result, the calculation time of the distance calculation is shortened, so that it is possible to search the data series (symbolized data series) of the sequentially input query in frame-wise and real-time.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram for explaining a data series search method according to a first embodiment of this invention;
FIG. 2 is an explanatory diagram illustrating an output example of a search result according to the second embodiment of this invention;
FIG. 3 is a block diagram showing a system configuration according to a third embodiment of the present invention.
FIG. 4 is an explanatory diagram showing an example of a reference table in which frame numbers of reference data included in each centroid are written.
FIG. 5 is a flowchart showing the contents of a processing program executed by
6 is a flowchart showing the contents of a processing program executed by
FIG. 7 is a flowchart showing the contents of a processing program executed by
FIG. 8 is a flowchart showing the contents of a processing program executed by
[Explanation of symbols]
10 CPU
11 System memory
12 I / O
13 HDD
14 Input device
15 Output device
Claims (5)
前記参照データ系列を構成する複数の参照データの各々を予め分類し、特徴が類似している参照データ群を1つの集合とする複数の集合および各集合を代表する代表参照データを予め用意し、前記複数の集合の各々と関連付けて、各集合の中に含まれる参照データの時間軸上の位置および代表参照データを予め記憶した記憶手段と,
前記クエリーのデータ系列を入力する入力手段と、
当該入力されたクエリーのデータ系列を構成する複数のデータの各々について、もっとも距離が近い代表参照データを有する集合を検出する第1の情報処理手段と、
当該検出された1以上の集合の中に含まれる参照データの時間軸上の位置に基づいて、前記検出された1以上の集合の中に含まれ、時間軸上で連続する参照データで構成される部分参照データ系列を取得する第2の情報処理手段と
を具え、当該取得された部分参照データ系列を前記クエリーのデータ系列に対する検索結果とすることを特徴とするデータ系列検索装置。In a data series search device that gives a data series in which each data is continuous in time series as a query, and searches a reference data series for locations similar to the data series,
Classifying each of the plurality of reference data constituting the reference data series in advance, preparing a plurality of sets of reference data groups having similar features as one set and representative reference data representing each set; A storage unit that stores in advance a position on the time axis of reference data and representative reference data included in each set in association with each of the plurality of sets;
Input means for inputting a data series of the query;
First information processing means for detecting, for each of a plurality of pieces of data constituting the input query data series, a set having representative reference data closest to the distance;
Based on the position on the time axis of the reference data included in the detected one or more sets, the reference data are included in the detected one or more sets and are composed of continuous reference data on the time axis. And a second information processing means for acquiring the partial reference data series, wherein the acquired partial reference data series is used as a search result for the data series of the query.
前記参照データ系列を構成する複数の参照データの各々が分類され、特徴が類似している参照データ群を1つの集合とする複数の集合および各集合を代表する代表データが予め用意されており、前記複数の集合の各々と関連付けて、各集合の中に含まれる参照データの時間軸上の位置および代表参照データが予めデータ処理装置の記憶手段に記憶されており,
該データ処理装置が有する情報処理手段が前記クエリーのデータ系列を構成する複数のデータの各々について、もっとも距離が近い代表参照データを有する集合を検出する第1のステップと、
前記情報処理手段が当該検出された1以上の集合の中に含まれる参照データの時間軸上の位置に基づいて、前記検出された1以上の集合の中に含まれ、時間軸上で連続する参照データで構成される部分参照データ系列を取得する第2のステップと、
を具え、当該取得された部分参照データ系列を前記クエリーのデータ系列に対する検索結果とすることを特徴とするデータ系列検索方法。A data series search method for providing a data series in which values of each data are continuous in time series as a query, and searching for a location similar to the partial data series in a reference data series,
Each of a plurality of reference data constituting the reference data series is classified, a plurality of sets having a reference data group having similar features as one set and representative data representing each set are prepared in advance. In association with each of the plurality of sets, the position on the time axis of the reference data included in each set and the representative reference data are stored in advance in the storage means of the data processing device,
A first step in which the information processing means included in the data processing device detects a set having representative reference data with the closest distance for each of a plurality of data constituting the data series of the query;
The information processing means is included in the one or more detected sets and is continuous on the time axis based on the position on the time axis of the reference data included in the detected one or more sets. A second step of obtaining a partial reference data series composed of reference data;
The comprising, data sequence search method the acquired partial reference data sequences you characterized in that the search result for the data series of the query.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30174599A JP3916813B2 (en) | 1999-10-22 | 1999-10-22 | Data series search apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30174599A JP3916813B2 (en) | 1999-10-22 | 1999-10-22 | Data series search apparatus and method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2001125903A JP2001125903A (en) | 2001-05-11 |
JP2001125903A5 JP2001125903A5 (en) | 2004-09-16 |
JP3916813B2 true JP3916813B2 (en) | 2007-05-23 |
Family
ID=17900664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30174599A Expired - Fee Related JP3916813B2 (en) | 1999-10-22 | 1999-10-22 | Data series search apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3916813B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5116017B2 (en) * | 2007-08-31 | 2013-01-09 | Kddi株式会社 | Video search method and system |
JP4887264B2 (en) | 2007-11-21 | 2012-02-29 | 株式会社日立製作所 | Voice data retrieval system |
US8311339B2 (en) * | 2008-11-05 | 2012-11-13 | Palo Alto Research Center Incorporated | Method to robustly match images with similar body and head pose from image sequence |
JP5567384B2 (en) * | 2010-05-06 | 2014-08-06 | 株式会社日立製作所 | Similar video search device |
JP5632862B2 (en) * | 2012-02-13 | 2014-11-26 | 日本電信電話株式会社 | Data search device, data search method, and data search program |
JP6220179B2 (en) * | 2013-07-25 | 2017-10-25 | 日本放送協会 | Program search device and program search program |
-
1999
- 1999-10-22 JP JP30174599A patent/JP3916813B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001125903A (en) | 2001-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046586B (en) | Data processing method, device and storage medium | |
US7181127B2 (en) | Image retrieving method and apparatuses therefor | |
KR100708067B1 (en) | Digital video searching device and method thereof | |
KR102576344B1 (en) | Method and apparatus for processing video, electronic device, medium and computer program | |
CN107871001B (en) | Audio playing method and device, storage medium and electronic equipment | |
EP2419861A1 (en) | Key frames extraction for video content analysis | |
CN109740530B (en) | Video segment extraction method, device, equipment and computer-readable storage medium | |
KR20120109591A (en) | Methods and apparatuses for facilitating content-based image retrieval | |
JP3916813B2 (en) | Data series search apparatus and method | |
JP5553152B2 (en) | Image processing apparatus and method, and program | |
CN108966042B (en) | Video abstract generation method and device based on shortest path | |
JP5510012B2 (en) | Image processing apparatus and method, and program | |
JP2009060413A (en) | Method and system for extracting feature of moving image, and method and system for retrieving moving image | |
JP4447602B2 (en) | Signal detection method, signal detection system, signal detection processing program, and recording medium recording the program | |
JP2011053952A (en) | Image-retrieving device and image-retrieving method | |
JP3358692B2 (en) | Video block classification method and apparatus | |
JP2003224791A (en) | Method and device for retrieving video | |
JP2011135126A (en) | Moving image display device, and method and program for displaying moving image | |
JP2004199047A (en) | Method, device, program and recording medium for compressing signal, and method, device, program and recording medium for retrieving signal | |
JP3931890B2 (en) | Video search method and apparatus | |
JP2000341631A (en) | Method and device for retrieving video and storage medium recording video retrieval program | |
JP4550398B2 (en) | Method for representing movement of objects appearing in a sequence of images, method for identifying selection of objects in images in a sequence of images, method for searching a sequence of images by processing signals corresponding to the images, and apparatus | |
JPH08249467A (en) | Device and method for retrieving similar picture | |
CN111339359A (en) | Sudoku-based video thumbnail automatic generation method | |
JP2009049667A (en) | Information processor, and processing method and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060725 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061027 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070207 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100216 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110216 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110216 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120216 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120216 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130216 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130216 Year of fee payment: 6 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |