JPH06101018B2 - 動画像データベースの検索 - Google Patents

動画像データベースの検索

Info

Publication number
JPH06101018B2
JPH06101018B2 JP3242329A JP24232991A JPH06101018B2 JP H06101018 B2 JPH06101018 B2 JP H06101018B2 JP 3242329 A JP3242329 A JP 3242329A JP 24232991 A JP24232991 A JP 24232991A JP H06101018 B2 JPH06101018 B2 JP H06101018B2
Authority
JP
Japan
Prior art keywords
motion
moving image
frame
data
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3242329A
Other languages
English (en)
Other versions
JPH05108730A (ja
Inventor
岡 幹 博 井
川 雅 人 黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP3242329A priority Critical patent/JPH06101018B2/ja
Priority to US07/904,912 priority patent/US5892520A/en
Publication of JPH05108730A publication Critical patent/JPH05108730A/ja
Publication of JPH06101018B2 publication Critical patent/JPH06101018B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】
【産業上の利用分野】本発明は、利用者がマウス等のデ
バイスの空間的な位置を変化させて入力した動きの情報
を検索条件として用いて、動画像の一部分を検索するシ
ステム及び方法に関する。
【0002】
【従来の技術】従来、蓄積された動画像の中からその一
部分であるところのシーンを検索するための方式とし
て、図1に示す如く、検索条件をキーワードで記述する
方式が知られている。その方法によれば、ある動画像
(フレーム列)を動画像データベース12に蓄積する一
方、キーワードを使った検索を念頭において、各シーン
の内容を記述し(ステップ10)、そのシーンの格納アド
レスとともに、内容の記述を予め文字数値データベース
11に登録しておく。検索時には、キーワードを含む検
索条件を入力し(ステップ13)、キーワードと文字数値
データベース11に蓄えられた記述とのマッチングが実
行される(ステップ14)。マッチしたシーンの表示は、
動画像データベース12の、当該シーンの格納アドレス
をアクセスすることによって行われる(ステップ15)。
しかしながら、この方法には、以下に述べるような問題
点が存在する。
【0003】まず、人間が動画像を見て、内容を言葉で
記述しなければならない。これは、多大な労力を要す
る。また、すべての動画像を1人の人間が見るわけでは
ないので、内容記述に個人差ができ、内容の不偏性及び
客観性において問題がある。さらに、利用者は、内容記
述者でない場合が一般であるので、利用者の要求とデー
タベースの記述が一致しない場合が多く存在する。これ
は、検索のヒット率の低下を招く。
【0004】そこで、シーンの内容記述に代えて、動画
像に登場する物体の動き情報に対して検索を試みる研究
がなされている。特開平1ー224875号公報の動画
像情報検索方式では、動画像に登場する物体の物理的な
状態をデータベースに蓄積し、特定の物体の状態変化を
記述する論理的な条件式を使って検索を試みようとする
ものである。物体の状態変化とは、具体的には物体の2
次元座標の時系列であり、それが動き情報データベース
に蓄積される。利用者は、検索条件を言葉で表現すれば
よく、検索条件は自動的に条件式に変換され、条件式に
合致する状態変化をする物体を含むシーンが検索され
る。しかしながら、利用者は物体の動きを言葉または論
理的な条件式で表現しなければならないが、それは困難
である。
【0005】例えば、時刻t1に画面上のある座標(x1,y
1)にあった物体Sが時刻t2に座標(x2,y2)へ曲線を描い
て移動したシーンを、精度よく検索したい場合には、2
つの時刻での時間、位置及び物体がその間を移動したと
いう条件を入力するだけでは足りない。移動途中の位置
や速さも表現しなければならないが、それを利用者が文
字数値で表現しつくすことはほとんど不可能である。
【0006】また、この公報の方式では、物体の名前を
検索条件において特定しなければならない。したがっ
て、物体が登録されている名前を正確に知らなければ、
検索に失敗するという問題点もある。
【0007】さらに、この公報では、動き情報として、
画面上に登場する物体の2次元座標をフレームごとに抽
出することが提案されているけれども、自動抽出の手法
は提示されていない。たとえ、検索者が所望の動きを計
算機に伝える環境が整ったとしても、検索の対象となる
動きの情報を動画像から抽出するのに多大な労力をかけ
ていたのでは、実用的であるとはいい難い。
【0008】
【発明が解決しようとする課題】したがって、本発明の
目的は、動画像の検索を行なう際に、利用者が意図した
動きを検索条件として入力することを可能にし、もって
検索の自由度を高めることである。本発明の他の目的
は、物体の名前を知らなくても、動きを条件とする検索
を可能にすることである。本発明のさらに他の目的は、
動きを条件とする検索の前提となる動き情報データベー
スの構築に自動化手法を導入することによって、人間の
労力を軽減するとともに、蓄積される動き情報の内容の
客観性を確保することである。
【0009】
【課題を解決するための手段】図2は、本発明の処理と
データの流れを示したものである。動画像は、動画像デ
ータベース22に蓄積される一方、画像処理によって動
画像から物体の動きの情報が抽出され、動き情報データ
ベース21に蓄積される。
【0010】動き情報の抽出(ステップ20)は、次の3
つの段階A、B、Cからなる。 A: フレーム列で構成される動画像を、所定の基準
にしたがって、オリジナルよりも短いフレーム列である
部分動画像に分割する。シーンチェンジを分割の基準と
するのが一般的である。
【0011】次のB、Cは、部分動画像ごとに実行され
る。ステップCは省略してもよいけれども、検索の効率
を考えるなら、これを実行するのが好ましい。
【0012】B: まず、画面をブロックに分割し、
その動きを追跡することによって、動きベクトル列を発
生させる。次に、類似した挙動を示す動きベクトル列を
統合することによって、物体の動きを代表するベクトル
列を自動的に生成する。1つの代表動きベクトル列につ
き生成されるデータは、フレーム間変位(代表動きベク
トル)の時系列のほかに、動きの開始フレームの番号、
動きが継続しているフレームの数及び開始フレームでの
動きの開始点の座標値が含まれる。
【0013】C: 次に、代表動きベクトル列データ
を、フレームのサンプリング間隔よりも長い時間間隔で
サンプリングして、動きインデックスを生成する。1つ
の動きインデックスについて生成されるデータは、各々
が当該サンプリング間隔内の動きを表わすベクトルの時
系列のほかに、動きの開始時間、動きの継続時間及び動
きの開始点の座標値が含まれる。
【0014】部分動画像の識別子、動画像データベース
22における該部分動画像の格納場所を示すデータ及び
動きインデックスの3者を関連づけて記憶装置に蓄積す
ることによって、動き情報データベースが構築される。
【0015】動きを条件とした検索を実行するために、
利用者がその空間的な位置を変化させることのできるデ
バイスを使用する。利用者は任意の位置から別の任意の
位置まで該デバイスを移動させることによって、所望の
動きの始点の位置、終点の位置、移動中の位置、及び要
した時間を検索条件として入力する(ステップ23)。動
く物体の名前を入力する必要はない。計算機に入力され
た条件は表示装置のスクリーンに表示される(ステップ
24)。これによって、条件の確認、条件の再入力、編
集を行うことが可能になり、より自由度の高い検索を行
なうことができる。入力された条件と動き情報データベ
ース21に蓄えられた動きのデータとの間でマッチング
が実行され、各シーンの入力条件との類似度が判定され
る(ステップ25)。その結果、類似度の高いシーンから
順に表示される(ステップ26)。
【0016】
【実施例】
1.動き情報の抽出及び動き情報データベースへの蓄積 以下では、図2のステップ20の詳細を、図3に示す処
理の流れにしたがって説明する。
【0017】a)動画像の入力(ステップ31) まず、動画像を、蓄積媒体から処理装置に入力する。動
画像がアナログ信号で蓄積されているならば、予めそれ
をディジタル信号に変換する処理が必要である。
【0018】動画像の動画像データベース22への蓄積
方法は、本発明の要旨に関係しないので、詳細な説明は
省略する。ただ、 動画像データベース22がどのよう
な記憶装置を使ってどのように構築されようとも、本発
明は実施可能であることに留意されたい。画像データの
みならず、絵に同期している音声データ、時間データな
どが動画像データベース22に含まれていて差し支えな
いし、データが適当に圧縮されていても差し支えない。
【0019】実施例では、動画像データベース22に蓄
積されている任意のフレームの画像データにアクセスす
るときに、フレーム番号から動画像データベース22に
おける当該フレーム画像の格納アドレスを生成する。フ
レーム番号から格納アドレスへの変換方法は、表を用い
てもよいし、特願平3ー156214号に開示された方
法を使って、フレーム番号から画像データの格納アドレ
スを算出してもよい。
【0020】b)シーンチェンジの検出(ステップ32) 次に、動画像のシーンチェンジを検出する処理が実行さ
れ、各シーンの開始フレーム番号及びフレーム数が出力
される。本実施例では、シーンチェンジから次のシーン
チェンジまでを1つの期間として、期間ごとに物体の移
動軌跡を求める。シーンチェンジを検出する技術として
は、例えば特開平3ー73076号公報に開示されてい
るような、公知の技術を用いることができる。
【0021】c)動きベクトル列の生成(ステップ33) 以下の処理は、シーン毎に実行される。まず、図4に示
すように、処理対象のシーン(注目シーン)の開始フレー
ムを複数の等しい大きさのブロックに分割する。ブロッ
クの大きさは、通常8x8画素乃至32x32画素である。
【0022】次に、ブロックごとに、現在のフレームと
直前のフレームを比較して、ブロック間の誤差が最小に
なるベクトルを探索し、そのようなベクトルが発見され
たなら、直前のフレームにおける当該ブロックの画面上
の位置と発見されたベクトルとから現在のフレームにお
ける当該ブロックの画面上の位置を算出することを反復
する。実施例では、誤差を下記の式(1)で定義する。
【0023】 ΣΣ{Si(x-dx, y-dy) - Si-1(x,y)}**2 (1) ここで、x,yは画面の座標であり、Si-1(x,y)は第i-1フ
レーム(直前フレーム)における座標(x,y)の画素値であ
り、Si(x,y)は第iフレーム(現在フレーム)における座標
(x,y)の画素値である。**2は二乗を意味する。式(1)のd
x,dyに様々な値を代入してこれを評価し、評価結果を最
小にする2次元ベクトル(dx,dy)をもって、ブロックの
動きベクトルとする。dx,dyに代入する数値の範囲は適
当に定めることができる。
【0024】第iフレームでは、ブロックBjは(x+dx,y+d
y)に移動しているので、座標位置(x+dx,y+dy)を新しい
座標位置(x,y)として第iフレームと第i+1フレームの間
で同様の処理を施し、それらフレーム間での動きベクト
ル(dx,dy)を探索する。
【0025】この処理の結果、図5に示すような、画面
のxy軸と時間軸tを持った3次元空間(Spatio-temporal
space:以下ではST空間と呼ぶ)における、注目ブロッ
クの注目シーンを通しての動きベクトルの列(線)が得ら
れる。生成された動きベクトルの列のうち、xy平面に投
影した動きの存在範囲が小さすぎるもの及び動作時間が
短すぎるものは棄却し、有効な動きを表わすベクトル列
だけを残す。
【0026】なお、物体の中には、1つのシーンの途中
から画面に登場するものもある。そのような物体に対処
するために、実施例では、M(2以上の所定の数)フレーム
毎にxy平面上のブロックの分布をチェックして、ブロッ
クの空白領域があれば、そこに新しいブロックを生成す
る。新しく生成されたブロックを追跡すれば、途中から
登場する物体に関する動きベクトル列を生成することが
できる。
【0027】d)代表動きベクトル列の生成(図3のス
テップ34) 一般に、1つの物体は画面で複数のブロックを占めるの
で、1つの物体に関して複数の動きベクトル列が生成さ
れる。そして、同一の物体に関して生成された動きベク
トル列は類似の挙動を示す。そこで、類似の挙動を示す
ベクトル列を統合して、その物体に関する1つないしは
数個の代表動きベクトル列を生成する。そのためには、
ブロックの動きベクトル列間の距離を導入する必要があ
る。実施例では、動きベクトル列間の距離を下記の式で
定義する。 Σ{(xik-xil)**2 + (yik-yil)**2} (2)
【0028】ここで、xik, yikは、それぞれ第iフレー
ムにおけるブロックBkのx座標、y座標である。また、xi
l, yilはそれぞれ第iフレームにおけるもう一つのブロ
ックBlのx座標、y座標である。フレーム番号iの存在領
域、つまり距離計算を行う範囲は、2つのブロックの動
きベクトル列がオーバーラップして存在する区間とす
る。
【0029】上記式(2)で計算されたブロックの動きベ
クトル列間の距離に基づき、公知のクラスタ分析技術を
適用することにより、互いの距離が短い、つまり類似の
挙動を示すブロックの動きベクトル列を1つのベクトル
列にまとめることができる。例えば、図5に示す4つの
動きベクトル列は、図6に示す1つのベクトル列にまと
められる。このようにして生成されたベクトル列を、代
表動きベクトル列と呼び、代表動きベクトル列を構成す
る個々のベクトル(フレーム間変位)を、代表動きベクト
ルと呼ぶことにする。1つの代表動きベクトル列に関し
て出力されるデータは、動きの開始フレーム番号fs、動
きの継続フレーム数fn、開始フレームでの動きの開始点
の座標値(x0,y0)、及びその座標値を起点とする終止フ
レームまでの代表動きベクトルの列(dxi,dyi) i =
0,..,fn-1 、である。以後、fsとfnは時間としての概念
ts(開始時刻)とtl(動きの継続時間)に置き換えて説明す
る。
【0030】なお、1つの物体の動きから、複数の代表
動きベクトル列が得られることがあることに注意された
い。例えば、図7を使って模式的に説明すると、物体P
が破線で示す位置から実線で示す位置まで180度回転
した場合には、2つの代表動きベクトル列AとBが得ら
れる。
【0031】e)動きインデックスの生成及び登録(図
3のステップ35、36) 次に、実施例では、後述の検索処理の効率化のため、フ
レームのサンプリング間隔よりも長い時間間隔Tintで代
表動きベクトル列のデータをサンプリングする。その結
果生成される粗いベクトル列を動きインデックスと呼ぶ
ことにする。動きインデックスのデータは、以下の3種
類のデータよりなる。(1)開始点座標(Isx,Isy)、(2)開
始時刻及び動きの継続時間(Its,Itl),(3)Tint時間内の
代表動きベクトルの総和の時系列 (Iv0, Iv1,...., Iv
n, ただしIvk=(Ixk,Iyk))である。ここで、 Isx = x0, Isy = y0; Its = ts/Tint, Itl = tl/Tint; Ixk = Σ dxi (3) Iyk = Σ dyi である。
【0032】代表動きベクトル列のフレーム間変位の時
間間隔は、フレームのサンプリング間隔に一致し、通常
は三十分の一秒程度である。しかしながら、動きは滑ら
かに変化する場合が多く、それを知覚する人間側の感覚
も数十分の一秒という単位では働いていない。したがっ
て、より粗い時間間隔でリサンプリングしたデータだけ
を使用しても、検索という目的からは不都合はなく、か
つマッチングのコスト低減にもなる。そこで、実施例で
は、図8に模式的に示すように、シーンごとに、シーン
番号、シーンの開始フレーム番号、及びそのシーンから
抽出された動きインデックスを、動き情報データベース
21に登録する。なお、動き情報データベース21が具
体的にどのような媒体を使う記憶装置上で実現されるか
は、設計事項にすぎないので、説明を省略する。
【0033】2.動きを条件とした検索 以下では、図2のステップ23、24、25及び26の
詳細を、図9に示す処理の流れにしたがって説明する。 a) 検索条件の入力(ステップ91) 人間が見る実際の動画像は2次元上のものであり、また
計算機が処理できる動画像も2次元情報である。そこ
で、実施例では、検索条件の入力のために、図10に示
すように、ディスプレイ画面100上に2次元のパネル
101領域を設定し、利用者に適当なデバイスを動かし
てそこに所望の動きを描いてもらうことにする。本発明
の場合、動きはベクトル列として表現しているため、利
用者はパネル101上に線を描くことになる。パネル1
01にはカーソル(図示せず)を表示し、デバイスの動き
に合わせてカーソルの位置をパネル101上にエコーバ
ックする。計算機側では、パネル101上でのカーソル
の、移動開始点の座標と、移動中の一定の時間ごとの座
標をセンスする。この結果、動作時間と動作中の一定時
間おきの座標値が条件として入力される。
【0034】b) 機械による検索条件解釈結果の表示及
び編集(ステップ92) デバイスを動かして検索条件を入力する場合、利用者が
考えている条件と機械が解釈した検索条件に差が生じる
ことがある。また、複数の検索条件を入力する場合に
は、2つ以上の時系列ベクトル間の時間的な関係(前後
関係等)を考慮する必要があり、複数の条件を同時に指
定することは難しい。したがって、個々の条件を入力し
た後に、その時間的な前後関係や時間の長さの修正等を
インタフェースを介して行い、その結果をプレイバック
して確認するという対話編集機能が必要となる。図10
及び図11に対話編集機能の例を挙げる。ここでは、動
きがスクロールバー110によって象徴され、その先端
位置が動きの開始時刻を示し、その長さが動きの継続時
間を示している。したがって、スクロールバー相互の位
置関係は対応する条件(動き)の時間的な前後関係を示
す。このスクロールバー110の長さを変更したり位置
を動かすことによって、利用者は、検索条件であるとこ
ろの動きの動作時間の長さ、つまり動きの速度を修正し
たり、動き同士の間の前後関係を表現したりすることが
できる。
【0035】具体的には、ボタン111、112はスク
ロールバー110の位置を動かすボタンであり、ボタン
111をピックすれば、スクロールバー110を所定単
位時間分前に動かすことができ、ボタン112をピック
すれば、スクロールバー110を所定単位時間分後に動
かすことができる。また、ボタン113、114は、ス
クロールバー110の長さを変えるボタンであり、ボタ
ン113をピックすれば、スクロールバー110を前に
所定単位時間分延すことができ、ボタン114をピック
すれば、スクロールバー110を後に所定単位時間分延
すことができる。ディスプレイ画面100上でスクロー
ルバー110の上には、"Play S"ボタン106と"Play
A"ボタン107がある。ボタン106をピックすれば、
現在編集中の動きがパネル101上に線104として再
生される。具体的には、物体を象徴する小円103が、
修正された速さで動き、その軌跡が線102として表示
される。また、ボタン107をピックすれば、現在編集
中の動きのすべてが、編集されたとおりの速さ及び前後
関係でパネル101上に再生される。その他、編集用ボ
タンとして、入力された動きをキャンセルするための"R
etry"ボタン104、動きを追加するための"Add"ボタン
105、編集作業を終了するための"Exit"ボタン108
が用意されている。利用者は、これらのボタンを使った
編集操作の繰り返しによって、パネル101上に疑似的
な動画像であるところの検索用シーンを作り上げる。
【0036】上述の入力及び対話編集の結果、パネル1
01上に作られた疑似的な動画像(検索用シーン)中の動
きを表わす、開始時刻、動作時間及び時系列の座標デー
タが得られる。それらデータを時間間隔Tintでリサンプ
リングすることによって、検索用動きデータを生成す
る。
【0037】c) マッチング処理(ステップ93) ステップ92までの処理で、検索用シーンの動きに関す
る記述は、動画像データベース22に蓄積されたシーン
中の動きのそれと同じ形のものとなる。本ステップで
は、それらを用いて、出力候補を決定する。以下、その
ための手順を説明する。
【0038】蓄積されたあるシーンの持つ動きインデッ
クス集合を(SV0,SV1, ...),検索用シーンの持つ動きイ
ンデックス集合を(QV0, QV1, ...)とする。各々の動き
インデックス V は、下記のデータの集合である。 V =(Isx, Isy, Its, Itl, M), M = ( Iv0, Iv1,...., Ivn) (4) ここで Isx,Isyは開始点座標、Its,Itlは開始時刻及び
動きの継続時間,(Iv0,Iv1,....,Ivn, ただしIvk=(Ixk,
Iyk) ) はTint時間内の変位である。
【0039】簡単のために、検索用シーンに含まれる動
きが一つの場合を例にとって説明する。以下の各式にお
いて、検索用シーンの持つ動きに関するデータは先頭に
Qを付け,蓄積シーンの動きに関するデータはSを付けて
表記する。(例.検索側の開始点座標:QIsx, QIsy) 以下
では、検索用シーンに含まれる動きを検索側動きと呼
び、蓄積されたシーンに含まれる動きを蓄積側動きと呼
ぶことにする。
【0040】図10に示す検索インタフェースで作成さ
れた動きのデータは、利用者が"時間tlの間にあるもの
がこの場所からこのように動いた" ということをベク
トル列の形で表現したものと考えられる。この中で提示
されている制約条件は、(1)時間(時間t軸上の位置)、
(2)位置(xy平面上の位置)、(3)動き(ベクトル列)の3種
類である。検索側動きと蓄積側動きの距離dが、以下に
示す手法にしたがって計算され、その結果に基づいて、
両者の類否が判定される。
【0041】(i) 位置や時間に関しての制約条件が利
用者に意識されている場合 QIts及びSItsをST空間上の時間軸の原点に移動して、下
記の式(5)にしたがって距離dを計算する(図12参
照)。
【数1】
【0042】SItl > QItl または SItl < QItlのとき
の式(5)の左辺の定義は、(i)その場で棄却する(d =
無限大 ) (ii)時間的にオーバーラップしている部分の
みに対して計算する等が考えられる。どの定義を採用す
るかは応用事例による。
【0043】(ii) 位置の制約条件が利用者に意識され
ていない場合 例えば、利用者が図13の動きJと動きKを区別しない
で検索したいときである。上記式(5)において位置を決
定する要因である蓄積側動き及び検索側動きのそれぞれ
のIsx,Isyを、ST空間の原点に持ってくることによっ
て、純粋に動き(ベクトル列)のみの比較を行う(図14
参照)。この場合、式(5)においてSIsx, SIsy, QIsx, QI
syの項を取り去ってdを計算する。
【0044】(iii) 時間(動きの速度)に関する制約条
件が意識されていない場合 2つの動きを時間に関して整合させる。すなわち、SItl
とQItlの間での時間合わせを行う。この場合、単純に時
間を線形に変化させるのであれば、QItlの値をSItlに一
致するように伸長もしくは短縮し、それに合わせてベク
トル列QIvk=(QIxk, QIyk)からベクトル列QIvk'=(QIxk',
QIyk')を作り直す。また、非線型に時間の変形を許す
のであれば、公知のDPマッチング等の方法を用いて、
ベクトル列QIvk'=(QIxk',QIyk')をつくる。変形写像を
Fとすると、 QIxk' = F(QIx0, QIx1,.., QIxj ) (6) QIyk' = F(QIy0, QIy1,.., QIyj ) ( k' = 0,1,..., SItl, j = 0, ...., QItl) である。このようにして、QItlをSItlに合わせれば、距
離dは上記の式(5)で計算区間をSItlにして算出できる。
【0045】(iv) 位置と時間に関する制約条件がどち
らも意識されていない場合 図15に示すように、位置と時間の両方に関して、検索
側動きを蓄積側動きに合わせる。
【0046】以上のように、検索条件における位置や時
間に関しての曖昧さが存在する場合は、ST空間でのベク
トル列(線)の変形操作によって検索条件と動きインデッ
クスを比較可能な状態にし、距離を求める。この距離計
算を全ての蓄積されたベクトル列に対して行ない、距離
の小さなものから順にそのベクトル列を持つシーンを出
力候補とする。
【0047】検索条件の曖昧さは、具体的事例によって
その度合が異なると考えられる。そこで、曖昧さを検索
時に陽に指定するインタフェースを用意することが好ま
しい。例えば、検索条件の時間または位置が不定である
ことを、利用者がメニューで指示できるようにし、シス
テム側はその指示に応じて、上記(i)乃至(iv)に示した
手法のいずれかで距離計算を行う。
【0048】複数の検索条件を入力した場合も、上記と
同様の距離計算をすることによって、蓄積側動きと検索
側動きの対応付けられた組ごとに、距離尺度を設けるこ
とができる。ただし、この場合、組合せの数が多くなる
ことを考慮しなければならない。例えば、図16に示す
例では、検索用シーンには、動き Q0, Q1 が含まれ、蓄
積されたシーンには動き S1, S2, S3 が含まれている。
何の条件もつけないなら、検索側の2つの動きと蓄積側
の2つの動きの組合せは下記のように12通り考えら
れ、したがって距離計算を24回実行しなければならな
い。
【0049】 [1] (Q0, S0) [2] (Q0, S1) [3] (Q0, S2) [4] (Q0, S3) (Q1, S1) (Q1, S0) (Q1, S0) (Q1, S0) [5] (Q0, S0) [6] (Q0, S1) [7] (Q0, S2) [8] (Q0, S3) (Q1, S2) (Q1, S2) (Q1, S1) (Q1, S1) [9] (Q0, S0) [10] (Q0, S1) [11] (Q0, S2) [12] (Q0, S3) (Q1, S3) (Q1, S3) (Q1, S3) (Q1, S2)
【0050】そこで、検索側動き間の時間的前後関係や
位置の情報を利用して、組合せの数を絞りこむ。まず、
時間的前後関係の利用について説明する。実施例では、
時間に関しての前後関係を記述する索引ファイルを、予
め同一のシーンにある動きインデックスの開始時刻SIts
の値に基づいて作成しておく。図17に例示する動きイ
ンデックスS0, S1, S2, S3からは、図18のような索引
ファイルが作成される。利用者が検索条件相互の時間的
前後関係を意識している場合には、その索引ファイルを
使って、検索条件と同じ時間的前後関係を有する、蓄積
側の動きインデックスの組を発見する。例えば、図17
に示す検索側動きQ0とQ1の前後関係が意識されていると
する。前後関係を有する蓄積側動きインデックスの組
(対)は、図18の索引ファイルから4個であることがわ
かる。よって、距離計算の対象になる検索側動きと蓄積
側動きの組合せは、以下に示す4通りに絞り込まれる。
【0051】 [1] (Q0, S0) [2] (Q0, S0) [3] (Q0, S1) [4] (Q0, S1) (Q1, S2) (Q1, S3) (Q1, S2) (Q1, S3)
【0052】次に、位置情報の利用について説明する。
実施例では、蓄積された動きインデックスの開始点(SIs
x,SIsy)が、画面を分割して設定された複数の領域のう
ちのいずれに存在するかを記述する索引ファイルを予め
作成しておく。例えば、図19に示す動きS0, S1, S2,
S3からは、S0が領域R1に、S1とS3が領域R2に、S2が領域
R4に関連付けられることを示す索引ファイル(図20)が
作成される。ここで、R1, R2, R3, R4は、xy平面を四等
分して設定された領域である。
【0053】検索側動きの開始点座標が決定したなら、
その付近に開始点がある蓄積側動きのみを距離計算の対
象とすることによって、検索のコストを削減することが
できる。図19に示す例において、検索側動きQ0とQ1の
位置が意識されているとする。Q0とQ1の開始点の座標(Q
Isx,QIsy)から、Q0が領域R1に関連付けられ、Q1が領域R
3に関連付けられることがわかる。したがって、索引フ
ァイル(図20)を調べると、Q0と開始点が近い蓄積側動
きはS0であり、Q1と開始点が近い蓄積側動きは、S1とS3
であることがわかる。よって、距離計算の対象になる検
索側動きと蓄積側動きの組合せは、下記の2通りに絞り
込まれる。
【0054】
【0055】以上のようにして絞りこんだ組合せの各々
について、対応づけられたベクトル間の距離dを算出
し、その和を求める。そのようにして計算した和の最も
小さなものを、そのシーンを代表する距離とする。全て
のシーンに対して距離を計算した後、最も小さなものか
ら順に出力候補とする。
【0056】d) 画像格納アドレスの生成(図9のステッ
プ94) 対照表を使う等の、既述の方法によって、出力候補のシ
ーンの開始フレーム番号を、動画像データベース22に
おける当該フレーム画像の格納アドレスに変換する。
【0057】e) 候補シーンの表示(ステップ95) ステップ93で計算した距離の小さなシーンから順に、
ステップ94で得られた格納アドレスをアクセスして、
その開始フレームの画像データを表示装置(図示せず)に
転送・表示する。利用者は、その開始フレーム(静止画
像)を見て、所望のシーンであるか否かを判断する。動
画像を見たいときは、後続フレームを順次再生すればよ
い。
【0058】3.変形例 以上、本発明を好適な実施例に即して説明したけれど
も、本発明の適用可能な範囲はこれに限られない。ま
ず、動きを入力するデバイスとして使用可能なものは、
マウスに限られない。その空間的な位置を変化させるこ
とにより利用者が動きを表現できるものであれば何でも
よく、例えばデータ・グローブを使ってもよい。
【0059】シーンの検索において、従来のキーワード
検索を併用することも可能である。その場合、シーンに
付与された文字・数値ばかりでなく、検索しようとする
動きを持つ物体の、名前、色、形等の属性を指定しても
よい。もちろん、物体の色を言葉で指定する代りに、色
のメニューから選択してもよい。また、物体の形を指定
するのに、言葉ではなく、マウス等で輪郭を描いて指定
するようにしてもよい。
【0060】上記実施例では、検索の効率の観点から、
代表動きベクトル列は捨てて、それを粗くリサンプリン
グした動きインデックスのみを動き情報データベースに
登録した。しかし、アプリケーションによっては、代表
動きベクトル列のレベルでのマッチングが必要となるこ
ともある。そのような場合には、代表動きベクトル列と
動きインデックスとを動き情報データベースに登録して
おき、まず、動きインデックスのレベルで粗くマッチン
グを実行し、マッチした候補についてさらに代表動きベ
クトル列のレベルでマッチングを実行して、出力候補を
決定すればよい。もちろん、動きインデックスを生成せ
ず、代表動きベクトル列だけを動き情報データベースに
登録し、代表動きベクトル列レベルのマッチングだけを
実行することは可能である。しかし、一般的に、検索コ
ストの点で、実施例の方式の方が有利である。
【0061】また、上記実施例では、動き情報データベ
ースに、物体の動きを表わす時系列のベクトルを登録し
た。しかしながら、時系列のベクトルに代えて、物体の
位置の座標の時系列を登録してもよい。その場合、検索
条件が座標の時系列として入力されるなら、式(5)で定
義される距離に基づくマッチングを行うことができる。
なぜなら、式(5)の中で括弧でくくられた4つの項は、x
y空間の座標を表わしているからである。しかしなが
ら、検索条件の曖昧さに柔軟に対処するためには、実施
例のように、動き情報をベクトルの時系列の形式で蓄積
する方が有利である。
【0062】また、図19及び図20を使って説明した
例では、画面を等しい大きさのブロックR1乃至R4に
分割して索引を作成したけれども、公知のkd-tree等の
手法を用いて、画面を蓄積データの分布に応じた可変ブ
ロックに分割して索引付けを行うことも可能である。
【0063】
【発明の効果】以上、本発明は、人間にとって曖昧な動
きという情報を、デバイスの空間的な位置を利用者が変
化させることにによって、頭に思い描いたままに近い形
で入力することによって、動画像の一部分を検索する環
境を提供するものである。また、そのような検索の前提
となる、画面上に登場する物体の動き情報の自動抽出及
び抽出された情報の動き情報のデータベースへの蓄積方
法、入力された条件と動き情報データベースとのマッチ
ングの方法を併せて提供することによって、動きを条件
とした、利用者に優しく効率のよい動画像の検索を可能
とするものである。
【図面の簡単な説明】
【図1】従来の動画像検索技術における処理とデータの
流れを示すブロック図である。
【図2】本発明における処理とデータの流れを示すブロ
ック図である。
【図3】動き情報抽出処理の流れを示す図である。
【図4】動きベクトル生成処理におけるブロック及びそ
の動きを説明する図である。
【図5】ST空間におけるブロックの動きベクトル列を示
す図である。
【図6】ST空間における代表動きベクトル列を示す図で
ある。
【図7】回転物体から生成される代表動きベクトル列の
例を示す図である。
【図8】動き情報データベースの構成を説明する図であ
る。
【図9】検索処理とデータの流れを示すブロック図であ
る。
【図10】検索条件の編集画面を示す図である。
【図11】検索条件の編集画面の一部を示す図である。
【図12】ST空間で蓄積された動きインデックスと検索
用インデックスの距離の定義の一例を説明する図であ
る。
【図13】2つの動きのXY平面への投影図である。
【図14】ST空間で蓄積された動きインデックスと検索
用インデックスの距離の定義の他の例を説明する図であ
る。
【図15】ST空間で蓄積された動きインデックスと検索
用インデックスの距離の定義のさらに他の例を説明する
図である。
【図16】検索用動きインデックスが複数個ある場合の
蓄積動きインデックスとの対応づけを説明するための図
である。
【図17】検索用動きインデックスが複数個あり、かつ
それらの時間的前後関係を考慮に入れる場合の、蓄積動
きインデックスとの対応づけを説明するための図であ
る。
【図18】蓄積動きインデックスの時間的前後関係を蓄
積する索引ファイルの構成を示す図である。
【図19】検索用動きインデックスが複数個あり、かつ
それらの位置関係を考慮に入れる場合の、蓄積動きイン
デックスとの対応づけを説明するための図である。
【図20】蓄積動きインデックスの位置関係を蓄積する
索引ファイルの構成を示す図である。
【符号の説明】
20 動き情報データベース、 21 動画像データベ
ース
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平1−224875(JP,A) 特開 平1−53379(JP,A) 特開 平3−9393(JP,A) 特開 平5−46683(JP,A) 特開 昭64−12372(JP,A) 特開 平1−205271(JP,A) 特開 平3−52070(JP,A) 特開 平3−38775(JP,A)

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】(a)動画像を蓄積する手段と、 (b)上記蓄積された動画像中に登場する物体の動きのデ
    ータを、上記蓄積された動画像の該動きを含む部分にア
    クセスするためのデータとともに蓄積する手段と、 (c)空間的な位置を変化させることの可能な、所望の動
    きを入力するためのデバイスと、 (d)上記デバイスの位置の変化に応答して、動きのデー
    タを生成する手段と、 (e)上記手段(d)の生成した動きのデータと上記手段
    (b)に蓄積された動きのデータとのマッチングを行う手
    段 を含む、動画像蓄積・検索システム。
  2. 【請求項2】生成された動きのデータを対話式に修正す
    る手段を含む、請求項1記載のシステム。
  3. 【請求項3】上記手段(e)によって入力した動きに類似
    すると判定された動きを含む部分の動画像にアクセス
    し、表示するための手段を含む、請求項1記載のシステ
    ム。
  4. 【請求項4】蓄積された動画像からその一部分を検索す
    るためのシステムであって、 (a)上記蓄積された動画像中に登場する物体の動きのデ
    ータを蓄積するデータベースと、 (b)空間的な位置を変化させることの可能な、所望の動
    きを入力するためのデバイスと、 (c)上記デバイス(b)の空間的な位置の変化に応答し
    て、動きのデータを生成する手段と、 (d)上記手段(c)の生成した動きのデータと上記動き情
    報データベースに蓄積された動きのデータとのマッチン
    グを行う手段 を含む、動画像検索システム。
  5. 【請求項5】1つの動きに関して蓄積または生成される
    データは、動きの開始時刻、動きの継続時間、画面上で
    の動きの開始点の座標及び各々が所定時間内の動きを表
    わすベクトルの時系列である、請求項4記載のシステ
    ム。
  6. 【請求項6】上記手段(d)は、入力した動きの曖昧さに
    関する指示に応じて、マッチングの手法を選択する、請
    求項4記載のシステム。
  7. 【請求項7】部分動画像に含まれる複数の動きの開始時
    刻の前後関係を記述するファイルと、複数の動きが入力
    されたことに応答して、上記ファイルにアクセスし、開
    始時刻の前後関係が入力された動き相互の前後関係と同
    じである同一部分動画像内の複数の動きを検索する手段
    を含む、請求項5記載のシステム。
  8. 【請求項8】蓄積された動きの開始点が、画面を分割し
    て設定された複数の領域のうちのどれに存在するかを記
    述するファイルと、動きが入力されたことに応答して、
    上記ファイルにアクセスし、開始点の存在する領域が同
    じである蓄積された動きを検索する手段を含む請求項5
    記載のシステム。
  9. 【請求項9】蓄積された動画像中に登場する物体の動き
    のデータを、該動きを含む部分の動画像にアクセスする
    ためのデータとともに蓄積する手段と、空間的な位置を
    変化させることの可能な、所望の動きを入力するための
    デバイスを備えた動画像処理システムにおいて、所望の
    部分を検索するための方法であって、 (a)上記デバイスの位置の変化に応答して、動きのデー
    タを生成するステップ、 (b)上記生成された動きのデータと上記蓄積手段に蓄積
    された動きのデータとのマッチングを行うステップ、及
    び (c)上記ステップ(b)で入力した動きに類似すると判定
    された動きを含む部分の動画像にアクセスし、表示する
    ステップ を含む、動画像検索方法。
  10. 【請求項10】蓄積された動画像から所望の部分を検索
    するために、動きを検索条件として入力するためのシス
    テムであって、 (a)動きのデータを入力するための装置と、 (b)スクロールバーの先端位置を動きの開始時刻に、ス
    クロールバーの長さを動きの継続時間にそれぞれ対応さ
    せて、入力された動きを表わすスクロールバーを表示す
    る手段と、 (c)スクロールバーの位置または長さを修正する手段
    と、 (d)スクロールバーの位置または長さの修正に応答し
    て、対応する動きのデータを修正する手段 を含む、入力システム。
  11. 【請求項11】動きを再生する手段をさらに含む、請求
    項10記載のシステム。
  12. 【請求項12】フレーム列によって構成される動画像か
    らそれに含まれる動きの情報を抽出する方法であって、 (a)動画像を所定の基準にしたがってオリジナルのフレ
    ーム列よりも短いフレーム列である部分動画像に分割
    し、 (b)部分動画像の各々について、 (b1)その開始フレームを複数のブロックに分割し、 (b2)分割されたブロックの各々について、現在のフレ
    ームと直前のフレームを比較して、ブロック間の誤差が
    最小になるベクトルを探索し、そのようなベクトルが発
    見されたなら、直前のフレームにおける当該ブロックの
    画面上の位置と発見されたベクトルとから現在のフレー
    ムにおける当該ブロックの画面上の位置を算出すること
    を反復する ことを特徴とする方法。
  13. 【請求項13】所定フレームおきに、画面上でのブロッ
    クの分布を調べ、ブロックの空白領域があれば、該空白
    領域にてブロックを新しく生成するステップを含む、請
    求項12記載の方法。
  14. 【請求項14】フレーム列によって構成される動画像に
    登場する物体の動きの情報を蓄積する動き情報データベ
    ースを構築するための方法であって、 (a)動画像を所定の基準にしたがってオリジナルのフレ
    ーム列よりも短いフレーム列である部分動画像に分割
    し、 (b)部分動画像の各々について、 (b1)その開始フレームを複数のブロックに分割し、 (b2)分割されたブロックの各々について、現在のフレ
    ームと直前のフレームを比較して、ブロック間の誤差を
    最小にする当該ブロックの動きベクトルを探索し、動き
    ベクトルが発見されたなら、直前のフレームにおける当
    該ブロックの位置と該動きベクトルとから現在のフレー
    ムにおける当該ブロックの位置を算出することを反復し
    て、ブロック毎に動きベクトル列を生成し、 (b3)類似する挙動を示す動きベクトル列を1つの動き
    ベクトル列に統合し、 (b4)上記ステップ(b3)の結果生成されたベクトル列
    を当該部分動画像の識別子と関連づけて記憶装置に蓄積
    する ことを特徴とする方法。
  15. 【請求項15】上記ステップ(b3)において、生成され
    たベクトル列をフレームのサンプリング間隔よりも長い
    時間間隔でサンプリングすることを特徴とする、請求項
    14記載の方法。 【0001】
JP3242329A 1991-08-29 1991-08-29 動画像データベースの検索 Expired - Lifetime JPH06101018B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP3242329A JPH06101018B2 (ja) 1991-08-29 1991-08-29 動画像データベースの検索
US07/904,912 US5892520A (en) 1991-08-29 1992-06-26 Picture query system using abstract exemplary motions of a pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3242329A JPH06101018B2 (ja) 1991-08-29 1991-08-29 動画像データベースの検索

Publications (2)

Publication Number Publication Date
JPH05108730A JPH05108730A (ja) 1993-04-30
JPH06101018B2 true JPH06101018B2 (ja) 1994-12-12

Family

ID=17087579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3242329A Expired - Lifetime JPH06101018B2 (ja) 1991-08-29 1991-08-29 動画像データベースの検索

Country Status (2)

Country Link
US (1) US5892520A (ja)
JP (1) JPH06101018B2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
JPH08194714A (ja) * 1995-01-13 1996-07-30 Matsushita Electric Ind Co Ltd 圧縮動画像の検索方法および装置
JPH09293139A (ja) * 1996-04-26 1997-11-11 Nippon Telegr & Teleph Corp <Ntt> ビデオ管理方法及び装置
JP3423834B2 (ja) * 1996-04-26 2003-07-07 日本電信電話株式会社 予測符号化画像データ管理方法及び装置
EP1042736B1 (en) * 1996-12-30 2003-09-24 Sharp Kabushiki Kaisha Sprite-based video coding system
KR100303727B1 (ko) * 1998-04-28 2001-09-24 구자홍 동영상의적응적디스플레이속도자동조절장치와방법
JP4656680B2 (ja) * 1998-11-30 2011-03-23 シャープ株式会社 画像検索情報記録装置及び画像検索装置
KR100442991B1 (ko) * 1999-02-01 2004-08-04 주식회사 팬택앤큐리텔 트리구조의 동영상 색인 기술자를 이용한 검색장치 및 그 방법
DE19906830A1 (de) * 1999-02-18 2000-08-31 Siemens Ag Verfahren und Anordnung zum Abspeichern von mindestens einem Bild durch einen Rechner
US7356082B1 (en) * 1999-11-29 2008-04-08 Sony Corporation Video/audio signal processing method and video-audio signal processing apparatus
US7386170B2 (en) * 2000-06-30 2008-06-10 Texas Instruments Incorporated Image object ranking
JP3760088B2 (ja) * 2000-07-24 2006-03-29 日本電信電話株式会社 動きパターン画像登録装置,表示装置,登録方法,表示方法およびそれらのプログラム記録媒体
JP2002281505A (ja) * 2001-03-16 2002-09-27 Toshiba Corp 動画像圧縮装置、同装置のカット検出用データ作成方法およびカット位置データ作成方法ならびにカット検出装置および同装置のカット検出方法
US7240299B2 (en) * 2001-04-26 2007-07-03 International Business Machines Corporation Method for improving usage of a graphic user interface pointing device
JP3735552B2 (ja) * 2001-09-28 2006-01-18 株式会社東芝 時空間領域情報の処理方法
US7599913B2 (en) * 2003-03-04 2009-10-06 Avaya, Inc. Time series monitoring system
JP2006048657A (ja) * 2004-07-02 2006-02-16 Matsushita Electric Ind Co Ltd 検索キーワード入力端末、検索キーワード統計処理サーバ装置及び検索キーワード利用端末
JP4973281B2 (ja) * 2007-03-30 2012-07-11 株式会社日立製作所 情報検索装置及びその表示方法
US8588583B2 (en) * 2007-08-22 2013-11-19 Adobe Systems Incorporated Systems and methods for interactive video frame selection
JP4505760B2 (ja) * 2007-10-24 2010-07-21 ソニー株式会社 情報処理装置および方法、プログラム、並びに、記録媒体
JP4568357B2 (ja) * 2008-06-30 2010-10-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 動画データから検索対象である動画コンテンツを含むシーンを検索するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム
US20100165123A1 (en) * 2008-12-29 2010-07-01 Microsoft Corporation Data-Driven Video Stabilization
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法
JP4874425B1 (ja) 2010-12-28 2012-02-15 オリンパスイメージング株式会社 再生装置および撮像装置
MX2013014731A (es) * 2011-06-17 2014-02-11 Thomson Licensing Navegacion de video a traves de ubicacion de objetos.
JP5248685B1 (ja) * 2012-01-20 2013-07-31 楽天株式会社 動画検索装置、動画検索方法、記録媒体、ならびに、プログラム
JP6219808B2 (ja) * 2014-12-03 2017-10-25 日本電信電話株式会社 映像検索装置の動作方法、映像検索方法および映像検索装置
JP6649231B2 (ja) 2016-11-18 2020-02-19 株式会社東芝 検索装置、検索方法およびプログラム
US20180204344A1 (en) * 2017-01-17 2018-07-19 Thika Holdings Llc Method and system for data encoding from media for mechanical output
JP6822906B2 (ja) * 2017-06-23 2021-01-27 株式会社東芝 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法
WO2019078164A1 (ja) * 2017-10-16 2019-04-25 日本電気株式会社 検索装置、端末装置、解析装置、検索方法、端末装置の動作方法、解析方法及びプログラム
CN110263206A (zh) * 2019-06-12 2019-09-20 山东环渤海艺术大数据科技有限公司 一种书画装裱定制方法及系统
KR102618732B1 (ko) * 2019-08-27 2023-12-27 엘지전자 주식회사 얼굴 인식 활용 단말기 및 얼굴 인식 활용 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4600919A (en) * 1982-08-03 1986-07-15 New York Institute Of Technology Three dimensional animation
JPH0673573B2 (ja) * 1982-10-29 1994-09-21 株式会社セガ・エンタ−プライゼス ビデオゲーム機における2次元メモリ方法
GB8616470D0 (en) * 1985-11-05 1986-08-13 Hilton C Optical scanner
US4797836A (en) * 1986-11-19 1989-01-10 The Grass Valley Group, Inc. Image orientation and animation using quaternions
US5189402A (en) * 1987-05-14 1993-02-23 Advanced Interaction, Inc. Content addressable video system for image display
US4952051A (en) * 1988-09-27 1990-08-28 Lovell Douglas C Method and apparatus for producing animated drawings and in-between drawings
JP2664240B2 (ja) * 1989-03-17 1997-10-15 株式会社日立製作所 画像データの登録検索方式
JP2995745B2 (ja) * 1989-03-31 1999-12-27 ソニー株式会社 動き情報抽出装置
GB8914843D0 (en) * 1989-06-28 1989-08-16 British Aerospace A method of processing video image data for use in the storage or transmission of moving digital images
JP2953712B2 (ja) * 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
JPH03117991A (ja) * 1989-09-29 1991-05-20 Victor Co Of Japan Ltd 動きベクトル符号化装置及び復号化装置
US5214758A (en) * 1989-11-14 1993-05-25 Sony Corporation Animation producing apparatus
US5099322A (en) * 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method
US5252953A (en) * 1990-05-22 1993-10-12 American Film Technologies, Inc. Computergraphic animation system
US5237648A (en) * 1990-06-08 1993-08-17 Apple Computer, Inc. Apparatus and method for editing a video recording by selecting and displaying video clips
JP2977260B2 (ja) * 1990-09-27 1999-11-15 株式会社東芝 情報提示装置
US5287446A (en) * 1990-10-15 1994-02-15 Sierra On-Line, Inc. System and methods for intelligent movement on computer displays
US5121191A (en) * 1991-03-15 1992-06-09 Aware, Inc. Method and apparatus for coding motion pictures

Also Published As

Publication number Publication date
US5892520A (en) 1999-04-06
JPH05108730A (ja) 1993-04-30

Similar Documents

Publication Publication Date Title
JPH06101018B2 (ja) 動画像データベースの検索
JP5139716B2 (ja) 画像検索装置及び画像検索方法
JP3615657B2 (ja) 映像検索方法及び装置ならびに記録媒体
JP4226730B2 (ja) 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
KR100415266B1 (ko) 물체영역정보 기술방법과 물체영역정보 생성장치 및 기록매체
US6021231A (en) Video retrieval method and apparatus
US8971585B2 (en) Image processing apparatus for retrieving object from moving image and method thereof
EP1164542A1 (en) Method and device for describing video contents
JP2004240750A (ja) 画像検索装置
JP4536940B2 (ja) 画像処理装置、画像処理方法、記憶媒体、及びコンピュータプログラム
JPH0352070A (ja) 動画像の関連情報参照方式
EP0636994B1 (en) Method of and apparatus for retrieving dynamic images and method of and apparatus for managing images
JP2002182914A (ja) 画面遷移表示装置、画面遷移表示方法および記憶媒体
JP3978962B2 (ja) 情報検索方法および情報検索装置
JP2001118075A (ja) 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JPH07200632A (ja) 情報処理装置
JPH08329281A (ja) 画像表示方法
JPH0520366A (ja) 動画像照合方法
JP3907344B2 (ja) 動画アンカー設定装置
JPH0680510B2 (ja) 画像情報検索装置
JP3330348B2 (ja) 映像検索方法及び装置並びに映像検索プログラムを記録した記録媒体
JP5047102B2 (ja) 3次元動画像再生装置及び付加情報検索方法とプログラム
JPH10187759A (ja) 動画アンカー表示、選択、設定装置および動画アンカーを用いた動画ハイパーメディア装置と動画提供システム
US6298155B1 (en) Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon
JP2004240751A (ja) 画像検索装置