JPH03282779A - Animation picture retrieving device - Google Patents

Animation picture retrieving device

Info

Publication number
JPH03282779A
JPH03282779A JP2081111A JP8111190A JPH03282779A JP H03282779 A JPH03282779 A JP H03282779A JP 2081111 A JP2081111 A JP 2081111A JP 8111190 A JP8111190 A JP 8111190A JP H03282779 A JPH03282779 A JP H03282779A
Authority
JP
Japan
Prior art keywords
image
moving image
information
search
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2081111A
Other languages
Japanese (ja)
Inventor
Miwako Doi
美和子 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2081111A priority Critical patent/JPH03282779A/en
Publication of JPH03282779A publication Critical patent/JPH03282779A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To retrieve a desired picture without previously adding a key word by using arbitrary picture information forming an animation picture stored in an animation picture storing means as retrieval instructing information. CONSTITUTION:Retrieval instructing information is inputted by an input means 1 in order to retrieve desired picture information from an animation picture storing means 4 storing an animation picture comprising time series picture information. The collation between the retrieval instructing information by the input means 1 and the animation picture stored in the animation picture storing means 4 is carried out by a collating means 3. As for the retrieval instructing information inputted by the input means 1, characters, numeric characters, graphics and picture itself are used. Thus, the animation picture can be retrieved by the arbitrary retrieval instructing information without previously adding a key word to the animation picture.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、動画像を記憶している媒体から利用者が所定
の画像を検索する際に、利用者が入力した検索指示情報
で検索を行なう動画像検索装置に関する。
[Detailed Description of the Invention] [Objective of the Invention] (Industrial Application Field) The present invention provides a method for searching for a predetermined image from a medium storing moving images. The present invention relates to a moving image search device that performs a search using instruction information.

(従来の技術) ビデオテープやCD(コンパクト、ディスク)などの記
憶媒体に記録された動画像から所望の画像情報を検索す
る従来の動画像検索装置では、多くのデータベースと同
様に、検索に用いるキーワードをあらかじめ、付加して
おくことが必要である。そして検索の際にはこのキーワ
ードを入力する。すると入力したキーワードの有無を調
べ、そのキーワードがあれば画像表示第10図に付加さ
れたキーワードと対応するフレーム番号との記憶形式の
一例を示す。これはビデオテープの巻数1001゜フレ
ーム番号1002.キーワード1003.記録口100
4からなる。今、利用者から「巨人」をキーワードとし
て検索するよう指示があると、第1θ図のキーワード1
003の欄に同じ「巨人」のキーワードがあるかどうか
を調べ、同じキーワードがあれば検索成功として、例え
ばそのフレームを出力する。第10図の例では、第1巻
第1フレームがこれに該当る。利用者は、出力されたフ
レーム番号から再生するように指示すれば「巨人」とい
うキーワードのついた画像情報としての試合あるいはそ
の放遂ニュースを見ることができる。しかし前記キーワ
ード付加型の動画像検索装置では、あらかじめ付加され
ていないキーワードを使って検索することができない。
(Prior Art) In conventional video image search devices that search for desired image information from video images recorded on storage media such as video tapes and CDs (compacts, discs), similar to many databases, the It is necessary to add keywords in advance. Enter this keyword when searching. Then, the presence or absence of the input keyword is checked, and if the keyword is present, the image is displayed. An example of the storage format of the keyword and the corresponding frame number is shown in FIG. This is the videotape roll number 1001° and frame number 1002. Keyword 1003. Recording port 100
Consists of 4. Now, when a user instructs us to search for "giant" as a keyword, keyword 1 in Figure 1θ
It is checked whether the same keyword "giant" exists in the column 003, and if there is the same keyword, the search is considered successful and, for example, that frame is output. In the example of FIG. 10, this corresponds to the first frame of the first volume. If the user instructs playback from the output frame number, the user can view the match or its performance news as image information with the keyword "Giants". However, in the keyword-added video image search device, it is not possible to search using keywords that have not been added in advance.

例えば、第10図の例で、試合の行われた球場名で検索
したいと思い、「東京ドーム」と入力しても、キーワー
ドには球場名が含まれていないので、検索は失敗に終わ
る。このようなキワード付加型の動画像検索装置の難点
を解決するために、地図などの静止画像に対して、スケ
ッチ画により検索する手法が提案されている。(岡崎彰
夫他r Human Interface J 198
9.Vol、4N & RP、181〜P、188参照
)。このスケッチ画による検索は、地図のように対象と
する事物の位置関係が明確な場合には有効である。しか
し、野球試合や歌謡番組などのテレビ番組や、子供の運
動会や学(3) 芸会などからなるビデオテープのようにランダムに収録
された動画像を検索することができないという問題点が
あった。
For example, in the example shown in Figure 10, if you want to search by the name of the stadium where the game was played and enter "Tokyo Dome," the search will fail because the keyword does not include the stadium name. In order to solve the problems of such a keyword addition type video image search device, a method has been proposed in which a still image such as a map is searched using a sketch image. (Akio Okazaki et al. Human Interface J 198
9. Vol, 4N & RP, 181-P, 188). This search using sketch images is effective when the positional relationship of target objects is clear, such as on a map. However, there was a problem in that it was not possible to search for randomly recorded video images such as TV programs such as baseball games and pop songs, or videotapes of children's sports days and school performances. .

(発明が解決しようとする課題) 以上述べたように、従来の動画像検索装置では検索を行
なうためにあらかじめキーワードなどの情報を付加して
おく必要である。又、地図のように事物の位置関係が確
定しているものに対しては、あらかじめキーワードを付
加することなく、スケッチ画により検索することが可能
であったが、この手法で検索できる対象はかなり限定さ
れているという問題点があった。
(Problems to be Solved by the Invention) As described above, in the conventional moving image search device, it is necessary to add information such as keywords in advance in order to perform a search. In addition, it was possible to search for objects such as maps, where the positional relationship of objects is fixed, by using sketches without adding keywords in advance, but there are quite a few objects that can be searched using this method. The problem was that it was limited.

本発明は上述した問題点を解決するためのものであり、
動画像から所望の画像情報を検索する際、任意の検索指
示情報より検索を行なう動画像検索装置の提供を目的と
する。
The present invention is intended to solve the above-mentioned problems,
An object of the present invention is to provide a moving image search device that performs a search based on arbitrary search instruction information when searching for desired image information from a moving image.

[発明の構成] (課題を解決するための手段) 上述した目的を達成するために、本発明の動画像検索装
置では、 (4) 時系列の画像情報からなる動画像を記憶するための動画
像記憶手段と、 検索指示情報を入力する入力手段と、 この入力手段により入力された検索指示情報と前記動画
像記憶手段に記憶している動画像との照合を行なう照合
手段とを備える。
[Structure of the Invention] (Means for Solving the Problems) In order to achieve the above-mentioned object, the moving image retrieval device of the present invention provides: (4) a moving image search device for storing moving images consisting of time-series image information; The apparatus includes: an image storage means, an input means for inputting search instruction information, and a collation means for comparing the search instruction information inputted by the input means with the moving image stored in the moving image storage means.

そして、前記入力手段は検索指示情報として前記動画像
記憶手段に記憶している動画像を構成する任意の画像情
報を入力するものである。
The input means inputs arbitrary image information constituting a moving image stored in the moving image storage means as search instruction information.

なお、前記画像情報とは、前記動画像記憶手段に記憶し
ている動画像を構成している文字、数字。
Note that the image information refers to characters and numbers that constitute the moving image stored in the moving image storage means.

図形9画像そのもの等である。The figure 9 is the image itself, etc.

(作用) 上述した構成による本発明の動画像検索装置によれば、
時系列の画像情報からなる動画像を記憶している動画像
記憶手段から所望の画像情報の検索を行なうために検索
指示情報の人力を入力手段により行なう。この入力手段
による検索指示情報と前記動画像記憶手段に記憶してい
る動画像との照合を照合手段により行なう。ここで、前
記入力手段が入力する検索指示情報は前記動画像記憶手
段に記憶している動画像を構成する文字、数字。
(Operation) According to the moving image search device of the present invention configured as described above,
In order to search for desired image information from a moving image storage means that stores moving images consisting of time-series image information, human input of search instruction information is performed using an input means. The search instruction information input by the input means is compared with the moving image stored in the moving image storage means by a matching means. Here, the search instruction information inputted by the input means includes characters and numbers constituting a moving image stored in the moving image storage means.

図形や画像そのもの等である。つまり、あらかじめ動画
像にキーワードを付加することなく、任意の検索指示情
報で動画像の検索を行なうことができる。
These include figures and images themselves. In other words, it is possible to search for moving images using arbitrary search instruction information without adding keywords to moving images in advance.

(実施例) 以下、図面を参照して本発明の一実施例について説明す
る。
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図は本発明の一実施例の動画像検索装置のブロック
図である。
FIG. 1 is a block diagram of a moving image search device according to an embodiment of the present invention.

ビデオテープやCDなど時系列の画像情報を記憶する媒
体からなる動画像記憶部4と、動画像記憶部4を再生し
た結果を表示するモニタなどからなる表示出力部2と、 動画像記憶部4より検索したい画像を、直接入力するた
めのスキャナなどの画像入力手段あるいは間接に表示出
力部2上に表示されている画像を部分的に指示するため
のマウスなどのポインティング、デバイスなどからなる
入力部1と、入力部1より入力あるいは指示されたキー
画像を保持するためのキー画像記憶部6とがある。パタ
ーンマツチング部5は、画像間の相関度(類似性)を複
合類似度法等を用いて算出するもので、画像処理部7は
、空間的変換であるところのアフィン変換、エツジ抽出
など、画像間の相関度を算出するのに必要な前処理を行
なうためのものであり、情報管理部3は、これらの情報
のやりとりを管理し、実際の検索を実行するものである
。つまり、動画像記憶手段が動画像記憶部4であり、入
力手段が入力部2.キー画像記憶部6であり、照合手段
がパターンマツチング部51画像処理部7.情報管理部
3である。以下、第2図の情報管理部3の動作を説明す
るためのフローチャートに従って、検索指示情報が野球
選手の顔であり、これが入力部1のスキャナで入力され
ている場合を例に本発明の動画像検索装置の動作につい
て述べる。情報管理部3は、入力部1より検索開始の指
示が与えられると、キー画像記憶部6に記憶されたキー
画像を画像処理部7に送り、まず輝度の計算、色調の計
算、エツジ抽出 (7) を行う(ステップ5201) 、輝度の計算はキー画像
の輝度の計算を行なう。今、検索キーなる野球選手の顔
の輝度をBとする。色調の計算は、キー画像中で最大の
面積を有する色を求めるもので、例えば、人間(野球選
手)の顔がキーであれば、(茶色に近い)肌色が色調と
なる。そしてこの色調をCとする。エツジ抽出は、キー
画像を2値化することにより求められるが、例えば、第
3図のような人間の顔の輪郭と目、鼻などの部分が線と
して抽出される。次に動画像記憶部4に記憶された動画
像をフレーム毎に呼び出す。このために、変数iの初期
値を0とする(ステップ5202)そして、1フレーム
から順次呼び出すために1をだす(スタップ8203)
。なお、フレームとは画像を構成する最小単位の静止画
があり、1秒間の画像は例えば30フレームで構成され
る。そして各フレームは微妙に異なっており、このフレ
ームが集まって画像となり、画像が集まって動画像とな
る。そして第1フレームがあるかどうかを判断しくステ
ップ5204) 、フレームがなければ記録媒体を変換
(8) したり、検索の終了等の処理を行なう。今、imlであ
り、第iフレームはあるので次のステップに進む。ここ
で、第iフレームに対して、画像処理部7にて色調計算
を行なう(ステップ8205)。
A moving image storage section 4 consisting of a medium for storing time-series image information such as a videotape or CD; a display output section 2 consisting of a monitor etc. that displays the results of playing back the moving image storage section 4; and a moving image storage section 4. An input section consisting of an image input means such as a scanner for directly inputting an image to be searched for, or a pointing device such as a mouse for indirectly indicating a part of the image displayed on the display output section 2. 1, and a key image storage section 6 for holding key images input or instructed from the input section 1. The pattern matching section 5 calculates the degree of correlation (similarity) between images using a composite similarity method, etc., and the image processing section 7 calculates the degree of correlation (similarity) between images using a composite similarity method, etc., and the image processing section 7 performs spatial transformation such as affine transformation, edge extraction, etc. The information management unit 3 is used to perform preprocessing necessary to calculate the degree of correlation between images, and the information management unit 3 manages the exchange of this information and executes the actual search. That is, the moving image storage means is the moving image storage section 4, and the input means is the input section 2. The key image storage section 6 is the matching means for the pattern matching section 51 and the image processing section 7. This is the information management section 3. Hereinafter, according to a flowchart for explaining the operation of the information management section 3 shown in FIG. The operation of the image retrieval device will be described. When the information management unit 3 receives an instruction to start a search from the input unit 1, it sends the key image stored in the key image storage unit 6 to the image processing unit 7, and first calculates brightness, calculates color tone, and extracts edges ( 7) Perform the following (step 5201): Calculate the brightness of the key image. Now, let B be the brightness of the baseball player's face, which is the search key. The color tone calculation is to find the color that has the largest area in the key image. For example, if the face of a human (baseball player) is the key, the skin tone (close to brown) will be the color tone. This color tone is designated as C. Edge extraction is obtained by binarizing the key image, and for example, the outline of a human face, eyes, nose, etc. as shown in FIG. 3 are extracted as lines. Next, the moving image stored in the moving image storage section 4 is called out frame by frame. For this purpose, the initial value of the variable i is set to 0 (step 5202), and 1 is issued to sequentially call from 1 frame (step 8203).
. Note that a frame is a still image that is the minimum unit of an image, and an image for one second is composed of, for example, 30 frames. Each frame is slightly different, and these frames come together to form an image, and the images come together to form a moving image. Then, it is determined whether or not the first frame exists (step 5204), and if there is no frame, the recording medium is converted (8), the search is terminated, and other processing is performed. Now, since it is iml and the i-th frame exists, proceed to the next step. Here, the image processing unit 7 performs color tone calculation for the i-th frame (step 8205).

パターンマツチング部5は、キー画像の色調Cが、第i
フレームに含まれているかを調べて、(ステップ820
B) 、含まれていれば、次に輝度をキー画像にあわせ
るために、キー画像の輝度Bにより画像処理部7は正規
化を行なう(ステップ5207)。
The pattern matching unit 5 determines that the color tone C of the key image is
Check whether it is included in the frame (step 820
B) If it is included, then the image processing unit 7 performs normalization using the brightness B of the key image in order to match the brightness with the key image (step 5207).

なお、第iフレームにキー画像の色調Cが含まれていな
ければ1秒後の画像から検索するために30フレームは
どとばす(ステップ5211)。その後、色調Cを含む
部分のエツジ抽出を行う(ステップ8208)。パター
ンマツチング部5は、キー画像と第iフレームのエツジ
画像の相関度を算出する。
Note that if the i-th frame does not include tone C of the key image, 30 frames are skipped in order to search from an image 1 second later (step 5211). Thereafter, edges are extracted from the portion including tone C (step 8208). The pattern matching unit 5 calculates the degree of correlation between the key image and the edge image of the i-th frame.

このとき、適宜、画像処理部7によりアフィン変換を実
行して、相関度を算出しやすいようにする。
At this time, the image processing unit 7 appropriately performs affine transformation to facilitate calculation of the degree of correlation.

例えば、第iフレームの肌色部分をエツジ抽出した結果
は第4図のようになる。中央はピッチャ−の腕にあたり
、左下部分がバターの顔とバットにあたっている。ここ
でキー画像のエツジ画像と相関が高いかどうかを判断す
る(ステップ8209)。
For example, the result of edge extraction from the skin color portion of the i-th frame is shown in FIG. The center part is the pitcher's arm, and the lower left part is the butter's face and bat. Here, it is determined whether the key image has a high correlation with the edge image (step 8209).

中央のエツジ画像は、アフィン変換しても、第3図のキ
ー画像との相関度は、はとんどOであるが、左下のエツ
ジは、回転により、高い相関度となるので、このフレー
ム番号が、例えば、第5図のように記憶される(ステッ
プ5210)。なお、キー画像のエツジ画との相関度が
高くない場合は、ステップ8206と同様に30フレー
ムをとばす(ステップ5211)。ステップ8211の
後1秒後の画像から又、検索をするために、フレームを
例えば30フレームとばす(ステップ8212)。
Even if the center edge image is affine transformed, the correlation with the key image in Figure 3 is mostly O, but the lower left edge has a high correlation due to rotation, so this frame The number is stored, for example, as in FIG. 5 (step 5210). Note that if the degree of correlation between the key image and the edge image is not high, 30 frames are skipped as in step 8206 (step 5211). For example, 30 frames are skipped from the image 1 second after step 8211 to perform a search (step 8212).

以上の処理を第1フレーム、つまり最終フレームまで行
ない、検索が終了すると情報管理部3は、動画像記憶部
4より第5図のフレーム番号を参照しながら、表示出力
部32に表示する。このとき、例えば、第108番目の
フレームから表示すると、勘心のキー画像を含むフレー
ムを見逃してしまうおそれがあるので、例えば、0.5
秒にあたる15フレームさかのぼった93フレーム目か
ら、例えば、1.5秒間(45フレーム)を、表示する
ように制御する。このように表示制御することにより、
生画像を含むフレームを見逃すことのないようにできる
。以上の実施例では、エツジ画像により相関度を求めて
いるが、モノクロ画像等により相関度を求めることも可
能である。なお、モノクロ化画像を用いると色調の計算
は不要となる。
The above processing is performed up to the first frame, that is, the last frame, and when the search is completed, the information management section 3 displays it on the display output section 32 while referring to the frame number in FIG. 5 from the moving image storage section 4. At this time, for example, if you display from the 108th frame, there is a risk that you will miss the frame containing the key image of interest, so for example, 0.5
Control is performed to display, for example, 1.5 seconds (45 frames) from the 93rd frame, which is 15 frames back, which corresponds to seconds. By controlling the display in this way,
You can avoid missing frames containing raw images. In the above embodiments, the degree of correlation is determined using edge images, but it is also possible to determine the degree of correlation using monochrome images or the like. Note that when a monochrome image is used, color tone calculation is not necessary.

第2の実施例 第1の実施例では、表示の変化などにより同じ顔でも、
エツジ画像が大きく変化する。このため、アフィン変換
では吸収できないケースが多々ある。
Second Embodiment In the first embodiment, even if the same face
The edge image changes significantly. For this reason, there are many cases that cannot be absorbed by affine transformation.

第2の実施例は、このような問題点を解決するため、動
画像に含まれる。例えば背番号などの数字や、矩形など
の線図形を、文字や記号として認識できるようにしたも
のである。
The second embodiment is included in moving images in order to solve such problems. For example, numbers such as jersey numbers and line figures such as rectangles can be recognized as characters and symbols.

第6図に本発明の一実施例による動画像検索装置のブロ
ック図を示す。
FIG. 6 shows a block diagram of a moving image search device according to an embodiment of the present invention.

第11図との相違点は、文字、数字や線図形を認識する
ためのパターン辞書9と、パターン辞書9により、キー
画像を認識した結果を記憶するキー(11) パターン記憶部8が追加されている点である。
The difference from FIG. 11 is that a pattern dictionary 9 for recognizing characters, numbers, and line figures, and a key (11) and pattern storage section 8 for storing the results of recognizing key images using the pattern dictionary 9 have been added. The point is that

以上、上述した構成により、例えば、野球選手をみつけ
るのに、第8図のような背番号が入力部1から入力され
た場合を例に、第7図に示す情報管理部3の動作を説明
するためのフローチャートに従って本発明の動画像検索
装置の動作について述べる。情報管理部3は、そのキー
画像をパターンマツチング部5に送る。そしてキー画像
記憶部6は第8図に示したキー画像を記憶している。す
るとパターンマツチング部5は、パターン辞書9により
認識を行い(複合類似度法などによる)、その結果をキ
ーパターン記憶部8に記憶する(ステップ8701)。
As described above, the operation of the information management section 3 shown in FIG. 7 will be explained using the above-mentioned configuration as an example of a case where a jersey number as shown in FIG. 8 is input from the input section 1 to find a baseball player. The operation of the moving image retrieval device of the present invention will be described according to a flowchart. The information management section 3 sends the key image to the pattern matching section 5. The key image storage section 6 stores the key image shown in FIG. Then, the pattern matching unit 5 performs recognition using the pattern dictionary 9 (by the composite similarity method, etc.), and stores the result in the key pattern storage unit 8 (step 8701).

なお、複合類似度法を用いる場合には、パターン辞書9
には標準ベクトルが格納されており、キー画像のベクト
ルとの複合類似度法に演算により類似度を評価する。キ
ーパターン記憶部8には、文字(rlJ  rnJ  
raJ  rgJ  raJrsJ  rhJ  ri
J  rmJ  rag)とそれらの間の位置関係が記
憶されている。これを第9図に示す。第9図に示すよう
に、文字ナンバー9011文字(12) 902、位置903を記憶している。なお、位置903
は図示しないキー画像全体に仮定した座標上の位置情報
である。
In addition, when using the composite similarity method, the pattern dictionary 9
A standard vector is stored in , and the similarity is evaluated by calculating the composite similarity method with the vector of the key image. The key pattern storage unit 8 contains characters (rlJ rnJ
raJ rgJ raJrsJ rhJ ri
J rmJ rag) and the positional relationship therebetween. This is shown in FIG. As shown in FIG. 9, character number 9011 character (12) 902 and position 903 are stored. In addition, position 903
is positional information on coordinates assumed for the entire key image (not shown).

次に第2図と同様に、フレーム番号を変化させる変数i
の設定、フレームの確認を行なう(ステップ8702〜
5704)。そしてステップ5704で第iフレームが
あると判断されると、キーパターン記憶部8に記憶して
いる文字ナンバーをカウントする変数iと、キー画像と
1フレーム中に適合した文字数をカウントする変数kを
ともに初期化する(ステップ8705)。キーパターン
記憶部8に記憶している文字の1文字目から順次箱iフ
レームに含まれているかどうかを判断するため1を加え
る(ステップ870B)。ステップ8706でj−1と
なっており、キーパターン記憶部8の1番目に文字があ
るかどうかを判断する(ステップ8707)。キーバタ
ン記憶部の文字ナンバー1には、文字「1」が記憶され
ているので、文字「1」が第iフレームにあるかの判断
を行なう(ステップ8708)。文字「1」があればそ
の文字の位置を判断しくステップ5709) 、文字の
位置も正しければキー画像と1フレーム中での適合した
文字数を1カウントしくステップ5710)ステップ8
706戻る。次に文字数ナンバーjをカウントしくステ
ップ70B) 、第9図に示したキーパターン記憶部8
に記憶している文字ナンバー2の文字rnJについてス
テップ5707以後を行なう。そして、キーパターン記
憶部8に記憶している10文字について全て1フレーム
中にあるかを判断して11文字目についてステップ57
07で判断する。この場合、11番目の文字はないので
、1フレーム中で適合した文字数にとキーパターン記憶
部8に記憶している文字数が一致するかを判断しくステ
ップ8711) 、一致すれば第iフレームにキー画像
は含まれることになりフレーム番号を記憶して(ステッ
プ5712) 、第2図と同様に例えば80フレームと
ばして、1秒後のフレームで検索を行なう。なお、ステ
ップ8711でに−j−1でなければ、キーパターン記
憶部8に記憶している文字数と1フレーム中で適合した
文字数が異なることになり、この場合はこのフレーム中
にはキー画像を含んでいないとし、第2図と同様に例え
ば30フレームをとばす。これはステップ8708でj
番目の文字がiフレームになかった場合や、ステップ5
709で位置が異なると判断された場合も同様である。
Next, as in Figure 2, the variable i that changes the frame number
settings and check the frame (steps 8702~
5704). When it is determined in step 5704 that there is an i-th frame, a variable i that counts the character number stored in the key pattern storage unit 8 and a variable k that counts the number of characters that match the key image in one frame are set. Both are initialized (step 8705). Starting with the first character of the characters stored in the key pattern storage unit 8, 1 is added to the characters in order to determine whether the characters are included in the box i-frame (step 870B). Since it is j-1 in step 8706, it is determined whether there is a character in the first position in the key pattern storage section 8 (step 8707). Since the character "1" is stored in the character number 1 of the key button storage section, it is determined whether the character "1" is in the i-th frame (step 8708). If there is a character "1", determine the position of that character (Step 5709), and if the position of the character is correct, count the number of matching characters in the key image and one frame by 1 (Step 5710) Step 8
706 Return. Next, count the character number j (step 70B), the key pattern storage section 8 shown in FIG.
Step 5707 and subsequent steps are performed for the character rnJ of character number 2 stored in . Then, it is determined whether all of the 10 characters stored in the key pattern storage section 8 are in one frame, and step 57 is performed for the 11th character.
Judging by 07. In this case, since there is no 11th character, it is determined whether the number of matching characters in one frame matches the number of characters stored in the key pattern storage unit 8 (step 8711), and if they match, the key is added to the i-th frame. Since the image is included, the frame number is memorized (step 5712), and as in FIG. 2, for example, 80 frames are skipped and the search is performed using the frame one second later. Note that if it is not -j-1 in step 8711, the number of characters stored in the key pattern storage unit 8 and the number of matching characters in one frame are different, and in this case, the key image is not included in this frame. For example, 30 frames are skipped as in FIG. 2. This is done in step 8708.
If the th character is not in the i-frame, or if the
The same applies when it is determined in step 709 that the positions are different.

そしてすべてのフレームに対してキー画像の検索を終え
ると処理を終了する。
When the key image search is completed for all frames, the process ends.

以降、表示制御に関しては、第1の実施例と同様である
Thereafter, display control is the same as in the first embodiment.

なお、第2の実施例によれば、検索した文字を、そのま
まキーワード化し、例えば第10図のようにフレーム番
号と対応させて記憶することにより、自動的にキーワー
ド付けすることも可能である。
According to the second embodiment, it is also possible to automatically assign keywords by converting the searched characters into keywords and storing them in correspondence with frame numbers, for example, as shown in FIG.

また、スコアブックや台本など別途存在するコード情報
と、動画像のフレームを対応させるには、コード情報を
入力部1から入力し、第9図のような形式とすればその
コードを含むフレームを検索することができる。
Additionally, in order to match code information that exists separately such as a scorebook or script with frames of a moving image, input the code information from the input section 1 and use the format shown in Figure 9 to make the frame containing the code correspond. Can be searched.

[発明の効果] 上述した構成による本発明の動画像検索装置によれば、
あらかじめキーワードを付加することなく所望の画像を
得ることができる。
[Effects of the Invention] According to the moving image search device of the present invention configured as described above,
A desired image can be obtained without adding keywords in advance.

また、文字、数字や線図形で検索を行なえばより確実に
所望の画像をキーワードを付加することなく得ることが
できる。
Furthermore, if the search is performed using letters, numbers, or line figures, the desired image can be more reliably obtained without adding keywords.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は第1の実施例における本発明の動画像検索装置
のブロック図、 第2図は第1の実施例における情報管理部の動作を説明
するためのフローチャート、 第3図は第1の実施例のキー画像のエツジ抽出例を示し
た図、 第4図は第1の実施例のフレーム画像のエツジ抽出例を
示した図、 第5図は第1の実施例のフレーム番号の記憶例を示した
図、 第6図は第2の実施例における本発明の動画像検索装置
のブロック図、 第7図は第2の実施例における本発明の動画像検索装置
のブロック図、 第8図は第2の実施例のキー画像例を示した図、(15
) 第9図は第2の実施例のキ 憶形式の例を示す図、 第1O図は動画像データベ す図である。 1・・・入力部、 3・・・情報管理部、 4・・・動画像記憶部、 5・・・パターンマツチング部、 6・・・キー画像記憶部、 7・・・画像処理部、 8・・・キーパターン記憶部、 9・・・パターン辞書。 スの記憶形式の例を示 バタ ン記憶部の記
FIG. 1 is a block diagram of the moving image search device of the present invention in the first embodiment, FIG. 2 is a flowchart for explaining the operation of the information management section in the first embodiment, and FIG. FIG. 4 is a diagram showing an example of edge extraction of a key image in the first embodiment. FIG. 5 is an example of frame number storage in the first embodiment. FIG. 6 is a block diagram of a moving image search device of the present invention in a second embodiment. FIG. 7 is a block diagram of a moving image search device of the present invention in a second embodiment. is a diagram showing an example of a key image of the second embodiment, (15
) FIG. 9 is a diagram showing an example of the memory format of the second embodiment, and FIG. 1O is a diagram of a moving image database. DESCRIPTION OF SYMBOLS 1... Input section, 3... Information management section, 4... Moving image storage section, 5... Pattern matching section, 6... Key image storage section, 7... Image processing section, 8...Key pattern storage unit, 9...Pattern dictionary. An example of the memory format of the button memory section is shown below.

Claims (2)

【特許請求の範囲】[Claims] (1)時系列の画像情報からなる動画像を記憶するため
の動画像記憶手段と、 検索指示情報を入力する入力手段と、 この入力手段により入力された検索指示情報と前記動画
像記憶手段に記憶している動画像との照合を行なう照合
手段とを備え、前記入力手段は検索指示情報として前記
動画像記憶手段に記憶している動画像を構成する任意の
画像情報を入力することを特徴とする動画像検索装置。
(1) A moving image storage means for storing moving images consisting of time-series image information, an input means for inputting search instruction information, and a method for inputting the search instruction information input by the input means and the moving image storage means. a collation means for performing a collation with a stored moving image, and the input means inputs arbitrary image information constituting the moving image stored in the moving image storage means as search instruction information. A moving image search device.
(2)前記画像情報とは、前記動画像記憶手段に記憶し
ている動画像を構成する文字、数字、図形、画像そのも
の等であることを特徴とする請求項1記載の動画像検索
装置。
(2) The moving image search device according to claim 1, wherein the image information is characters, numbers, figures, images themselves, etc. that constitute the moving images stored in the moving image storage means.
JP2081111A 1990-03-30 1990-03-30 Animation picture retrieving device Pending JPH03282779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2081111A JPH03282779A (en) 1990-03-30 1990-03-30 Animation picture retrieving device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2081111A JPH03282779A (en) 1990-03-30 1990-03-30 Animation picture retrieving device

Publications (1)

Publication Number Publication Date
JPH03282779A true JPH03282779A (en) 1991-12-12

Family

ID=13737269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2081111A Pending JPH03282779A (en) 1990-03-30 1990-03-30 Animation picture retrieving device

Country Status (1)

Country Link
JP (1) JPH03282779A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114567A (en) * 1993-10-20 1995-05-02 Hitachi Ltd Method and device for retrieving video
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114567A (en) * 1993-10-20 1995-05-02 Hitachi Ltd Method and device for retrieving video
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method

Similar Documents

Publication Publication Date Title
JP7325668B2 (en) Scene-aware video dialogue
WO2022184117A1 (en) Deep learning-based video clipping method, related device, and storage medium
Zhu et al. Player action recognition in broadcast tennis video with applications to semantic analysis of sports game
US7949188B2 (en) Image processing apparatus, image processing method, and program
US7203693B2 (en) Instantly indexed databases for multimedia content analysis and retrieval
Zhu et al. Human behavior analysis for highlight ranking in broadcast racket sports video
US8503770B2 (en) Information processing apparatus and method, and program
Li et al. Visual question answering as reading comprehension
CN105183849B (en) A kind of match Video Events detection of Snooker and semanteme marking method
CN109640112B (en) Video processing method, device, equipment and storage medium
US20160317933A1 (en) Automatic game support content generation and retrieval
US20030023612A1 (en) Performance data mining based on real time analysis of sensor data
US20090324086A1 (en) Image processing apparatus for retrieving object from moving image and method thereof
Aly et al. The AXES submissions at TrecVid 2013
JP2013191104A (en) Keyword detection device, control method and control program for same, and display apparatus
US11679299B2 (en) Personalizing prediction of performance using data and body-pose for analysis of sporting performance
Kittler et al. Generation of semantic cues for sports video annotation
JPH03282779A (en) Animation picture retrieving device
US20230044146A1 (en) Video processing method, video searching method, terminal device, and computer-readable storage medium
Chen et al. Knowledge-based approach to video content classification
Hayashi et al. An augmented reality setup with an omnidirectional camera based on multiple object detection
Sanabria et al. Profiling actions for sport video summarization: An attention signal analysis
JP2002014973A (en) Video retrieving system and method, and recording medium with video retrieving program recorded thereon
GB2485573A (en) Identifying a Selected Region of Interest in Video Images, and providing Additional Information Relating to the Region of Interest
Ramlogan et al. Semi-automated cricket broadcast highlight generation