JPH05204990A - Key word imparting method for animation image information - Google Patents

Key word imparting method for animation image information

Info

Publication number
JPH05204990A
JPH05204990A JP4013741A JP1374192A JPH05204990A JP H05204990 A JPH05204990 A JP H05204990A JP 4013741 A JP4013741 A JP 4013741A JP 1374192 A JP1374192 A JP 1374192A JP H05204990 A JPH05204990 A JP H05204990A
Authority
JP
Japan
Prior art keywords
keyword
moving image
information
section
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4013741A
Other languages
Japanese (ja)
Other versions
JP3221028B2 (en
Inventor
Akio Nagasaka
晃朗 長坂
Hirotada Ueda
博唯 上田
Takafumi Miyatake
孝文 宮武
Mitsuru Ubusawa
満 生澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP01374192A priority Critical patent/JP3221028B2/en
Publication of JPH05204990A publication Critical patent/JPH05204990A/en
Application granted granted Critical
Publication of JP3221028B2 publication Critical patent/JP3221028B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE:To reduce the working burden of a registering operator and to obtain an easy-to-use key word by adding a common key word to a specific partial animation image section. CONSTITUTION:The video signals outputted from an animation image reproducer are successively converted into the digital image data by an A/D converter 22 and sent to a computer. Then the digital image is synthesized in the partial area 28 of an animation image display window 27 of a display screen. The serial numbers are imparted to the frames of the displayed animation image at and after the head of the image. Then a character input window 31 inputs a key word and calls the start and end frame numbers of the partial animation image section corresponding to the key word out of a relative information storage 24. Then the window 31 sends each frame number to the animation image reproducer via a control line 26 and reproduces an animation image screen. At the same time, the disks and the tapes are replaced with each other as necessary.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、動画像中の対象物に対
するキーワード付与方法に係り、例えば、動画像データ
ベースにおいて検索者が希望する任意の部分動画像区間
を検索するのに好適なキーワードを付与する方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of assigning a keyword to an object in a moving image, for example, a keyword suitable for searching a desired partial moving image section in a moving image database. Regarding the method of granting.

【0002】[0002]

【従来の技術】大量の動画像情報の中から任意の場面
(内容上あるいは映像的にひとかたまりとして扱うべき
動画像区間)に関する情報を選択的に呼び出すことがで
きる動画像データベースにおいては、新規の動画像を当
該データベースに登録する場合、登録者が、当該動画像
中の各場面に対して予めキーワードを付与している。
2. Description of the Related Art A moving image database that can selectively call out information about an arbitrary scene (moving image section that should be treated as a block in terms of content or video) from a large amount of moving image information has a new moving image. When registering an image in the database, the registrant gives a keyword to each scene in the moving image in advance.

【0003】キーワードには、例えば、「雨」や「雪」
等の場面の情景を描写したものや、「車」や「少女」等
の場面中に登場する対象物に関するものなどがある。キ
ーワードは、データベースに登録され、利用者がキーワ
ードをキーボード等によって入力するか、キーワードの
一覧表、すなわち、索引の中から選択するかによって、
そのキーワードを付与された場面が呼び出されるように
なっている。
The keywords include, for example, "rain" and "snow".
There are things such as depictions of scenes such as scenes, and objects related to objects appearing in scenes such as "cars" and "girl". Keywords are registered in the database, and depending on whether the user inputs the keywords with a keyboard or selects from a keyword list, that is, an index,
The scene to which the keyword is added is called.

【0004】また、各場面について、その区間の動画像
を構成するフレームの一枚を選び、こうしたフレームの
一覧を索引として用いて、対応する希望の場面を探すと
いった、画像をキーワードのように用いる方法もある
(例えば、「Automatic VideoIndexing and Full-Video
Search for Object Appearances」 IFIP WG 2.6 2ndW
orking Conference on Visual Database Systems(199
1).以下、文献1)。
For each scene, one image is used as a keyword, such as selecting one of the frames that make up the moving image in that section and using the list of such frames as an index to find the corresponding desired scene. There is also a method (for example, "Automatic Video Indexing and Full-Video
Search for Object Appearances "IFIP WG 2.6 6ndW
orking Conference on Visual Database Systems (199
1). Reference 1) below.

【0005】[0005]

【発明が解決しようとする課題】かかる従来の方法にお
いては、次のような問題点がある。
The conventional method has the following problems.

【0006】キーワードを付与するためには、登録しよ
うとする動画像を登録者が始めから順に見て、その場面
ごとに逐一情景を理解して適当な記述を与えなくてはな
らない。これは人間にとって非常に煩わしい作業である
にもかかわらず、高度な場面理解能力が必要なために現
状では人手に頼らざるを得ない。
In order to add a keyword, the registrant must look at the moving image to be registered in order from the beginning, understand the scene for each scene, and give an appropriate description. Although this is a very troublesome task for humans, it is necessary to rely on humans at present because of the need for advanced scene understanding ability.

【0007】動画像中の対象物に関してキーワードを付
与する場合については、動画像から当該対象物の現れて
いる部分区間を抽出する処理が必要になる。対象物の現
れているフレームを探す方法であれば、公知の文献1の
対象物検索手法(検索する対象物について、参照用の画
像を1枚指定することにより、当該対象物を含む動画像
中の全てのフレームを探し出す検索方法)により自動的
に行えるが、この方法では対象物が現れてから去るまで
の一連の区間を特定することまではできない。
In the case of adding a keyword to an object in a moving image, it is necessary to extract a partial section in which the object appears from the moving image. If it is a method of searching for a frame in which an object appears, a known object search method of Document 1 (for an object to be searched, by specifying one reference image, a moving image including the object is displayed). This can be done automatically by a search method that finds all the frames in, but this method cannot specify a series of sections from the appearance of an object to its departure.

【0008】場面ごとの代表フレーム画面をキーワード
のように用いる方法では、キーワードとしてフレームを
単にサンプリングするだけでよく、人手によらない処理
が容易であるが、文字のようにキーワードそのものを入
力することができないために、データベース利用者は必
ず一覧表からキーワードを探さなければならず、キーワ
ードの登録数が増えるに従い、検索が非常に困難にな
る。
In the method of using the representative frame screen for each scene as a keyword, it is sufficient to simply sample the frame as a keyword, and the process without human labor is easy, but the keyword itself is input like a character. Therefore, the database user must always search for a keyword in the list, and as the number of registered keywords increases, the search becomes very difficult.

【0009】このように従来の方法では、キーワード登
録時の人手を省こうとすれば利用者にとって不便にな
り、検索時の利便性を重視すれば登録時に人手がかかる
という課題があった。
As described above, the conventional method has a problem in that it is inconvenient for the user if labor is not required at the time of keyword registration, and labor is required at the time of registration if importance is attached to convenience during retrieval.

【0010】本発明の目的は、動画像に対するキーワー
ド付与にあたって、登録者の作業負担を軽減しながら、
なおかつ、データベース利用者にとって利用しやすいキ
ーワードを付与できる機構を実現することにある。
An object of the present invention is to reduce the work burden on a registrant when assigning a keyword to a moving image,
In addition, it is to realize a mechanism that can add keywords that are easy for database users to use.

【0011】[0011]

【課題を解決するための手段】本発明は、動画像中の任
意の対象物に対してキーワードを付与する場合におい
て、対象物検索方法を適用し、当該動画像のフレームの
全てについて対象物が現れているか否かを調べ、現れて
いると判定されたフレームが連続している区間を抽出
し、抽出された全ての区間に対して、共通のキーワード
及び対象物に関連する情報等を一斉に付与するものであ
る。また、キーワードを付与しようとする動画像の一場
面について、既にキーワードを付与してある対象物が当
該場面に存在していれば、該当する対象物のキーワード
を当該場面のキーワードとして使えるようにし、さらに
当該対象物のキーワードや関連情報をそれぞれ登録者に
提供するものである。
According to the present invention, when a keyword is given to an arbitrary object in a moving image, the object searching method is applied, and the object is detected in all the frames of the moving image. Check whether or not it appears, extract the section where the frames that are determined to appear are continuous, and for all the extracted sections, common keywords and information related to the target etc. at once It is to be given. Further, for a scene of a moving image to which a keyword is to be added, if an object to which the keyword has already been added exists in the scene, the keyword of the corresponding object can be used as the keyword of the scene, Further, the keywords and related information of the target object are provided to the registrants.

【0012】[0012]

【作用】登録者が対象物の画像の一枚を指定するだけ
で、動画像中の該当対象物が現れている部分区間を機械
が自動的に探し出し、対象物の現れているほとんどの部
分区間について一斉に共通のキーワード及び関連情報を
付与するので、同じ対象物について動画像中における存
在区間を一つずつ探してキーワードを逐一付与する必要
がなくなる。また、場面へのキーワード付与にあたっ
て、場面中の対象物のキーワードについては自動的に付
与され、さらに対象物に関する情報が提示されるので、
登録者が対象物の名前や関連情報を覚えていなくても、
新たなキーワードを考える際に対象物情報の引用が容易
に行える。
Operation: The registrant only needs to specify one image of the target object, and the machine automatically finds the partial section in which the target object appears in the moving image, and most of the partial section in which the target object appears. Since the common keyword and the related information are allotted to all of the above, it is not necessary to search the existing sections one by one in the moving image for the same object one by one and add the keyword one by one. In addition, when assigning a keyword to a scene, the keyword of the object in the scene is automatically added, and information about the object is presented, so
Even if the registrant does not remember the name of the object or related information,
When considering a new keyword, it is easy to cite the object information.

【0013】[0013]

【実施例】以下、本発明の1実施例を詳細に説明する。EXAMPLE An example of the present invention will be described in detail below.

【0014】図1は、動画像情報にキーワードを付与す
る処理に、本発明を適用した場合の処理手順の1実施例
を示すフローチャートであり、図2は、本発明を実現す
るためのシステム構成の概略ブロック図である。また、
図3は、図2のディスプレイにおける具体的な表示例を
示したものである。
FIG. 1 is a flow chart showing an embodiment of the processing procedure when the present invention is applied to the processing for adding a keyword to moving image information, and FIG. 2 is a system configuration for realizing the present invention. 2 is a schematic block diagram of FIG. Also,
FIG. 3 shows a specific display example on the display of FIG.

【0015】図2及び図3において、20はCRT等の
ディスプレイであり、コンピュータ23の出力画面を表
示する。21の動画像再生装置は、光ディスクやビデオ
デッキ等である。動画像再生装置から出力される映像信
号は、逐次、22のA/D変換器によってデジタル画像
データに変換され、コンピュータに送られる。送られた
画像は、ディスプレイ表示画面中の動画像表示ウインド
ウ27の部分領域28に合成される。表示される動画像
の各フレームには、動画像の先頭から順に番号(フレー
ム番号)が付けられている。31は文字入力ウインドウ
であり、キーワードを入力することにより、そのキーワ
ードに対応する部分動画像区間の開始フレーム番号と終
了フレーム番号とを24の関連情報記憶装置から呼び出
し、これらのフレーム番号を制御線26によって動画像
再生装置に送ることで、当該場面の動画像が再生され
る。このとき、必要に応じてディスクやテープの入れ替
えを行う。32は、キーワードの一覧、すなわち索引を
表示するウインドウであり、キーワードを一覧の中から
選ぶことで、対応する場面の動画像が再生される。29
はボタン領域であり、指示カーソルを当該領域まで移動
してポイントすることで、動画像再生装置に対し、ボタ
ン領域の各領域に対応する制御(再生・巻き戻し等)を
行う。
In FIGS. 2 and 3, reference numeral 20 denotes a display such as a CRT, which displays an output screen of the computer 23. The moving image reproducing device 21 is an optical disk, a video deck, or the like. The video signal output from the moving image reproducing apparatus is sequentially converted into digital image data by 22 A / D converters and sent to a computer. The sent image is combined with the partial area 28 of the moving image display window 27 in the display screen. A number (frame number) is sequentially assigned to each frame of the displayed moving image from the beginning of the moving image. Reference numeral 31 is a character input window. By inputting a keyword, the start frame number and the end frame number of the partial moving image section corresponding to the keyword are called from the 24 related information storage devices, and these frame numbers are controlled by the control line. By sending the moving image to the moving image reproducing apparatus by 26, the moving image of the scene is reproduced. At this time, the disks and tapes are replaced as needed. Reference numeral 32 is a window for displaying a list of keywords, that is, an index. By selecting a keyword from the list, a moving image of the corresponding scene is reproduced. 29
Is a button area, and by moving the pointing cursor to the area and pointing, the control (playback / rewinding, etc.) corresponding to each area of the button area is performed on the moving image playback device.

【0016】以下に、動画像情報にキーワードを付与す
る手順について、図1のフローチャートに基づいて説明
する。
The procedure for adding a keyword to moving image information will be described below with reference to the flowchart of FIG.

【0017】処理100において、登録者は、動画像再
生装置を使って動画像を再生しながら、キーワードを付
与する対象物が動画像表示領域28に現れるのを待ち、
現れた時点で動画像再生装置を静止画表示状態にする。
対象物が現れている区間が過ぎてしまった場合には、巻
き戻し制御を行い、対象物が現れているフレームで静止
画表示するようにする。そして、静止画表示されたフレ
ームにおける対象物の画像領域を囲む領域を、指示カー
ソル等を用いて指定し、当該領域の画像を切り出す。
In process 100, the registrant reproduces the moving image using the moving image reproducing apparatus and waits for the target object to which the keyword is added to appear in the moving image display area 28.
When it appears, the moving image reproducing apparatus is brought into a still image display state.
When the section in which the object appears has passed, rewinding control is performed so that a still image is displayed in the frame in which the object appears. Then, an area surrounding the image area of the object in the frame displayed as a still image is designated by using an instruction cursor or the like, and the image of the area is cut out.

【0018】処理102では、対象物が現れている全て
のフレームを動画像中から選び出す。具体的には、処理
100で得られた領域画像を参照画像に用い、先述の文
献1の対象物検索手法を登録しようとする動画像に適用
する等の処理を行う。図4に、対象物検索を行った直後
の当該動画像のフレーム列の例を示す。40のように斜
線を施したフレームが、対象物が存在するとされたフレ
ームを示し、41のように斜線のないフレームは対象物
が検索されなかったフレームである。この例のフレーム
列は2つのカット42及び43から成る。44はカット
変わりであり、カットとカットの連結部分である。カッ
ト変わりは、文献1でカット分割に使われている手法等
を用いれば人手によらず検出できる。配列45は対象物
検索の結果を一時的に格納する一次元配列であり、当該
動画像の全てのフレームに対して、配列の要素の一つ一
つが順番に対応付けされる。このときの各要素は0か1
かのいずれかの値をとり、1のとき、対応するフレーム
に対象物が存在していることを示している。0のときに
は対象物が存在していないことを示す。
In step 102, all the frames in which the object appears are selected from the moving image. Specifically, the region image obtained in the process 100 is used as a reference image, and the process of applying the target object search method of the above-mentioned document 1 to a moving image to be registered is performed. FIG. 4 shows an example of the frame sequence of the moving image immediately after the object search. A shaded frame such as 40 indicates a frame in which an object exists, and a frame without a shade such as 41 is a frame in which the object is not searched. The frame sequence in this example consists of two cuts 42 and 43. Reference numeral 44 denotes a cut, which is a connecting portion between the cuts. Cut changes can be detected without human intervention by using the method used for cut division in Reference 1. The array 45 is a one-dimensional array that temporarily stores the result of the object search, and each of the elements of the array is sequentially associated with all the frames of the moving image. Each element at this time is 0 or 1
If any one of these values is taken and it is 1, it indicates that the object is present in the corresponding frame. A value of 0 indicates that the object does not exist.

【0019】処理104では、対象物が連続して現れて
いる部分区間(配列45における1が連続している部分
区間46〜49)を抽出する。例えば、配列45におい
て、要素を最初から順に調べ、初めて1が現れたとき、
その要素の番号(フレーム番号と一致する)を始点情報
として記憶し、次に1つずつ順に後の要素を調べてい
き、最初に0が現れたときの、その一つ前の要素の番号
(0が現れないまま配列の末尾要素に達したときは末尾
要素の番号)を終点情報として記憶する。こうして得ら
れた部分区間にIDを付与し、始点情報と終点情報とを
合わせてリスト(以下、区間リスト)に登録する。この
ときの終点が動画像の末尾でなければ、その終点の次の
要素から再び順に調べていき、同様の処理を繰り返す。
In process 104, the partial sections in which the object appears continuously (the partial sections 46 to 49 in which 1 in the array 45 is continuous) are extracted. For example, in the array 45, when the elements are examined in order from the beginning and 1 appears for the first time,
The number of the element (corresponding to the frame number) is stored as the starting point information, the next element is searched one by one next, and the number of the element immediately before the first occurrence of 0 ( When the end element of the array is reached without 0 appearing, the end element number) is stored as the end point information. An ID is given to the partial section thus obtained, and the start point information and the end point information are registered together in a list (hereinafter, section list). If the end point at this time is not the end of the moving image, the element next to the end point is searched again in order, and the same processing is repeated.

【0020】次に、区間リストに登録された各部分区間
について、非常に短い区間間隔で隣接するものを統合す
る。例えば、区間リストに登録されている部分区間を順
に調べていき、当該部分区間の終点と後続する部分区間
の始点との差(すなわち、両区間の間のフレーム枚数)
が登録者が設定した閾値より小さいかどうかを調べ(1
06)、小さい場合には、前者の部分区間の終点を後者
の部分区間の終点の値で置き換え、後者の部分区間を区
間リストより除去する(108)。この処理を区間リス
トに登録されている全ての隣接する部分区間の間で行う
(110)。図の例では、部分区間46と47の間隔が
短いと判定された場合、両区間は統合され、aからfま
での区間を新たに一つの部分区間とする。
Next, among the partial sections registered in the section list, those adjacent to each other at very short section intervals are integrated. For example, by sequentially examining the partial sections registered in the section list, the difference between the end point of the partial section and the start point of the subsequent partial section (that is, the number of frames between both sections)
Is smaller than the threshold set by the registrant (1
06) If smaller, the end point of the former partial section is replaced with the value of the end point of the latter partial section, and the latter partial section is removed from the section list (108). This process is performed between all adjacent partial sections registered in the section list (110). In the example of the figure, when it is determined that the interval between the subsections 46 and 47 is short, the two sections are integrated and a section from a to f is newly set as one subsection.

【0021】更新された区間リストに登録されている各
部分区間について、部分区間中にカット変わりがある場
合には、該当部分区間をカット変わりの位置で分割す
る。例えば、先ず区間リストの各部分区間を順に調べて
いき、当該部分区間中にカット変わりがあるかどうかを
調べる(112)。カット変わりが1つだけある場合に
は、カット変わりの直後のフレーム番号を始点、終点を
当該部分区間と同じとする部分区間を作り、IDを付与
して区間リストに追加登録し、もとの部分区間の終点を
カット変わりの直前のフレーム番号で置き換える(11
4)。2つ以上カット変わりがある場合も同様の考え方
で分割を行う。図の例では、部分区間48にカット変わ
り44が存在するので、部分区間48は、i〜jとk〜
lの2つの部分区間に分割される。この一連の処理を区
間リストに登録された全ての部分区間について行う(1
16)。
For each partial section registered in the updated section list, if there is a cut change in the partial section, the corresponding partial section is divided at the cut change position. For example, first, each partial section of the section list is sequentially checked to see if there is a cut change in the partial section (112). If there is only one cut change, create a partial section in which the frame number immediately after the cut change is the starting point and the end point is the same as the relevant partial section, add an ID, and add and register it in the section list. Replace the end point of the partial section with the frame number immediately before the cut change (11
4). When there are two or more cut changes, the same idea is used for division. In the illustrated example, since the cut change 44 exists in the partial section 48, the partial section 48 has i to j and k to
It is divided into two subsections of l. This series of processing is performed for all the partial sections registered in the section list (1
16).

【0022】更新された区間リストに登録されている各
部分区間のうち、非常に短い部分区間をリストから除去
する。例えば、区間リストの各部分区間を順に調べてい
き、当該部分区間が登録者の設定した閾値より少ないフ
レーム数から成っているかどうかを調べる(118)。
もし、少なければ、当該部分区間を区間リストから除去
する(120)。この一連の処理を区間リストに登録さ
れた全ての部分区間について行う(122)。
Among the partial sections registered in the updated section list, the very short partial section is removed from the list. For example, each partial section of the section list is sequentially examined to see if the partial section consists of a number of frames smaller than the threshold set by the registrant (118).
If not, the partial section is removed from the section list (120). This series of processing is performed for all the partial sections registered in the section list (122).

【0023】更新された区間リストの各部分区間につい
て、正しく区間の始点と終点が定義されているか、ある
いは対象物が正しく現れている区間なのかを動画像再生
装置で次々に再生しながらチェックし、もし間違いがあ
るようならば、その間違い箇所を修正する(124)。
例えば、部分区間の始点や終点フレームが違っていた場
合、動画像を再生しながら正しいフレームを探してマー
クすることで変更を行ったり、場合によっては区間全体
を区間リストから除去したりする。また、部分区間に固
有のキーワード及び関連情報を付与する場合はここで行
う。
For each partial section of the updated section list, whether the starting point and the ending point of the section are correctly defined or the section in which the object appears correctly is checked while being successively reproduced by the moving picture reproducing apparatus. If there is a mistake, the mistake is corrected (124).
For example, when the start point and the end point frame of the partial section are different, the change is made by searching for and marking the correct frame while reproducing the moving image, or in some cases, the entire section is removed from the section list. Further, when a unique keyword and related information are added to the partial section, this is done here.

【0024】最後に、対象物に対してキーワード及び関
連する記述情報を付与し、当該キーワードを区間リスト
と合わせて関連情報記憶装置に登録する。また、キーワ
ードの一覧表示ウインドウを更新する(126)。
Finally, a keyword and related description information are added to the object, and the keyword is registered in the related information storage device together with the section list. Also, the keyword list display window is updated (126).

【0025】以上、一連の処理をキーワードを付与しよ
うとする全ての対象物に対して行う(128)。ある対
象物について処理を行っているときに、既にキーワード
登録済みの対象物についての未登録区間が見つかった場
合には、適時、データベースの該当キーワード情報の区
間リストに当該区間を追加登録する。
As described above, the series of processing is performed on all the objects to which the keyword is added (128). When an unregistered section for an object that has already been keyword-registered is found while processing a certain object, the section is additionally registered in the section list of the corresponding keyword information in the database at a suitable time.

【0026】処理130では、キーワードを付与しよう
とする任意の場面について、その区間の始点と終点を指
定する。例えば、動画像を再生しながら、登録者が希望
する始点フレームと終点フレームを探してマークするこ
とで区間を定義する。
In process 130, the start point and the end point of the section are designated for an arbitrary scene to which a keyword is to be added. For example, the section is defined by searching for and marking the start point frame and end point frame desired by the registrant while reproducing the moving image.

【0027】定義された場面区間において、その場面区
間中に既にキーワード登録された対象物が現れていれば
(対象物の動画像中における存在区間と当該場面区間と
が重なる区間があれば)、該当する対象物の全てについ
て、登録されたキーワード及び関連記述情報、並びに場
面区間における対象物の現れている範囲等をその場面に
関する情報として関連情報記憶装置に登録し、また、デ
ィスプレイ上に表示する(134)。登録者は、この情
報を参考にしながら、あるいはそのまま用いて適当なキ
ーワードや関連記述情報を付与し、当該場面区間の始点
・終点情報及び当該場面に現れている対象物情報へのポ
インタと合わせて関連情報記憶装置に登録する(13
6)。この場合の説明図を図5に示す。
In the defined scene section, if an object already registered as a keyword appears in the scene section (if there is a section where the existing section and the scene section in the moving image of the object overlap), For all relevant objects, the registered keywords and related description information, and the range in which the object appears in the scene section, etc. are registered in the related information storage device as information related to the scene, and displayed on the display. (134). The registrant, while referring to this information or using it as it is, adds appropriate keywords and related description information, and combines it with the start / end point information of the scene section and the pointer to the object information appearing in the scene. Register in the related information storage device (13
6). An explanatory view of this case is shown in FIG.

【0028】図6は、キーワード付与処理によって生成
及び登録されるデータ構造の一例を示したものである。
これらは、関連情報記憶装置24に格納されるものとす
る。51は、登録されている対象物情報の全リストであ
り、各対象物情報は52に示すように、キーワード文字
列、対象物関連情報、区間リスト等から成るデータ構造
を持つ。区間リストは、53に示すように各部分区間情
報のリストであり、各部分区間情報は、54で表される
ように始点情報、終点情報等から構成される。55は、
登録されている場面情報のリストであり、各場面情報
は、56で表されるように、キーワード文字列、場面関
連記述情報、場面中に存在する対象物の対象物情報への
ポインタ、始点・終点情報等から成る。
FIG. 6 shows an example of a data structure generated and registered by the keyword assigning process.
These are stored in the related information storage device 24. Reference numeral 51 is a total list of registered target object information, and each target object information has a data structure including a keyword character string, target object related information, section list, and the like, as indicated by 52. The section list is a list of each piece of section information as shown at 53, and each piece of section information is composed of start point information, end point information, etc. as shown at 54. 55 is
This is a list of registered scene information, and each scene information is represented by 56, which is a keyword character string, scene-related description information, a pointer to object information of an object existing in the scene, a starting point / It consists of end point information.

【0029】キーワード一覧ウインドウ32は、51の
対象物情報リストに登録された全ての対象物情報につい
て、52のデータ構造中のキーワード文字列を表示す
る。対象物が現れている部分動画像区間の検索にあたっ
ては、データベースの利用者が、キーワード一覧の中か
ら選択した、あるいは文字入力ウインドウ31から入力
したキーワード文字列について、対象物情報リスト中の
各対象物情報のキーワード文字列との照合を行う。キー
ワードが合致した対象物について、区間リストに登録さ
れている各部分区間の始点と終点を動画像再生装置に送
り、当該区間の再生を行う。
The keyword list window 32 displays the keyword character strings in the data structure 52 for all the object information registered in the object information list 51. When searching the partial moving image section in which the target object appears, each target in the target object information list is searched for the keyword character string selected by the database user from the keyword list or input from the character input window 31. It collates with the keyword character string of product information. With respect to the target object with which the keyword matches, the start point and the end point of each partial section registered in the section list are sent to the moving image reproducing apparatus, and the section is reproduced.

【0030】場面の検索においては、上記と同様にして
場面に付与されたキーワードを用いて検索するか、ある
いは、場面に現れる対象物に関するキーワードを入力
し、そのキーワードと合致する対象物を探し、該当する
対象物へのポインタを持つ場面を探し出す。複数の対象
物が現れている場面を検索する場合において、複数の対
象物に関してそれぞれにキーワードが与えられたとき
は、場面における対象物の間の時間的存在関係を制約条
件にして検索を行ってもよい。例えば、図7に示す如く
対象物が現れる順序を制約条件とする場合には、一つの
場面に現れている各対象物について、当該場面中での存
在区間をそれぞれ呼び出して始点を比較し、制約条件で
指定された順番と始点の順番とが一致しているときに当
該場面が検索される。同様にして、対象物の去る順や同
時に現れていること等も制約条件にする。
In the scene search, a keyword is added to the scene in the same manner as described above, or a keyword relating to an object appearing in the scene is input, and an object matching the keyword is searched for. Find a scene that has a pointer to the corresponding object. When searching for a scene in which multiple objects appear, if keywords are given for each of the multiple objects, the search is performed using the temporal existence relationship between the objects in the scene as a constraint condition. Good. For example, when the order in which the objects appear is a constraint condition, as shown in FIG. 7, for each object appearing in one scene, the existing sections in the scene are called to compare the starting points and The scene is searched when the order specified by the condition and the order of the start points match. In the same manner, the leaving order of objects and the fact that they appear at the same time are also set as constraint conditions.

【0031】上述の実施例において、部分区間の統合処
理(106〜110)及び除去処理(118〜122)
を行うのは、他の多くの画像処理応用技術と同様に物体
検索手法についても確実な検索結果が得られるとは限ら
ないことによる。フレームごとに微妙に変化する対象物
の形状や色彩、あるいはノイズ等のために、物体の存在
するフレームを探せなかったり、逆に誤って無関係なフ
レームを探し出したりする。そのため、隣接する部分区
間において、その間隔が非常に短い場合(例えば、通常
再生時間で1秒未満であるなど、人間の目で見てその不
連続性が見い出しづらい程度の時間間隔の場合)には、
その間の区間は物体が存在しながら検索に失敗した部分
と考えてよいので、その部分を含めた連続した部分区間
として新たに登録している。また、登録された部分区間
が非常に短い場合には、物体が存在しないのに誤って検
出してしまった部分と考えてよいので、その部分の登録
は抹消する。このとき、非常に短いと判断する基準(閾
値)は、登録する動画像の性質や登録者の意図に合わせ
て自由に変更できることはいうまでもない(特に、閾値
を0フレームとしたときには、統合処理や抹消処理は行
われない)。
In the above-described embodiment, the integration processing (106 to 110) and the removal processing (118 to 122) of the partial sections are performed.
The reason is that, as with many other image processing application techniques, reliable search results are not always obtained with the object search method. Due to the shape and color of the object that slightly changes frame by frame, noise, or the like, the frame in which the object exists cannot be found, or conversely, an irrelevant frame is erroneously searched for. Therefore, when the interval is very short in the adjacent partial sections (for example, when the normal playback time is less than 1 second, it is difficult to find the discontinuity with human eyes). Is
It can be considered that the section between them is a portion in which the search has failed despite the existence of the object, so that it is newly registered as a continuous partial section including the portion. Further, when the registered partial section is very short, it may be considered that the object is erroneously detected even though there is no object, so the registration of that part is deleted. At this time, it is needless to say that the criterion (threshold value) for determining that it is extremely short can be freely changed according to the nature of the moving image to be registered and the intention of the registrant (especially, when the threshold value is 0 frame, No processing or wiping is done).

【0032】カット変わりの位置で部分区間を分割する
処理112〜116は、たとえ連続して物体が現れてい
ても、カット変わりの前と後では場面が異なるので(例
えば、背景や撮影位置が異なる等)、それぞれ別個に扱
うべきものであることによる。
In the processing 112 to 116 for dividing the sub-section at the position where the cut changes, even if the object appears continuously, the scenes before and after the change of the cut are different (for example, the background and the shooting position are different). Etc.), which should be treated separately.

【0033】本実施例では、文字列によるキーワードに
ついての例を示したが、画像や音声等の様々な情報形式
をキーワードとして用いることを否定するものではな
い。勿論、文字列以外の情報形式では、キーワードをそ
のまま入力することができない場合もあるが、索引から
選択する等の方法で利用できる。
In this embodiment, an example of a keyword using a character string is shown, but it is not denied that various information formats such as images and sounds are used as keywords. Of course, in the information format other than the character string, the keyword may not be directly input, but it can be used by a method such as selecting from the index.

【0034】本発明はさらに種々の変更を加えた形でも
実施できる。例えば、動画像ハイパーメディアシステム
において、対象物にボタンを定義する作業に適用でき
る。ここでいうボタンとは、ディスプレイに表示中の対
象物について、表示画像中の当該対象物を囲むように定
義した部分領域を指示カーソル等でポイントすることで
関連情報を提示する機構において、当該部分領域の座標
とポイントされたときの処理手順とを複合したデータ構
造体を意味する。ボタンの定義には、対象物の存在する
部分区間を探す必要があり、本実施例(特に、処理10
0〜124)は非常に有効である。
The present invention can be implemented in the form in which various modifications are further made. For example, it can be applied to a task of defining a button on an object in a moving image hypermedia system. The button referred to here is a mechanism for presenting relevant information by pointing a partial area defined to surround the target object in the display image with an instruction cursor, etc., for the target object being displayed on the display. It means a data structure that combines the coordinates of the area and the processing procedure when pointed. To define a button, it is necessary to search for a partial section in which an object exists, and this embodiment (particularly, processing 10
0-124) is very effective.

【0035】また、ある対象物について、ボタンを使っ
て、異なる場面に存在する同一対象物を相互に参照しあ
うハイパーリンクを容易に付与することもできる。例え
ば、対象物が現れている各部分区間を抽出した後、各部
分区間に設定されたボタン情報に、それぞれ他の部分区
間へのポインタ情報を付与する。
Further, it is possible to easily give a hyperlink for a certain object by using buttons to mutually refer to the same object existing in different scenes. For example, after extracting each partial section in which the object appears, pointer information to another partial section is added to the button information set in each partial section.

【0036】[0036]

【発明の効果】以上、述べたように、本発明によれば、
登録者は、キーワードを付与する対象物の画像の一枚だ
けを指定すれば、動画像中の該当対象物が現れている部
分区間を機械が自動的に探し出してくれるので、一つの
対象物につき一度のキーワード付与で、対象物の現れて
いるほとんどの部分区間に対して同時にキーワード付与
ができる。また、場面へのキーワード付与にあたって、
対象物に関するキーワードについて自動的に付与され、
さらにキーワードを追加付与する場合には、必要となる
情報の一部が自動的に提示されるので、キーワードを考
えやすい。
As described above, according to the present invention,
If the registrant specifies only one image of the target object to which the keyword is given, the machine will automatically find the partial section where the target object appears in the moving image, so for each target object With one-time keyword addition, keywords can be added simultaneously to most of the partial sections where the object appears. Also, when assigning keywords to the scene,
Keywords for objects are automatically assigned,
When adding a keyword, a part of necessary information is automatically presented, which makes it easy to think of the keyword.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の処理手順の1実施例を示すフローチャ
ートである。
FIG. 1 is a flowchart showing an embodiment of a processing procedure of the present invention.

【図2】図1の実施例を実行するための概略システムブ
ロック図である。
2 is a schematic system block diagram for implementing the embodiment of FIG. 1. FIG.

【図3】図2のディスプレイにおける表示画面の1具体
例である。
FIG. 3 is a specific example of a display screen on the display of FIG.

【図4】動画像をフレーム列として表現した概念図であ
る。
FIG. 4 is a conceptual diagram representing a moving image as a frame sequence.

【図5】同じ対象物が複数の場面区間に現れた場合のキ
ーワード付与を説明する図である。
FIG. 5 is a diagram for explaining keyword assignment when the same target object appears in a plurality of scene sections.

【図6】図1の実施例によって、生成されるデータ構造
の1例である。
FIG. 6 is an example of a data structure generated by the embodiment of FIG.

【図7】複数の対象物が現れている場合を検索する場合
の説明図である。
FIG. 7 is an explanatory diagram for searching a case where a plurality of objects appear.

【符号の説明】[Explanation of symbols]

27…動画像表示ウインドウ、28…動画像表示領域、
29…ボタン領域、30…指示カーソル、31…文字入
力ウインドウ、32…キーワード一覧表示ウインドウ、
40…対象物が現れているフレーム、41…対象物が現
れていないフレーム、42、43…カット、44…カッ
ト変わり、45…対象物在否配列、46〜49…対象物
が連続して現れている部分区間、50…区間リスト、5
1…対象物情報リスト、52…対象物情報、53…区間
リスト、54…区間情報、55…場面情報リスト、56
…場面情報。
27 ... Moving image display window, 28 ... Moving image display area,
29 ... Button area, 30 ... Instruction cursor, 31 ... Character input window, 32 ... Keyword list display window,
40 ... Frame in which the object appears, 41 ... Frame in which the object does not appear, 42, 43 ... Cut, 44 ... Cut change, 45 ... Object presence / absence sequence, 46 to 49 ... Object appears continuously Partial section, 50 ... Section list, 5
1 ... Object information list, 52 ... Object information, 53 ... Section list, 54 ... Section information, 55 ... Scene information list, 56
… Scene information.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 生澤 満 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Mitsuru Ikusawa 1-280 Higashi Koikekubo, Kokubunji City, Tokyo Metropolitan Research Center, Hitachi, Ltd.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】動画像中に現れる任意の対象物に対してキ
ーワードを付与する動画像情報のキーワード付与方法に
おいて、上記動画像の各フレームについて、特定の対象
物が現れているか否かを判断し、特定の対象物が現れて
いると判断されたフレームが連続して存在している部分
動画像区間を探し出し、それらの部分動画像区間につい
て、共通のキーワードを付与することを特徴とする動画
像情報のキーワード付与方法。
1. A keyword assigning method of moving image information, wherein a keyword is assigned to an arbitrary object appearing in a moving image, and it is determined whether or not a specific object appears in each frame of the moving image. Then, a moving image characterized by searching for partial moving image sections in which frames in which it is determined that a specific target object appears continuously and assigning a common keyword to those partial moving image sections Image information keyword assigning method.
【請求項2】請求項1記載において、共通のキーワード
を含む上記対象物に関連する情報を付与することを特徴
とする動画像情報のキーワード付与方法。
2. The moving image information keyword assigning method according to claim 1, wherein information relating to the object including a common keyword is attached.
【請求項3】請求項2記載において、上記対象物関連情
報として、少なくともキーワード文字列、対象物関連記
述情報、及び、始点情報と終点情報を有する各部分区間
の区間リストを格納することを特徴とする動画像情報の
キーワード付与方法。
3. The object-related information according to claim 2, wherein at least a keyword character string, object-related description information, and a section list of each partial section having start point information and end point information are stored. A method for assigning keywords to moving image information.
【請求項4】請求項1記載において、探しだされた複数
の部分動画像区間が所定区間間隔より短い間隔で隣接す
る場合には、上記複数の部分動画像間隔を統合して1つ
の部分動画像区間とすることを特徴とする動画像情報の
キーワード付与方法。
4. The partial moving image according to claim 1, wherein when the plurality of searched partial moving image sections are adjacent to each other at an interval shorter than a predetermined section interval, the plurality of partial moving image intervals are integrated. A method for assigning keywords to moving image information, characterized in that it is an image section.
【請求項5】請求項1記載において、探しだされた部分
動画像区間中にカット変わりがある場合には、カット変
わりの位置で部分動画像区間を分割することを特徴とす
る動画像情報のキーワード付与方法。
5. The moving image information according to claim 1, wherein when there is a cut change in the searched out partial moving image section, the partial moving image section is divided at the position of the cut change. Keyword assignment method.
【請求項6】請求項1記載において、探し出された部分
動画像区間が所定のフレーム数より少ない場合には、上
記部分動画像区間にキーワードを付与しないことを特徴
とする動画像情報のキーワード付与方法。
6. The keyword of moving picture information according to claim 1, wherein when the searched partial moving picture section is smaller than a predetermined number of frames, no keyword is given to the partial moving picture section. Granting method.
【請求項7】動画像中の一場面に対してキーワードを付
与する動画像情報のキーワード付与方法において、上記
動画像の各フレームについて、特定の対象物が現れてい
るか否かを判断し、特定の対象物が現れていると判断さ
れたフレームが連続して存在している部分動画像区間を
探し出し、それらの部分動画像区間について、共通のキ
ーワードを付与し、上記一場面の区間内で、キーワード
付与された対象物が存在するか否かを調べ、該当する対
象物のキーワードを呼び出して上記一場面のキーワード
として用いることを特徴とする動画像情報のキーワード
付与方法。
7. A keyword assigning method for moving image information, wherein a keyword is assigned to one scene in a moving image, by determining whether or not a specific object appears in each frame of the moving image, The partial moving image sections in which the frames determined to appear are continuously searched for, the common keywords are given to those partial moving image sections, and within the section of the one scene, A keyword assigning method for moving image information, comprising checking whether or not an object to which a keyword is assigned is present, and calling the keyword of the relevant object to use as a keyword of the one scene.
【請求項8】請求項7記載において、該当する対象物の
キーワードを登録者に提示することを特徴とする動画像
情報のキーワード付与方法。
8. The method of assigning a keyword to moving image information according to claim 7, wherein the keyword of the corresponding object is presented to the registrant.
【請求項9】請求項8記載において、該当する対象物の
キーワード以外の上記対象物に関連する情報を提示する
ことを特徴とする動画像情報のキーワード付与方法。
9. The method for assigning keywords to moving image information according to claim 8, wherein information relating to the object other than the keyword of the object is presented.
【請求項10】請求項8記載において、上記対象物関連
情報として、少なくともキーワード文字列、対象物関連
記述情報、及び、始点情報と終点情報を有する各部分区
間の区間リストを格納し、場面に関連する情報として、
少なくともキーワード文字列、場面関連記述情報、場面
の区間内に存在する対象物の対象物関連情報へのポイン
タ、及び、始点情報と終点情報を格納することを特徴と
する動画像情報のキーワード付与方法。
10. The object-related information according to claim 8, wherein at least a keyword character string, object-related description information, and a section list of each partial section having start point information and end point information are stored. As related information,
At least a keyword character string, scene-related description information, a pointer to object-related information of an object existing in a section of a scene, and a keyword assigning method of moving image information characterized by storing start point information and end point information ..
JP01374192A 1992-01-29 1992-01-29 Keyword assignment method for moving image information Expired - Lifetime JP3221028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01374192A JP3221028B2 (en) 1992-01-29 1992-01-29 Keyword assignment method for moving image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01374192A JP3221028B2 (en) 1992-01-29 1992-01-29 Keyword assignment method for moving image information

Publications (2)

Publication Number Publication Date
JPH05204990A true JPH05204990A (en) 1993-08-13
JP3221028B2 JP3221028B2 (en) 2001-10-22

Family

ID=11841692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01374192A Expired - Lifetime JP3221028B2 (en) 1992-01-29 1992-01-29 Keyword assignment method for moving image information

Country Status (1)

Country Link
JP (1) JP3221028B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322184A (en) * 1994-05-20 1995-12-08 Olympus Optical Co Ltd Registration device and image filing device using registration device
JPH08153120A (en) * 1994-11-30 1996-06-11 Fujitsu Ltd Generation system and retrieval system for image data base
JPH1021261A (en) * 1996-07-05 1998-01-23 Hitachi Ltd Method and system for multimedia data base retrieval
JP2000076463A (en) * 1998-09-03 2000-03-14 Jisedai Joho Hoso System Kenkyusho:Kk Analyzing method of video stream structure, structure analyzing process displaying method, and structure displaying method
JP2000099743A (en) * 1999-09-28 2000-04-07 Hitachi Ltd Display device for moving image and recording medium storing program for the display device
JP2000187664A (en) * 1998-12-22 2000-07-04 Toshiba Corp Method and device for storing and retrieving information and recording medium
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
WO2002101588A1 (en) * 2001-06-11 2002-12-19 Matsushita Electric Industrial Co., Ltd. Content management system
JP2005295167A (en) * 2004-03-31 2005-10-20 Toshiba Corp Meta-data, and device, method and program for distributing meta-data, and device, system, method and program for reproducing moving picture
WO2006016461A1 (en) 2004-08-09 2006-02-16 Nikon Corporation Imaging device
US7397954B2 (en) 2002-03-22 2008-07-08 Fujitsu Limited Apparatus and method for allowing images to correspond to each other and program therefor
JP2008217701A (en) * 2007-03-07 2008-09-18 Sharp Corp Metadata providing device, metadata providing method, metadata providing program, and recording medium recording metadata providing program
JP2008262594A (en) * 2008-07-08 2008-10-30 Fujitsu Ltd Image association apparatus, method, and program
US8014566B2 (en) 2005-10-11 2011-09-06 Sony Corporation Image processing apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
JPH07322184A (en) * 1994-05-20 1995-12-08 Olympus Optical Co Ltd Registration device and image filing device using registration device
JPH08153120A (en) * 1994-11-30 1996-06-11 Fujitsu Ltd Generation system and retrieval system for image data base
JPH1021261A (en) * 1996-07-05 1998-01-23 Hitachi Ltd Method and system for multimedia data base retrieval
JP2000076463A (en) * 1998-09-03 2000-03-14 Jisedai Joho Hoso System Kenkyusho:Kk Analyzing method of video stream structure, structure analyzing process displaying method, and structure displaying method
JP2000187664A (en) * 1998-12-22 2000-07-04 Toshiba Corp Method and device for storing and retrieving information and recording medium
JP2000099743A (en) * 1999-09-28 2000-04-07 Hitachi Ltd Display device for moving image and recording medium storing program for the display device
WO2002101588A1 (en) * 2001-06-11 2002-12-19 Matsushita Electric Industrial Co., Ltd. Content management system
US7397954B2 (en) 2002-03-22 2008-07-08 Fujitsu Limited Apparatus and method for allowing images to correspond to each other and program therefor
JP2005295167A (en) * 2004-03-31 2005-10-20 Toshiba Corp Meta-data, and device, method and program for distributing meta-data, and device, system, method and program for reproducing moving picture
WO2006016461A1 (en) 2004-08-09 2006-02-16 Nikon Corporation Imaging device
US8014566B2 (en) 2005-10-11 2011-09-06 Sony Corporation Image processing apparatus
US8160299B2 (en) 2005-10-11 2012-04-17 Sony Corporation Image processing apparatus
JP2008217701A (en) * 2007-03-07 2008-09-18 Sharp Corp Metadata providing device, metadata providing method, metadata providing program, and recording medium recording metadata providing program
JP2008262594A (en) * 2008-07-08 2008-10-30 Fujitsu Ltd Image association apparatus, method, and program

Also Published As

Publication number Publication date
JP3221028B2 (en) 2001-10-22

Similar Documents

Publication Publication Date Title
US6424744B2 (en) Video retrieval method and apparatus
US6400890B1 (en) Image retrieving method and apparatuses therefor
JP2994177B2 (en) System and method for locating boundaries between video segments
EP0729117B1 (en) Method and apparatus for detecting a point of change in moving images
US5974219A (en) Control method for detecting change points in motion picture images and for stopping reproduction thereof and control system for monitoring picture images utilizing the same
JP3221028B2 (en) Keyword assignment method for moving image information
JP3407840B2 (en) Video summarization method
JPH0225972A (en) Premastering system
JPH1021261A (en) Method and system for multimedia data base retrieval
JPH0779423A (en) Television/video-presentation systems, use/edition devices and identification/search methods
JPH1175150A (en) Dynamic image editing method, device therefor and recording medium recorded with program for executing dynamic image editing operation
JP2000217058A (en) Video image retrieval system, data structure and retrieval method according thereto
US6278497B1 (en) Moving picture processing method and apparatus, and computer program product having processing procedure recorded therefore
JP3137169B2 (en) Text display method and system
JPH1051733A (en) Dynamic image edit method, dynamic image edit device, and recording medium recording program code having dynamic image edit procedure
JPH05242166A (en) Multi-media data editing and display system
JPH0950436A (en) Method and device for retrieving video image
JP2001268459A (en) Program retrieval device and method and recording medium having program retrieval program recorded thereon
JPH0638164A (en) Video input/output device with retrieval function
JPH08275136A (en) Conference equipment and conference system
JPH03229368A (en) Image displaying/retrieving system
JP2001298709A (en) Moving picture recording and reproducing device
KR950020670A (en) Editing apparatus and method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070817

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080817

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080817

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090817

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 11