JP3500930B2 - Keyword assignment method and keyword automatic assignment device - Google Patents

Keyword assignment method and keyword automatic assignment device

Info

Publication number
JP3500930B2
JP3500930B2 JP25704097A JP25704097A JP3500930B2 JP 3500930 B2 JP3500930 B2 JP 3500930B2 JP 25704097 A JP25704097 A JP 25704097A JP 25704097 A JP25704097 A JP 25704097A JP 3500930 B2 JP3500930 B2 JP 3500930B2
Authority
JP
Japan
Prior art keywords
keyword
semantic space
objects
keywords
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25704097A
Other languages
Japanese (ja)
Other versions
JPH1196176A (en
Inventor
公彦 東尾
孝俊 望月
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP25704097A priority Critical patent/JP3500930B2/en
Priority to US09/157,413 priority patent/US6480841B1/en
Publication of JPH1196176A publication Critical patent/JPH1196176A/en
Application granted granted Critical
Publication of JP3500930B2 publication Critical patent/JP3500930B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、記憶部に登録す
るオブジェクトにキーワードを自動的に付与するキーワ
ード付与方法、および、このキーワード付与方法を用い
たキーワード自動付与装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a keyword assigning method for automatically assigning a keyword to an object registered in a storage unit, and an automatic keyword assigning apparatus using this keyword assigning method.

【0002】[0002]

【従来の技術】コンピュータの急激な普及に伴って、人
々の扱う電子情報が急激に増加してきている。これらの
多量の電子情報は、一般には、キーワードと共に保存さ
れており、このキーワードを指定することによって所望
の電子情報を検索できるようにしている。
2. Description of the Related Art With the rapid spread of computers, electronic information handled by people has been rapidly increasing. Such a large amount of electronic information is generally stored together with a keyword, and by designating this keyword, desired electronic information can be searched.

【0003】このような電子情報にキーワードを付与す
る方法として、特開平6−295318号公報に記載さ
れた方法がある。このキーワード付与方法では、例え
ば、人間の顔写真の画像データにキーワードを付与して
登録する場合には以下のようにしている。
As a method of adding a keyword to such electronic information, there is a method described in Japanese Patent Laid-Open No. 6-295318. In this keyword assigning method, for example, when assigning a keyword to image data of a human face photograph and registering it, the following is performed.

【0004】予め、人間の顔に関する「面長」,「丸顔」
等の種々のキーワード候補を登録しておく。また、各の
キーワード候補毎に、適合度を算出する際に用いる適合
度演算情報と閾値とを登録しておく。例えば、キーワー
ド候補が「面長」の場合の適合度演算情報は「輪郭の縦
横比」である。次に、一つのキーワード候補「面長」と
このキーワード候補「面長」に関する適合度演算情報お
よび閾値とを読み出して、キーワード付与対象の画像デ
ータの特徴量からキーワード候補「面長」の適合度演算
情報に基づいて適合度を演算する。そして、得られた適
合度がキーワード候補「面長」の閾値以上であれば、キ
ーワード候補「面長」を当該画像データに付与するキー
ワードであると決定する。以下、同様の操作を登録され
ているキーワード候補の総てについて行い、付与するキ
ーワードが決定される。こうして、登録作業者の主観に
よらず、客観的なキーワード付与が行われるのである。
In advance, "face length" and "round face" of a human face
Register various keyword candidates such as. Further, for each keyword candidate, the fitness calculation information and the threshold value used when calculating the fitness are registered. For example, when the keyword candidate is "face length", the fitness calculation information is "contour aspect ratio". Next, one keyword candidate “face length”, the fitness calculation information and the threshold value related to this keyword candidate “face length” are read out, and the suitability of the keyword candidate “face length” is read from the feature amount of the image data to which the keyword is attached. The compatibility is calculated based on the calculation information. Then, if the obtained matching degree is equal to or larger than the threshold value of the keyword candidate “face length”, it is determined that the keyword candidate “face length” is a keyword to be added to the image data. Hereinafter, the same operation is performed for all the registered keyword candidates, and the keywords to be given are determined. In this way, the objective keyword assignment is performed regardless of the subjectivity of the registration worker.

【0005】また、他のキーワード付与方法として、特
開平8−329096号公報に記載された方法がある。
このキーワード付与方法では、例えば、快−不快と強−
弱との2つの軸を有する2次元のキーワードマップを定
義している。そして、キーワードを登録する場合には、
登録すべきキーワードを上記キーワードマップ上の点に
手動操作によって配置しておくのである。そうすること
によって、登録画像データを曖昧検索する場合には、指
定キーワードと上記キーワードマップの軸上の距離を指
定すれば、上記キーワードマップ上において指定キーワ
ードの位置を中心として上記指定距離内に位置している
キーワードを検索条件として画像データが検索されるの
である。
As another keyword assigning method, there is a method described in Japanese Patent Application Laid-Open No. 8-329096.
In this keyword assigning method, for example, pleasure-discomfort and strength-
It defines a two-dimensional keyword map that has two axes, weak and weak. And when registering a keyword,
The keywords to be registered are arranged manually at points on the keyword map. By doing so, in the case of ambiguous search for registered image data, if the designated keyword and the distance on the axis of the keyword map are designated, the position within the designated distance is centered on the position of the designated keyword on the keyword map. The image data is searched using the keyword as a search condition.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記特
開平6−295318号公報に記載されたキーワード付
与方法においては、全キーワード候補相互の関連度が不
明である。したがって、画像検索時に1つのキーワード
を指定して、この指定キーワードと上記指定キーワード
の近傍に位置する類似キーワードとに基づいて画像検索
を行う曖昧検索を行うことができないという問題があ
る。また、適合度演算情報に基づく適合度の演算及び閾
値との比較を、登録されているキーワード候補の数だけ
繰り返さなければならず、画像データ登録作業に時間を
要するという問題がある。また、予め夫々のキーワード
候補毎に適当な適合度演算情報と閾値とを設定して登録
しておく必要があり、キーワード付与作業そのものは自
動的に行われるもののキーワード付与システムの構築に
面倒で困難な作業を伴うという問題もある。
However, in the keyword assigning method described in Japanese Patent Laid-Open No. 6-295318, the degree of relevance among all keyword candidates is unknown. Therefore, there is a problem that it is not possible to specify one keyword at the time of image search and perform an ambiguous search in which an image search is performed based on the specified keyword and a similar keyword located near the specified keyword. Further, the calculation of the goodness of fit based on the goodness of fit calculation information and the comparison with the threshold value have to be repeated for the number of registered keyword candidates, which causes a problem that the image data registration work takes time. Further, it is necessary to set and register appropriate fitness calculation information and threshold values for each keyword candidate in advance, and although the keyword assignment work itself is automatically performed, it is troublesome and difficult to construct a keyword assignment system. There is also a problem that it involves a lot of work.

【0007】また、上記特開平8−329096号公報
に記載されたキーワード付与方法では、キーワードをあ
る2次元空間上に位置付けることができ、キーワード間
の関連度を定義付けることが可能である。したがって、
上述のように曖昧検索時のキーワード選択には有効では
ある。ところが、キーワードとこのキーワードを付与す
べき画像データとの対応付けは人間が行っている。ま
た、上述のごとく、上記キーワードマップ上へのキーワ
ードの配置も手動操作によって行わなければならず、非
常に面倒であるという問題がある。
Further, in the keyword assigning method described in Japanese Patent Laid-Open No. 8-329096, the keywords can be positioned in a certain two-dimensional space, and the degree of association between the keywords can be defined. Therefore,
As described above, it is effective for keyword selection during fuzzy search. However, humans associate the keyword with the image data to which the keyword should be added. Further, as described above, the placement of keywords on the keyword map must be performed manually, which is very troublesome.

【0008】そこで、この発明の目的は、簡単に自動的
にキーワードを付与できるキーワード付与方法、およ
び、このキーワード付与方法を用いたキーワード自動付
与装置を提供することにある。
Therefore, an object of the present invention is to provide a keyword assigning method capable of easily and automatically assigning a keyword, and an automatic keyword assigning apparatus using this keyword assigning method.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に係る発明は、記憶部に登録するオブジェ
クトにキーワードを自動的に付与するキーワード付与方
法であって、複数のオブジェクトとこれらのオブジェク
トに付与されたキーワードとが配置された2次元以上の
意味空間を用意し、登録対象オブジェクトの特徴量を抽
出し、上記特徴量に基づいて上記登録対象オブジェクト
の上記意味空間上の位置を求め、上記意味空間上に配置
されているキーワードのうち,上記登録対象オブジェク
トの位置の近傍に位置しているキーワードを選出して,
上記登録対象オブジェクトに付与することを特徴として
いる。
In order to achieve the above object, the invention according to claim 1 is a keyword assigning method for automatically assigning a keyword to an object registered in a storage unit, which comprises a plurality of objects and these objects. A two-dimensional or more semantic space in which the keywords assigned to the object are arranged, the feature amount of the registration target object is extracted, and the position of the registration target object in the semantic space is determined based on the feature amount. Obtained, from the keywords arranged in the semantic space, select a keyword located near the position of the registration target object,
The feature is that it is given to the registration target object.

【0010】上記構成によれば、複数のオブジェクトと
これらのオブジェクトに付与されたキーワードとが配置
された2次元以上の意味空間は、数量化理論III類等の
多変量解析によって容易に得ることができる。したがっ
て、キーワードが付与された複数のオブジェクトを例示
するだけで、登録対象オブジェクトに相応しいキーワー
ドが簡単に且つ自動的に選出されて付与される。
According to the above configuration, a two-dimensional or more semantic space in which a plurality of objects and keywords assigned to these objects are arranged can be easily obtained by multivariate analysis such as quantification theory III. it can. Therefore, only by exemplifying a plurality of objects to which the keyword is added, the keyword suitable for the registration target object is easily and automatically selected and added.

【0011】また、請求項2に係る発明は、請求項1に
係る発明のキーワード付与方法において、複数のオブジ
ェクトに関する上記意味空間上の位置と特徴量とに対し
て正凖相関分析を行って上記複数のオブジェクトに関す
る上記意味空間上の位置と特徴量との相関関係を求め、
上記相関関係を用いて、上記登録対象オブジェクトの特
徴量に基づいて上記登録対象オブジェクトの上記意味空
間上の位置を求めることを特徴としている。
According to a second aspect of the present invention, in the keyword assigning method according to the first aspect of the present invention, the normal correlation analysis is performed on the position and the feature amount of the plurality of objects in the semantic space, The correlation between the position in the above-mentioned semantic space and the feature amount regarding a plurality of objects is obtained,
The position of the registration target object in the semantic space is obtained based on the feature amount of the registration target object using the correlation.

【0012】上記構成によれば、正準相関分析によって
得られた複数のオブジェクトに関する上記意味空間上の
位置と特徴量との相関関係を用いることによって、登録
対象オブジェクトの特徴量に基づいて、上記登録対象オ
ブジェクトの上記意味空間上の正しい位置が求められ
る。
According to the above configuration, by using the correlation between the position in the semantic space and the feature amount regarding a plurality of objects obtained by the canonical correlation analysis, the feature amount of the registration target object is used to The correct position of the registration target object in the above semantic space is obtained.

【0013】また、請求項3に係る発明は、請求項1に
係る発明のキーワード付与方法において、上記意味空間
は,上記複数のオブジェクトが配置されているオブジェ
クト用の意味空間と,このオブジェクト用の意味空間と
同一空間構造を有すると共に上記複数のオブジェクトに
付与されたキーワードが配置されているキーワード用の
意味空間とに分けて用意されており、上記オブジェクト
用の意味空間上における上記登録対象オブジェクトの位
置の近傍に位置しているn個のオブジェクトを選出し、
この選出されたn個のオブジェクト夫々の上記オブジェ
クト用の意味空間上における位置に基づいて,上記キー
ワード用の意味空間を用いて,上記登録対象オブジェク
トの近傍に位置するキーワードを選出することを特徴と
している。
According to a third aspect of the invention, in the keyword assigning method of the first aspect of the invention, the semantic space is a semantic space for an object in which the plurality of objects are arranged, and a semantic space for the object. It is prepared separately from the semantic space for the keyword that has the same spatial structure as the semantic space and the keywords assigned to the plurality of objects are arranged, and the registration target object in the semantic space for the object Select n objects located near the position,
Based on the position of each of the selected n objects in the meaning space for the object, a keyword located in the vicinity of the registration target object is selected using the meaning space for the keyword. There is.

【0014】上記構成によれば、同一空間構造を有する
オブジェクト用の意味空間とキーワード用の意味空間と
を用いることによって、上記登録対象オブジェクトの位
置の近傍に位置しているキーワードが容易に選出され
る。
According to the above configuration, by using the semantic space for the object having the same spatial structure and the semantic space for the keyword, the keyword located near the position of the registration target object can be easily selected. It

【0015】また、請求項4に係る発明は、請求項1に
係る発明のキーワード付与方法において、上記意味空間
は,上記複数のオブジェクトが配置されているオブジェ
クト用の意味空間と,このオブジェクト用の意味空間と
同一空間構造を有すると共に上記複数のオブジェクトに
付与されたキーワードが配置されているキーワード用の
意味空間とに分けて用意されており、上記オブジェクト
用の意味空間上における上記登録対象オブジェクトの位
置の近傍に位置しているn個のオブジェクトを選出し、
この選出されたn個のオブジェクトの上記オブジェクト
用の意味空間上における位置に基づいて,上記オブジェ
クト用の意味空間上における注目位置を求め、上記注目
位置に基づいて,上記キーワード用の意味空間を用いて,
登録対象オブジェクトの近傍に位置するキーワードを選
出することを特徴としている。
Further, in the invention according to claim 4, in the keyword assigning method of the invention according to claim 1, the semantic space is a semantic space for an object in which the plurality of objects are arranged, and a semantic space for the object. It is prepared separately from the semantic space for the keyword that has the same spatial structure as the semantic space and the keywords assigned to the plurality of objects are arranged, and the registration target object in the semantic space for the object Select n objects located near the position,
Based on the positions of the selected n objects in the semantic space for the object, the attention position in the semantic space for the object is obtained, and the semantic space for the keyword is used based on the attention position. hand,
The feature is that a keyword located near the registration target object is selected.

【0016】上記構成によれば、同一空間構造を有する
オブジェクト用の意味空間とキーワード用の意味空間と
を用いることによって、上記登録対象オブジェクトの位
置の近傍に位置しているキーワードが容易に選出され
る。
According to the above construction, by using the semantic space for the object having the same spatial structure and the semantic space for the keyword, the keyword located near the position of the registration target object can be easily selected. It

【0017】また、請求項5に係る発明は、記憶部に登
録するオブジェクトにキーワードを自動的に付与するキ
ーワード自動付与装置であって、複数のオブジェクトと
これらのオブジェクトに付与されたキーワードとが配置
された2次元以上の意味空間の情報が格納された意味空
間格納手段と、登録対象オブジェクトの特徴量を抽出す
る特徴量抽出手段と、上記特徴量に基づいて,上記登録
対象オブジェクトの上記意味空間上の位置を求めるオブ
ジェクト位置算出手段と、上記意味空間上に配置されて
いるキーワードのうち,上記登録対象オブジェクトの位
置の近傍に位置しているキーワードを選出するキーワー
ド選出手段と、上記選出されたキーワードを上記登録対
象オブジェクトに付与するキーワード付与手段を備えた
ことを特徴としている。
The invention according to claim 5 is an automatic keyword assigning device for automatically assigning a keyword to an object to be registered in a storage unit, wherein a plurality of objects and keywords assigned to these objects are arranged. A semantic space storing means for storing information of the generated two or more-dimensional semantic space, a feature quantity extracting means for extracting a feature quantity of a registration target object, and the semantic space of the registration target object based on the feature quantity An object position calculating means for obtaining the upper position, a keyword selecting means for selecting a keyword located in the vicinity of the position of the registration target object among the keywords arranged in the semantic space, and the selected It is characterized by including a keyword assigning means for assigning a keyword to the registration target object. .

【0018】上記構成によれば、意味空間格納部に格納
される2次元以上の意味空間は、複数のオブジェクトと
これらのオブジェクトに付与されたキーワードとに基づ
いて数量化理論III類等の多変量解析によって容易に得
ることができる。したがって、キーワードが付与された
複数のオブジェクトを用意するだけで、登録対象オブジ
ェクトの上記意味空間上の位置に基づいて、上記意味空
間上に配置されているキーワードの中から上記登録対象
オブジェクトに相応しいキーワードが簡単に且つ自動的
に選出される。
According to the above configuration, the two-dimensional or more semantic space stored in the semantic space storage unit is a multivariate such as quantification theory III based on a plurality of objects and keywords assigned to these objects. It can be easily obtained by analysis. Therefore, only by preparing a plurality of objects to which the keyword is added, based on the position of the registration target object in the semantic space, a keyword suitable for the registration target object from among the keywords arranged in the semantic space. Is easily and automatically selected.

【0019】また、請求項6に係る発明は、請求項5に
係る発明のキーワード自動付与装置において、複数のオ
ブジェクトに関する上記意味空間上の位置と特徴量とに
対して正凖相関分析を行って,上記複数のオブジェクト
に関する上記意味空間上の位置と特徴量との相関関係を
求める相関関係算出手段を備えて、上記オブジェクト位
置算出手段は,上記相関関係を用いて,上記登録対象オブ
ジェクトの特徴量に基づいて,上記登録対象オブジェク
トの上記意味空間上の位置を求めるようになっているこ
とを特徴としている。
According to a sixth aspect of the present invention, in the automatic keyword assigning apparatus of the fifth aspect of the invention, a regular correlation analysis is performed on the above-mentioned position in the semantic space and the feature amount regarding a plurality of objects. And a correlation calculating means for obtaining a correlation between the position in the semantic space and the feature amount for the plurality of objects, the object position calculating means, using the correlation, the feature amount of the registration target object. It is characterized in that the position of the registration target object in the semantic space is obtained based on.

【0020】上記構成によれば、正凖相関分析によって
得られた複数のオブジェクトに関する上記意味空間上の
位置と特徴量との相関関係を用いることによって、登録
対象オブジェクトの特徴量に基づいて、上記登録対象オ
ブジェクトの上記意味空間上の正しい位置が求められ
る。
According to the above configuration, by using the correlation between the position in the semantic space and the feature amount regarding the plurality of objects obtained by the normal correlation analysis, the feature amount of the registration target object is used to The correct position of the registration target object in the above semantic space is obtained.

【0021】また、請求項7に係る発明は、請求項5に
係る発明のキーワード自動付与装置において、上記意味
空間の情報は,上記複数のオブジェクトが配置されてい
るオブジェクト用の意味空間と,このオブジェクト用の
意味空間と同一空間構造を有すると共に上記複数のオブ
ジェクトに付与されたキーワードが配置されているキー
ワード用の意味空間とに分けて格納されており、上記キ
ーワード選出手段は、上記オブジェクト用の意味空間上
における上記登録対象オブジェクトの位置の近傍に位置
しているオブジェクトをn個抽出する近傍オブジェクト
抽出手段と、この抽出されたn個のオブジェクト夫々の
上記オブジェクト用の意味空間上における位置に基づい
て,上記キーワード用の意味空間を用いて,上記登録対象
オブジェクトの近傍に位置するキーワードを抽出する近
傍キーワード抽出手段を備えたことを特徴としている。
[0021] According to a seventh aspect of the invention, in the keyword automatic assigning device of the fifth aspect of the invention, the semantic space information is a semantic space for an object in which the plurality of objects are arranged, The object has the same space structure as the object semantic space and is stored separately in the keyword semantic space in which the keywords assigned to the plurality of objects are arranged. Based on neighboring object extraction means for extracting n objects located in the vicinity of the position of the registration target object in the semantic space, and the position of each of the extracted n objects in the semantic space for the object. Then, using the semantic space for the above keywords, It is characterized in that it is provided with a neighborhood keyword extracting means for extracting a keyword located.

【0022】上記構成によれば、同一空間構造を有する
オブジェクト用の意味空間とキーワード用の意味空間と
を対応させることによって、上記登録対象オブジェクト
の位置の近傍に位置しているキーワードが容易に選出さ
れる。
According to the above configuration, the keyword located near the position of the registration target object can be easily selected by associating the semantic space for the object having the same spatial structure with the semantic space for the keyword. To be done.

【0023】また、請求項8に係る発明は、請求項5に
係る発明のキーワード自動付与装置において、上記意味
空間の情報は,上記複数のオブジェクトが配置されてい
るオブジェクト用の意味空間と,このオブジェクト用の
意味空間と同一空間構造を有すると共に上記複数のオブ
ジェクトに付与されたキーワードが配置されているキー
ワード用の意味空間とに分けて格納されており、上記キ
ーワード選出手段は、上記オブジェクト用の意味空間上
における上記登録対象オブジェクトの位置の近傍に位置
しているオブジェクトをn個抽出する近傍オブジェクト
抽出手段と、この抽出されたn個のオブジェクトの上記
オブジェクト用の意味空間上における位置に基づいて,
上記オブジェクト用の意味空間上における注目位置を求
める注目位置算出手段と、上記注目位置に基づいて,上
記キーワード用の意味空間を用いて,上記登録対象オブ
ジェクトの近傍に位置するキーワードを抽出する近傍キ
ーワード抽出手段を備えたことを特徴としている。
The invention according to claim 8 is the automatic keyword assigning device of the invention according to claim 5, wherein the information on the semantic space is a semantic space for an object in which the plurality of objects are arranged, The object has the same space structure as the object semantic space and is stored separately in the keyword semantic space in which the keywords assigned to the plurality of objects are arranged. Based on neighboring object extraction means for extracting n objects located near the position of the registration target object in the semantic space, and the positions of the extracted n objects in the semantic space for the object. ,
Attention position calculation means for obtaining an attention position in the semantic space for the object, and a neighborhood keyword for extracting a keyword located in the vicinity of the registration target object based on the attention position and using the meaning space for the keyword It is characterized by having extraction means.

【0024】上記構成によれば、同一空間構造を有する
オブジェクト用の意味空間とキーワード用の意味空間と
を対応させることによって、上記登録対象オブジェクト
の位置の近傍に位置しているキーワードが容易に選出さ
れる。
According to the above construction, the meaning space for the object having the same spatial structure and the meaning space for the keyword are associated with each other, so that the keyword located near the position of the object to be registered is easily selected. To be done.

【0025】また、請求項9に係る発明のプログラム記
憶媒体は、登録対象オブジェクトの特徴量を抽出し、複
数のオブジェクトとこれらのオブジェクトに付与された
キーワードとが配置された2次元以上の意味空間上にお
ける上記登録対象オブジェクトの位置を上記特徴量に基
づいて求め、上記意味空間上に配置されているキーワー
ドのうち,上記登録対象オブジェクトの位置の近傍に位
置しているキーワードを選出して,上記登録対象オブジ
ェクトに付与するプログラムを記憶していることを特徴
としている。
According to a ninth aspect of the program storage medium of the present invention, a feature space of a registration target object is extracted, and a two-dimensional or more semantic space in which a plurality of objects and keywords assigned to these objects are arranged. The position of the registration target object on the above is obtained based on the feature amount, and from among the keywords arranged in the semantic space, the keyword located near the position of the registration target object is selected, It is characterized in that a program to be added to the registration target object is stored.

【0026】上記構成によれば、複数のオブジェクトと
これらのオブジェクトに付与されたキーワードとが配置
された意味空間上における登録対象オブジェクトの位置
が、この登録対象オブジェクトの特徴量に基づいて求め
られる。その結果、この登録対象オブジェクトの上記意
味空間上の位置の近傍に在るキーワードが、登録対象オ
ブジェクトに相応しいキーワードとして容易に得られ
る。
According to the above configuration, the position of the registration target object in the semantic space in which the plurality of objects and the keywords assigned to these objects are arranged is obtained based on the feature amount of the registration target object. As a result, the keyword existing near the position on the semantic space of the registration target object can be easily obtained as a keyword suitable for the registration target object.

【0027】また、請求項10に係る発明は、請求項9
に係る発明のプログラム記憶媒体において、複数のオブ
ジェクトに関する上記意味空間上の位置と特徴量とに対
して正凖相関分析を行って,上記複数のオブジェクトに
関する上記意味空間上の位置と特徴量との相関関係を求
め、上記相関関係を用いて,上記登録対象オブジェクト
の特徴量に基づいて上記登録対象オブジェクトの上記意
味空間上の位置を求めるプログラムを記憶していること
を特徴としている。
The invention according to claim 10 is the invention according to claim 9.
In the program storage medium of the invention according to the above, a regular correlation analysis is performed on the positions in the semantic space and the feature amount regarding the plurality of objects, and the position and the feature amount in the meaning space regarding the plurality of objects are It is characterized by storing a program for obtaining a correlation and using the correlation to obtain the position of the registration target object in the semantic space based on the feature amount of the registration target object.

【0028】上記構成によれば、上記登録対象オブジェ
クトの特徴量に基づいて上記登録対象オブジェクトの上
記意味空間上の位置を求める場合に、正凖相関分析によ
って求められた相関関係が用いられる。こうして、登録
対象オブジェクトの特徴量に基づいて、上記登録対象オ
ブジェクトの上記意味空間上の正しい位置が求められ
る。
According to the above configuration, when the position of the registration target object in the semantic space is calculated based on the feature amount of the registration target object, the correlation obtained by the normal correlation analysis is used. In this way, the correct position of the registration target object in the semantic space is obtained based on the feature amount of the registration target object.

【0029】尚、ここで、上記「オブジェクト」とは、
本検索装置のような情報処理装置によって保存されるべ
き主体となる電子情報(例えば、テキストデータや画像
データや音声データ)、あるいは、これらをまとめたフ
ォルダ等を意味する。
Here, the above "object" means
It means electronic information (for example, text data, image data, voice data) that is the subject to be stored by an information processing device such as the present search device, or a folder or the like in which these are collected.

【0030】[0030]

【発明の実施の形態】以下、この発明を図示の実施の形
態により詳細に説明する。図1は、本実施の形態のキー
ワード自動付与装置が搭載された検索装置の機能ブロッ
ク図である。尚、本実施の形態においては、上記「オブ
ジェクト」として画像データを用いている。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in detail below with reference to the embodiments shown in the drawings. FIG. 1 is a functional block diagram of a search device equipped with the automatic keyword assigning device of the present embodiment. In this embodiment, image data is used as the “object”.

【0031】入力部1からは、画像データ格納部12に
格納する画像データや検索条件や各種の指示等が入力さ
れる。キーワード登録処理部2は、入力部1から入力さ
れた検索条件の一つであるキーワードとキーワード空間
上の座標とを、互いに対応づけてキーワード格納部3に
登録する。画像データ検索処理部4は、入力部1から設
定されたキーワードを検索条件として、画像データ格納
部12に格納された画像データの中から上記検索条件に
適合する画像データを検索する。そして、検索された画
像データに基づいて候補画像を表示部5に表示する。
Image data to be stored in the image data storage unit 12, search conditions, various instructions, etc. are input from the input unit 1. The keyword registration processing unit 2 registers the keyword, which is one of the search conditions input from the input unit 1, and the coordinates in the keyword space in the keyword storage unit 3 in association with each other. The image data search processing unit 4 searches the image data stored in the image data storage unit 12 for image data that meets the above search conditions, using the keyword set from the input unit 1 as a search condition. Then, the candidate image is displayed on the display unit 5 based on the searched image data.

【0032】辞書作成処理部6は、例示画像に対するキ
ーワードの付与状態を示すサンプルデータに基づいて、
後に詳述するようにして画像辞書およびキーワード辞書
を構築して辞書格納部8に格納する。尚、軸追加部7
は、構築された各辞書に新たな軸を追加する。ベクトル
変換係数作成処理部9は、画像の画像辞書上のn次元座
標ベクトルをk次元合成変数ベクトルfに変換する際に
用いる係数行列A1と、画像のp次元特徴ベクトルをk
次元合成変数ベクトルgに変換する際に用いる係数行列
A2を求めて、ベクトル変換係数格納部10に格納す
る。
The dictionary creation processing unit 6 determines, based on the sample data showing the addition state of the keyword to the example image,
An image dictionary and a keyword dictionary are constructed and stored in the dictionary storage unit 8 as described later in detail. The axis addition unit 7
Adds a new axis to each constructed dictionary. The vector conversion coefficient creation processing unit 9 calculates the coefficient matrix A1 used when converting the n-dimensional coordinate vector of the image in the image dictionary into the k-dimensional composite variable vector f and the p-dimensional feature vector of the image by k.
A coefficient matrix A2 used for conversion into the dimensional composite variable vector g is obtained and stored in the vector conversion coefficient storage unit 10.

【0033】キーワード自動設定処理部14は、特徴量
抽出部15で抽出した登録対象画像のp次元特徴ベクト
ルを、ベクトル変換部16でk次元合成変数ベクトルg
に変換する。そして、画像データ格納部12に登録され
ている全画像の画像辞書上のn次元座標ベクトルを変換
して得られたk次元合成変数ベクトルfとの対応付けか
ら、登録対象画像の近傍画像を得る。そして、この近傍
画像の画像辞書上の座標ベクトルに基づいて、後に詳述
するようにして登録対象画像に相応しいキーワードを設
定する。付加情報入力処理部17は、キーワードやその
他の付加情報をマニュアル入力する。
The keyword automatic setting processor 14 converts the p-dimensional feature vector of the registration target image extracted by the feature extractor 15 into the k-dimensional composite variable vector g by the vector converter 16.
Convert to. Then, the neighborhood image of the registration target image is obtained from the association with the k-dimensional composite variable vector f obtained by converting the n-dimensional coordinate vector in the image dictionary of all the images registered in the image data storage unit 12. . Then, based on the coordinate vector of this neighborhood image in the image dictionary, a keyword suitable for the registration target image is set as described later. The additional information input processing unit 17 manually inputs a keyword and other additional information.

【0034】画像データ登録処理部11は、上記キーワ
ード自動設定処理部14および付加情報入力処理部17
を制御して、入力部1から入力された画像データに自動
的にあるいはマニュアルでキーワードを付与して画像デ
ータ格納部12に登録する。また、付加情報変更処理部
13は、キーワード自動設定処理部14および付加情報
入力処理部17を制御して、変更対象画像の画像データ
に付与されているキーワードを自動的にあるいはマニュ
アルで変更して画像データ格納部12を更新する。
The image data registration processing unit 11 includes the keyword automatic setting processing unit 14 and the additional information input processing unit 17.
Is controlled to automatically or manually add a keyword to the image data input from the input unit 1 and register it in the image data storage unit 12. Further, the additional information change processing unit 13 controls the keyword automatic setting processing unit 14 and the additional information input processing unit 17 to automatically or manually change the keyword added to the image data of the image to be changed. The image data storage unit 12 is updated.

【0035】また、図2および図3は、図1の機能を実
現するハードウェア構成を示す図である。本検索装置
は、図2に示すように、CPU(中央演算処理装置)が搭
載されて検索装置全体の動作を制御する制御装置21を
中心として、CRT(陰極線管)22,キーボード23,マ
ウス24,フロッピーディスクドライブ25b,ハードデ
ィスク装置26,プリンタ27,スキャナ28,CD−R
OMドライブ29b,スピーカ30およびマイクロフォン
31等によって構成される。
2 and 3 are diagrams showing a hardware configuration for realizing the functions of FIG. As shown in FIG. 2, the present search device has a CRT (cathode ray tube) 22, a keyboard 23, and a mouse 24 centered on a control device 21 having a CPU (central processing unit) mounted therein and controlling the operation of the entire search device. , Floppy disk drive 25b, hard disk device 26, printer 27, scanner 28, CD-R
It is composed of an OM drive 29b, a speaker 30, a microphone 31, and the like.

【0036】上記CRT22には、検索された画像や、
文字情報等の操作に必要な各種情報が表示される。キー
ボード23およびマウス24は、各種入力操作や指示操
作の際に使用される。フロッピーディスク25aは、制
御装置21のフロッピーディスクドライブ25bに装着
されてデータが記憶再生される。ハードディスク装置2
6は、画像データやキーワードを記憶する。プリンタ2
7は、画像データに基づく画像や画像編成によって作成
した図面等を用紙上に出力する。スキャナ28は、シー
ト状の原稿上の画像を読み取って画像データを出力す
る。CD−ROM29aは、画像データを所定のフォー
マット形式で格納しており、CD−ROMドライブ29
bに装着されて画像データが再生される。スピーカ30
は音声出力を行い、マイクロフォン31は音声入力を行
う。ここで、スキャナ28およびCD−ROMドライブ
29bによって読み取られた画像データはハードディス
ク装置26に記憶される。尚、スキャナ28,CD−R
OMドライブ29b,スピーカ30およびマイクロフォン
31は、制御装置21に内蔵して一体に構成してもよ
い。
On the CRT 22, the retrieved images and
Various information necessary for operation such as character information is displayed. The keyboard 23 and the mouse 24 are used for various input operations and instruction operations. The floppy disk 25a is attached to the floppy disk drive 25b of the control device 21 to store and reproduce data. Hard disk device 2
Reference numeral 6 stores image data and keywords. Printer 2
Reference numeral 7 outputs an image based on the image data, a drawing created by image organization, or the like on a sheet. The scanner 28 reads an image on a sheet-shaped document and outputs image data. The CD-ROM 29a stores image data in a predetermined format, and a CD-ROM drive 29
Attached to b, the image data is played back. Speaker 30
Outputs a voice, and the microphone 31 inputs a voice. Here, the image data read by the scanner 28 and the CD-ROM drive 29b is stored in the hard disk device 26. In addition, the scanner 28, CD-R
The OM drive 29b, the speaker 30, and the microphone 31 may be built in the control device 21 and integrated.

【0037】図3は、図2を上記制御装置11に搭載さ
れたCPUを中心としたブロック図で表現している。上
記CPU35としては、例えばインテル社製の品番i8
0486DX等を用いる。そして、CPU35には、デ
ータバス36を介して、本検索装置を制御するプログラ
ムが格納されるROM(リード・オンリ・メモリ)38、各
種データおよびプログラムが格納されるRAM(ランダ
ム・アクセス・メモリ)39、画像あるいは文字等をCR
T22に表示する表示制御回路40、キーボード23か
らの入力を転送制御するキーボード制御回路41、マウ
ス24からの入力を転送制御するマウス制御回路42、
フロッピーディスクドライブ25bを制御するフロッピ
ーディスクドライブ制御回路43、ハードディスク装置
26を制御するハードディスク制御回路44、プリンタ
27の出力動作を制御するプリンタ制御回路45、スキ
ャナ28の画像入力動作を制御するスキャナ制御回路4
6、CD−ROMドライブ29bを制御するCD−RO
Mドライブ制御回路47、スピーカ30の音声出力を制
御するスピーカ制御部48、および、マイクロフォン3
1からの音声入力を制御するマイクロフォン制御回路4
9が接続される。
FIG. 3 represents FIG. 2 in a block diagram centering on the CPU mounted in the control device 11. The CPU 35 is, for example, an Intel product number i8.
0486DX or the like is used. The CPU 35 has a ROM (Read Only Memory) 38 in which a program for controlling the search device is stored and a RAM (Random Access Memory) in which various data and programs are stored in the CPU 35. 39, CR image or text
A display control circuit 40 for displaying at T22, a keyboard control circuit 41 for controlling transfer of input from the keyboard 23, a mouse control circuit 42 for controlling transfer of input from the mouse 24,
Floppy disk drive control circuit 43 for controlling floppy disk drive 25b, hard disk control circuit 44 for controlling hard disk device 26, printer control circuit 45 for controlling output operation of printer 27, scanner control circuit for controlling image input operation of scanner 28 Four
6. CD-RO for controlling the CD-ROM drive 29b
The M drive control circuit 47, the speaker control unit 48 that controls the audio output of the speaker 30, and the microphone 3
Microphone control circuit 4 for controlling voice input from 1
9 is connected.

【0038】また、上記CPU35には、本検索装置を
動作させるのに必要な基準クロックを発生するためのク
ロック37が接続され、さらに、データバス36を介し
て各種拡張ボードを接続するための拡張スロット50が
接続される。ここで、上記拡張スロット50にSCSI
ボードを接続し、このSCSIボードを介して、フロッ
ピーディスクドライブ25b、ハードディスク装置2
6、スキャナ28、CD−ROMドライブ29b等を接
続してもよい。
The CPU 35 is connected with a clock 37 for generating a reference clock necessary for operating the present search device, and further, an expansion for connecting various expansion boards via the data bus 36. The slot 50 is connected. Here, the expansion slot 50 has a SCSI
The board is connected, and the floppy disk drive 25b and the hard disk device 2 are connected via this SCSI board.
6, the scanner 28, the CD-ROM drive 29b, etc. may be connected.

【0039】すなわち、本実施の形態においては、上記
入力部1をキーボード23,マウス24,ハードディスク
装置26,スキャナ28およびCD−ROMドライブ2
9bで構成し、上記画像データ格納部6および辞書格納
部8をフロッピーディスク25aおよびハードディスク
装置26等で構成し、キーワード格納部3およびベクト
ル変換係数格納部10をRAM39等で構成し、表示部
5をCRT22で構成し、キーワード登録処理部2,画
像データ検索処理部4,辞書作成処理部6,ベクトル変換
係数作成処理部9,画像データ登録処理部11,付加情報
変更処理部13,キーワード自動設定処理部14,付加情
報入力処理部17をCPU35で構成しているのであ
る。
That is, in the present embodiment, the input unit 1 is used as the keyboard 23, the mouse 24, the hard disk device 26, the scanner 28 and the CD-ROM drive 2.
9b, the image data storage unit 6 and the dictionary storage unit 8 are configured by the floppy disk 25a and the hard disk device 26, and the keyword storage unit 3 and the vector conversion coefficient storage unit 10 are configured by the RAM 39 and the like, and the display unit 5 is used. Is composed of a CRT 22, and a keyword registration processing unit 2, an image data search processing unit 4, a dictionary creation processing unit 6, a vector conversion coefficient creation processing unit 9, an image data registration processing unit 11, an additional information change processing unit 13, and a keyword automatic setting. The processing unit 14 and the additional information input processing unit 17 are constituted by the CPU 35.

【0040】本実施の形態においては、上述のように、
上記画像データ格納部12をフロッピーディスク25a
およびハードディスク装置26で構成しているが、光磁
気ディスク装置等の他の記憶媒体を用いても差し支えな
い。また、入力部1のうち画像データの入力部をハード
ディスク装置26,スキャナ28およびCD−ROMド
ライブ29bで構成しているが、スチルビデオカメラや
ディジタルカメラ等の他の入力装置を用いてもよい。ま
た、プリンタ27の代わりにディジタル複写機等の他の
出力装置を用いてもよい。
In the present embodiment, as described above,
The image data storage section 12 is stored in the floppy disk 25a.
Although the hard disk device 26 is used, another storage medium such as a magneto-optical disk device may be used. Although the image data input section of the input section 1 is composed of the hard disk device 26, the scanner 28 and the CD-ROM drive 29b, other input devices such as a still video camera and a digital camera may be used. Further, instead of the printer 27, another output device such as a digital copying machine may be used.

【0041】また、本検索装置では、キーワード登録処
理,辞書作成処理,ベクトル変換係数作成処理,キーワー
ド自動設定処理、付加情報入力処理,画像データ登録処
理,付加情報変更処理および画像データ検索処理等のプ
ログラムをROM38に記憶するようにしている。しか
しながら、上記プログラムの一部あるいは全部をフロッ
ピーディスク25aやハードディスク装置26等の外部
記憶媒体に保管しておき、必要に応じて上記プログラム
をRAM39に読み込ませるようにしても差し支えな
い。
Further, in the present search device, there are performed a keyword registration process, a dictionary creation process, a vector conversion coefficient creation process, a keyword automatic setting process, an additional information input process, an image data registration process, an additional information change process, an image data search process, etc. The program is stored in the ROM 38. However, part or all of the program may be stored in an external storage medium such as the floppy disk 25a or the hard disk device 26, and the program may be read into the RAM 39 as needed.

【0042】上記構成を有する検索装置は、以下のよう
に動作する。図4は、上記ROM38に格納されたプロ
グラムに基づいてCPU35による制御の下に実行され
る基本処理動作のフローチャートである。以下、図1お
よび図4に従って、本検索装置の基本処理動作について
説明する。
The search device having the above configuration operates as follows. FIG. 4 is a flowchart of a basic processing operation executed under the control of the CPU 35 based on the program stored in the ROM 38. The basic processing operation of this search device will be described below with reference to FIGS. 1 and 4.

【0043】本検索装置の電源が投入されて上記プログ
ラムが起動すると、基本処理動作がスタートする。
When the power of the present search device is turned on and the program is started, the basic processing operation is started.

【0044】ステップS1で、以下の処理において必要
なフラグやレジスタ等のイニシャライズ、および、表示
部5への初期画面表示等の初期設定処理が行われる。
In step S1, initialization of flags and registers necessary for the following processing and initial setting processing such as initial screen display on the display unit 5 are performed.

【0045】ステップS2で、上記表示部5に表示され
た初期画面からジョブメニュー「検索」が選択されたと
判別されるとステップS3に進み、そうでなければステ
ップS4に進む。
If it is determined in step S2 that the job menu "search" is selected from the initial screen displayed on the display section 5, the process proceeds to step S3, and if not, the process proceeds to step S4.

【0046】ステップS3で、上記選択されたジョブメ
ニュー「検索」に従って、画像データ格納部12から所
望の画像データを検索して表示部5に表示する検索処理
が実行される。そうした後、ステップS17に進む。尚、
上記検索処理は、画像データ検索処理部4によって行わ
れる。
In step S3, a search process for searching for desired image data from the image data storage unit 12 and displaying it on the display unit 5 is executed in accordance with the selected job menu "search". After that, the process proceeds to step S17. still,
The search processing is performed by the image data search processing unit 4.

【0047】ステップS4で、上記表示部5に表示され
た初期画面からジョブメニュー「辞書作成」が選択され
たと判別されるとステップS5に進み、そうでなければ
ステップS6に進む。
If it is determined in step S4 that the job menu "create dictionary" is selected from the initial screen displayed on the display section 5, the process proceeds to step S5, and if not, the process proceeds to step S6.

【0048】ステップS5で、上記選択されたジョブメ
ニュー「辞書作成」に従って、予めキーワードが付与さ
れた例示画像に基づいて、画像辞書(画像空間)とキーワ
ード辞書(キーワード空間)を設定し、例示画像の画像辞
書上の座標と付与されたキーワードのキーワード辞書上
の座標とを求めて辞書格納部8に格納する辞書作成処理
が実行される。そうした後、ステップS17に進む。尚、
辞書作成処理は、辞書作成処理部6によって行われる。
In step S5, the image dictionary (image space) and the keyword dictionary (keyword space) are set based on the example image to which the keyword is given in advance in accordance with the selected job menu "create dictionary". A dictionary creation process is performed in which the coordinates on the image dictionary and the coordinates on the keyword dictionary of the assigned keyword are obtained and stored in the dictionary storage unit 8. After that, the process proceeds to step S17. still,
The dictionary creation processing is performed by the dictionary creation processing unit 6.

【0049】ステップS6で、上記表示部5に表示され
た初期画面からジョブメニュー「キーワード登録」が選
択されたと判別されるとステップS7に進み、そうでな
ければステップS8に進む。
If it is determined in step S6 that the job menu "keyword registration" is selected from the initial screen displayed on the display section 5, the process proceeds to step S7, and if not, the process proceeds to step S8.

【0050】ステップS7で、上記選択されたジョブメ
ニュー「キーワード登録」に従って、入力部1から入力
されたキーワードを上記キーワード空間上の座標値と共
にキーワード格納部3に登録するキーワード登録処理が
実行される。そうした後に、ステップS17に進む。尚、
キーワード登録処理は、キーワード登録処理部2によっ
て行われる。
In step S7, according to the selected job menu "keyword registration", a keyword registration process of registering the keyword input from the input unit 1 in the keyword storage unit 3 together with the coordinate value in the keyword space is executed. . After that, the process proceeds to step S17. still,
The keyword registration processing is performed by the keyword registration processing unit 2.

【0051】ステップS8で、上記表示部5に表示され
た初期画面からジョブメニュー「ベクトル変換係数作
成」が選択されたと判別されるとステップS9に進み、
そうでなければステップS10に進む。
If it is determined in step S8 that the job menu "Create vector conversion coefficient" is selected from the initial screen displayed on the display section 5, the process proceeds to step S9.
If not, the process proceeds to step S10.

【0052】ステップS9で、上記選択されたジョブメ
ニュー「ベクトル変換係数作成」に従って、上記作成さ
れた辞書に格納された各画像のn次元の座標ベクトルと
上記各画像の画像データから抽出されたp次元の特徴量
ベクトルとの正凖相関分析が行われ、後に詳述する正凖
相関係数行列A1,A2を求めるベクトル変換係数作成処
理が実行される。そうした後、ステップS17に進む。こ
こで、正凖相関係数行列A1はn次元の座標ベクトルを
k次元の合成変数ベクトルfに変換するためのベクトル
変換係数であり、正凖相関係数行列A2はp次元の特徴
ベクトルをk次元の合成変数ベクトルgに変換するため
のベクトル変換係数である。尚、ベクトル変換係数作成
処理は、ベクトル変換係数作成処理部9によって行われ
る。
In step S9, the n-dimensional coordinate vector of each image stored in the created dictionary and the p extracted from the image data of each image according to the selected job menu "Create vector conversion coefficient" are selected. A regular correlation analysis with the dimensional feature amount vector is performed, and a vector conversion coefficient creating process for obtaining regular correlation coefficient matrices A1 and A2 described later is executed. After that, the process proceeds to step S17. Here, the positive correlation coefficient matrix A1 is a vector conversion coefficient for converting an n-dimensional coordinate vector into a k-dimensional composite variable vector f, and the normal correlation coefficient matrix A2 is a p-dimensional feature vector k. It is a vector conversion coefficient for converting into a dimensional composite variable vector g. The vector conversion coefficient creation processing is performed by the vector conversion coefficient creation processing unit 9.

【0053】ステップS10で、上記表示部5に表示され
た初期画面からジョブメニュー「データ登録」が選択さ
れたと判別されるとステップS11に進み、そうでなけれ
ばステップS12に進む。
If it is determined in step S10 that the job menu "data registration" has been selected from the initial screen displayed on the display section 5, the process proceeds to step S11, and if not, the process proceeds to step S12.

【0054】ステップS11で、上記選択されたジョブメ
ニュー「データ登録」に従って、入力部1から入力され
た画像データを取り込んで、この画像データにキーワー
ドを付与して画像データ格納部12に登録する画像デー
タ登録処理が実行される。そうした後、ステップS17に
進む。尚、画像データ登録処理は、画像データ登録処理
部11によって行われる。
In step S11, the image data input from the input unit 1 is fetched according to the selected job menu "data registration", and a keyword is added to this image data to be registered in the image data storage unit 12. Data registration processing is executed. After that, the process proceeds to step S17. The image data registration processing is performed by the image data registration processing unit 11.

【0055】ステップS12で、上記表示部5に表示され
た初期画面からジョブメニュー「付加情報変更」が選択
されたと判別されるとステップS13に進み、そうでなけ
ればステップS14に進む。
If it is determined in step S12 that the job menu "change additional information" has been selected from the initial screen displayed on the display section 5, the process proceeds to step S13, and if not, the process proceeds to step S14.

【0056】ステップS13で、上記選択されたジョブメ
ニュー「付加情報変更」に従って、画像データ格納部1
2に登録されている画像データを取り込んで、この画像
データに付与されているキーワード等の付加情報を変更
する付加情報変更処理が実行される。そうした後、ステ
ップS17に進む。尚、付加情報変更処理は、付加情報変
更処理部13によって行われる。
In step S13, the image data storage unit 1 is operated in accordance with the selected job menu "additional information change".
The image data registered in No. 2 is taken in, and the additional information changing process for changing the additional information such as the keyword added to this image data is executed. After that, the process proceeds to step S17. The additional information change processing is performed by the additional information change processing unit 13.

【0057】ステップS14で、上記表示部5に表示され
た初期画面からジョブメニュー「その他のメニュー」が
選択されたと判別されるとステップS15に進み、そうで
なければステップS16に進む。
If it is determined in step S14 that the job menu "other menu" is selected from the initial screen displayed on the display section 5, the process proceeds to step S15, and if not, the process proceeds to step S16.

【0058】ステップS15で、上記選択されたジョブメ
ニュー「その他のメニュー」に従って、検索画像のプリ
ントアウト等のその他のメニュー処理が実行される。そ
うした後、ステップS17に進む。
In step S15, other menu processing such as printout of the search image is executed according to the selected job menu "other menu". After that, the process proceeds to step S17.

【0059】ステップS16で、上記表示部5に表示され
た初期画面から「終了」が選択されたか否かが判別され
る。その結果、「終了」が選択されていれば基本処理動
作を終了する一方、そうでなければ、ステップS17に進
む。
In step S16, it is determined whether or not "end" has been selected from the initial screen displayed on the display section 5. As a result, if "end" is selected, the basic processing operation is ended, while if not, the process proceeds to step S17.

【0060】ステップS17で、その他の処理が実行され
る。そうした後、上記ステップS2に戻って次のメニュ
ー処理に移行する。そして、上記ステップS16において
「終了」が選択されると基本処理動作を終了する。
At step S17, other processing is executed. After that, the process returns to the step S2 to shift to the next menu process. Then, when "end" is selected in step S16, the basic processing operation ends.

【0061】以下、上記「辞書作成処理」,「キーワード登
録処理」,「ベクトル変換係数作成処理」,「画像データ登録
処理」及び「付加情報変更処理」について詳細に説明す
る。尚、「検索処理」および「その他のメニュー処理」
等については、この発明とは直接関係ないので詳細な説
明は省略する。
The "dictionary creating process", "keyword registering process", "vector conversion coefficient creating process", "image data registering process" and "additional information changing process" will be described in detail below. "Search processing" and "Other menu processing"
Since these are not directly related to the present invention, detailed description thereof will be omitted.

【0062】図5は、図4に示す基本処理動作における
ステップS5において、上記辞書作成処理部6によって
実行される辞書作成処理サブルーチンのフローチャート
である。以下、図5に従って、辞書作成処理動作につい
て詳細に説明する。図4に示す基本処理動作のメインル
ーチンの上記ステップS4においてジョブメニュー「辞書
作成」が選択されたと判別されると、辞書作成処理サブ
ルーチンがスタートする。
FIG. 5 is a flowchart of a dictionary creation processing subroutine executed by the dictionary creation processing unit 6 in step S5 in the basic processing operation shown in FIG. Hereinafter, the dictionary creation processing operation will be described in detail with reference to FIG. When it is determined in step S4 of the main routine of the basic processing operation shown in FIG. 4 that the job menu "create dictionary" is selected, the dictionary creation processing subroutine starts.

【0063】ここで、上記辞書とは、複数の画像と各画
像に付与されたキーワードとの相関辞書であり、n次元
の意味空間上における各画像の座標ベクトルが登録され
た画像辞書と、上記意味空間上における各キーワードの
座標ベクトルが登録されたキーワード辞書とで構成され
る。尚、上記辞書の構築は、アンケートによって、多数
の例示画像に1例示画像毎に複数のキーワードを付与し
てもらったサンプルデータに基づいて行う。
Here, the dictionary is a correlation dictionary of a plurality of images and keywords assigned to each image, and an image dictionary in which coordinate vectors of each image in an n-dimensional semantic space are registered, and the above-mentioned dictionary. It is composed of a keyword dictionary in which coordinate vectors of each keyword in the semantic space are registered. The dictionary is constructed based on sample data obtained by giving a plurality of exemplary images with a plurality of keywords for each exemplary image by a questionnaire.

【0064】図6は上記サンプルデータの例を示す。図
6(a)は、例示画像にそのキーワードが付与された(1)
か否か(0)を表すものである。これに対して、図6(b)
は、例示画像にそのキーワードを付与した人数を表すも
のである。この他に、例示画像にそのキーワードが閾値
回数以上付与された(1)か否か(0)を表すものであって
も、キーワードに重みを持たせて集計したものであって
も差し支えない。尚、上記サンプルデータには各例示画
像の特徴量も含まれており、後のベクトル変換係数作成
処理の際に用いられる。
FIG. 6 shows an example of the sample data. In FIG. 6A, the keyword is added to the example image (1)
It indicates whether or not (0). On the other hand, Fig. 6 (b)
Indicates the number of persons who have given the keyword to the example image. In addition to this, it does not matter whether the keyword is added (1) or not (0) to the exemplary image a threshold number of times or more, or the keyword may be weighted for aggregation. It should be noted that the sample data also includes the feature amount of each example image and is used in the subsequent vector conversion coefficient creation processing.

【0065】ステップS21で、ユーザとの対話によっ
て、辞書全体の構築を行うのか否かが判別される。その
結果、辞書全体の構築を行う場合にはステップS22に進
み、そうでなければステップS23に進む。
In step S21, it is determined whether or not to construct the entire dictionary by the dialogue with the user. As a result, if the entire dictionary is constructed, the process proceeds to step S22, and if not, the process proceeds to step S23.

【0066】ステップS22で、後に詳述するようにして
辞書全体の構築処理が実行される。
In step S22, the entire dictionary is constructed as will be described later.

【0067】ステップS23で、ユーザとの対話によっ
て、上記辞書に対する軸の追加を行うか否かが判別され
る。その結果、軸を追加する場合にはステップS24に進
み、そうでなければ辞書作成処理サブルーチンを終了し
て、図4に示す基本処理動作のメインルーチンにリター
ンする。
In step S23, it is determined whether or not to add the axis to the dictionary by the dialogue with the user. As a result, if an axis is to be added, the process proceeds to step S24, and if not, the dictionary creation process subroutine is terminated and the process returns to the main routine of the basic process operation shown in FIG.

【0068】ステップS24で、後に詳述するようにして
軸追加処理が実行される。そうした後、辞書作成処理サ
ブルーチンを終了して、図4に示す基本処理動作のメイ
ンルーチンにリターンする。
In step S24, axis addition processing is executed as will be described later in detail. After that, the dictionary creation processing subroutine is terminated, and the processing returns to the main routine of the basic processing operation shown in FIG.

【0069】図7は、図5に示す辞書作成処理サブルー
チンの上記ステップS22において実行される辞書全体の
構築処理サブルーチンのフローチャートである。以下、
図1および図7に従って、辞書全体の構築処理動作につ
いて詳細に説明する。図5に示す辞書作成処理サブルー
チンにおける上記ステップS21において「辞書全体の構
築」が指定されると辞書全体の構築処理サブルーチンが
スタートする。
FIG. 7 is a flowchart of the dictionary construction process subroutine executed in step S22 of the dictionary creation process subroutine shown in FIG. Less than,
The construction processing operation of the entire dictionary will be described in detail with reference to FIGS. 1 and 7. When "build entire dictionary" is designated in step S21 in the dictionary creating processing subroutine shown in FIG. 5, the entire dictionary building processing subroutine starts.

【0070】ステップS31で、上記入力部1から上記サ
ンプルデータが読み込まれて内部メモリ等に格納され
る。そして、全例示画像と各例示画像に付与されている
キーワードとが対となって取り込まれる。
In step S31, the sample data is read from the input section 1 and stored in the internal memory or the like. Then, all the exemplary images and the keywords assigned to the respective exemplary images are captured as a pair.

【0071】ステップS32で、上記各キーワードをカテ
ゴリとし、上記各画像の画像データをサンプルとして、
数量化理論III類による解析が行われる。
At step S32, each keyword is set as a category, and image data of each image is set as a sample.
Analysis by quantification theory III is performed.

【0072】ここで、上記数量化理論III類とは、多変
量解析の1つであり、サンプルの種々カテゴリへの対応
の仕方に基づいて、サンプルとカテゴリの両方をn次元
の意味空間上における座標として数量化する。つまり、
サンプルiにxi (n)という数量を与え、カテゴリjにy
j (n)という数量を与えるに際して、xi (n)とyj (n)との
相関係数を最大にするようなxi (n),yj (n)を求めるこ
とである。
Here, the quantification theory III is one of multivariate analysis, and both the sample and the category in the n-dimensional semantic space are determined based on the correspondence of the sample to various categories. Quantify as coordinates. That is,
Given the quantity x i (n) to sample i and y to category j
When giving a quantity of j (n) , x i (n) and y j (n) that maximize the correlation coefficient between x i (n) and y j (n) are obtained.

【0073】ステップS33で、上記数量化理論III類に
よる解析結果より、第n成分までのカテゴリスコアyj
(n)とサンプルスコアxi (n)とが求められる。ここで、
nは、カテゴリ数とサンプル数とのうち小さい方の数よ
りも小さい数である。
In step S33, the category score y j up to the n-th component is calculated from the analysis result by the above quantification theory III.
(n) and the sample score x i (n) are obtained. here,
n is a number smaller than the smaller one of the number of categories and the number of samples.

【0074】ステップS34で、上記各成分毎に、上記カ
テゴリスコアの最大値が「1」、最小値が「−1」になるよ
うに各カテゴリスコアが正規化される。
In step S34, each category score is normalized so that the maximum value of the category score is "1" and the minimum value thereof is "-1" for each component.

【0075】ステップS35で、上記各成分毎に、上記サ
ンプルスコアの最大値が「1」、最小値が「−1」になるよ
うに各サンプルスコアが正規化される。
In step S35, each sample score is normalized so that the maximum value of the sample score is "1" and the minimum value thereof is "-1" for each component.

【0076】ステップS36で、上記ステップS34におい
て求められた各カテゴリスコアの正規化値から得られた
各キーワードのn次元意味空間(キーワード空間)上の座
標ベクトルが、キーワード辞書として辞書格納部8に格
納される。
In step S36, the coordinate vector in the n-dimensional meaning space (keyword space) of each keyword obtained from the normalized value of each category score obtained in step S34 is stored in the dictionary storage unit 8 as a keyword dictionary. Is stored.

【0077】ステップS37で、上記ステップS35におい
て求められた各サンプルスコアの正規化値から得られた
各画像のn次元意味空間(画像空間)上の座標ベクトル
が、画像辞書として上記辞書格納部8に格納される。そ
うした後、辞書全体の構築処理サブルーチンを終了し
て、図4に示す基本処理動作のメインルーチンにリター
ンする。
In step S37, the coordinate vector in the n-dimensional meaning space (image space) of each image obtained from the normalized value of each sample score obtained in step S35 is used as the image dictionary in the dictionary storage unit 8 described above. Stored in. After that, the construction process subroutine for the entire dictionary is ended, and the process returns to the main routine of the basic processing operation shown in FIG.

【0078】上述のようにして構築されたキーワードの
n次元の意味空間(キーワード空間)と画像のn次元の意
味空間(画像空間)とは高い相関を有している。したがっ
て、上記画像空間上の任意の画像に対して、当該画像の
画像空間上の座標に対応するキーワード空間上の座標付
近には、当該画像に相応しいキーワードが配置されてい
る。逆に、上記キーワード空間上の任意のキーワードに
対して、当該キーワードのキーワード空間上の座標に対
応する画像空間上の座標付近には、当該キーワードに相
応しい画像が配置されているのである。
The keyword n-dimensional meaning space (keyword space) constructed as described above and the image n-dimensional meaning space (image space) have a high correlation. Therefore, for any image in the image space, a keyword suitable for the image is arranged near the coordinates in the keyword space corresponding to the coordinates in the image space of the image. On the contrary, for an arbitrary keyword in the keyword space, an image suitable for the keyword is arranged near the coordinates in the image space corresponding to the coordinates of the keyword in the keyword space.

【0079】すなわち、本実施の形態では、上記意味空
間格納手段を辞書格納部8で構成するのである。
That is, in the present embodiment, the semantic space storage means is constructed by the dictionary storage unit 8.

【0080】こうして、上記辞書格納部8に、キーワー
ドのn次元の意味空間(キーワード空間)上における座標
ベクトルをキーワード辞書として登録すると共に、画像
のn次元の意味空間(画像空間)上における座標ベクトル
を画像辞書として登録しておくことによって、キーワー
ド間および画像間の関連度を設定できる。したがって、
あるキーワードの類似キーワードやある画像の類似画像
を上記キーワード辞書や画像辞書を引くことによって容
易に得ることができる。さらに、新たな画像に付与する
のに相応しいキーワードを検索することもできるのであ
る。
In this way, the coordinate vector of the keyword in the n-dimensional meaning space (keyword space) is registered in the dictionary storage unit 8 as a keyword dictionary, and the coordinate vector of the image in the n-dimensional meaning space (image space) is registered. By registering as an image dictionary, the degree of association between keywords and images can be set. Therefore,
A similar keyword of a certain keyword or a similar image of a certain image can be easily obtained by looking up the keyword dictionary or the image dictionary. Furthermore, it is possible to search for a keyword suitable for giving to a new image.

【0081】図8は、図5に示す辞書作成処理サブルー
チンの上記ステップS24において、上記辞書作成処理部
6の軸追加部7によって実行される軸追加処理サブルー
チンのフローチャートである。以下、図1および図8に
従って、軸追加処理動作について詳細に説明する。図5
に示す辞書作成処理サブルーチンにおける上記ステップ
S23において「軸の追加」が指定されると軸追加処理サブ
ルーチンがスタートする。
FIG. 8 is a flowchart of the axis addition processing subroutine executed by the axis addition section 7 of the dictionary creation processing section 6 in step S24 of the dictionary creation processing subroutine shown in FIG. Hereinafter, the axis addition processing operation will be described in detail with reference to FIGS. 1 and 8. Figure 5
When "addition of axis" is designated in the step S23 in the dictionary creation processing subroutine shown in (4), the axis addition processing subroutine is started.

【0082】ステップS41で、上記キーワード格納部3
に登録されている登録キーワードのリストが表示部5に
表される。
In step S41, the keyword storage unit 3
A list of registered keywords registered in is displayed on the display unit 5.

【0083】ステップS42で、ユーザとの対話によっ
て、登録キーワードの中から対極に配置したい2つのキ
ーワードが選択される。
In step S42, two keywords to be placed opposite to each other are selected from the registered keywords by the dialogue with the user.

【0084】ステップS43で、上記キーワード空間上に
おいて両選択キーワードの距離が最も遠くなる2軸を組
み合わせた2軸マップが作成される。そして、2軸マッ
プ上においてを両選択キーワード結ぶ直線上に全登録キ
ーワードが射影され、全登録キーワードの上記直線上の
座標が得られる。
In step S43, a two-axis map is created which is a combination of the two axes in which the distances between the selected keywords are the longest in the keyword space. Then, all registered keywords are projected on a straight line connecting both selected keywords on the two-axis map, and the coordinates on the straight line of all registered keywords are obtained.

【0085】ステップS44で、上記ステップS43におい
て得られた全登録キーワードの上記直線上の座標のうち
最大値が「1」、最小値が「−1」になるように各登録キー
ワードの座標値が正規化される。
In step S44, the coordinate value of each registered keyword is set so that the maximum value is "1" and the minimum value is "-1" among the coordinates on the straight line of all registered keywords obtained in step S43. Is normalized.

【0086】ステップS45で、上記正規化された座標値
の順に、全登録キーワードが表示部5に表示される。
In step S45, all registered keywords are displayed on the display unit 5 in the order of the normalized coordinate values.

【0087】ステップS46で、ユーザとの対話によっ
て、上記直線を新たな座標軸とする軸名称が設定され、
新規軸の「+」ラベルと「−」ラベルとが設定される。
In step S46, the axis name having the above straight line as a new coordinate axis is set by the interaction with the user.
The "+" label and "-" label of the new axis are set.

【0088】ステップS47で、設定された新規軸の情報
と全登録キーワードの新規軸上の座標とが、辞書格納部
8に追加登録される。そうした後、軸追加処理サブルー
チンを終了して、図4に示す基本処理動作のメインルー
チンにリターンする。
In step S47, the set new axis information and the coordinates of all registered keywords on the new axis are additionally registered in the dictionary storage unit 8. After that, the axis addition processing subroutine is ended, and the process returns to the main routine of the basic processing operation shown in FIG.

【0089】ここで、上記数量化理論III類による解析
の結果得られたn本の軸の具体的意味を、ユーザは知る
ことはできない。ところが、上述のような新たな軸をユ
ーザによって自由に設定することによって、ユーザがそ
の意味を理解できる軸上に登録キーワードを配置できる
のである。
Here, the user cannot know the specific meaning of the n axes obtained as a result of the analysis based on the quantification theory III. However, by freely setting the new axis as described above by the user, the registered keyword can be arranged on the axis from which the user can understand the meaning.

【0090】図9は、図4に示す基本処理動作における
ステップS7において、上記キーワード登録処理部2に
よって実行されるキーワード登録処理サブルーチンのフ
ローチャートである。以下、図9に従って、キーワード
登録処理動作について詳細に説明する。図4に示す基本
処理動作のメインルーチンの上記ステップS6において
ジョブメニュー「キーワード登録」が選択されたと判別
されると、キーワード登録処理サブルーチンがスタート
する。
FIG. 9 is a flowchart of the keyword registration processing subroutine executed by the keyword registration processing section 2 in step S7 in the basic processing operation shown in FIG. Hereinafter, the keyword registration processing operation will be described in detail with reference to FIG. When it is determined that the job menu "keyword registration" is selected in step S6 of the main routine of the basic processing operation shown in FIG. 4, the keyword registration processing subroutine is started.

【0091】ステップS51で、ユーザによって上記入力
部1から入力された入力キーワードが取り込まれる。
In step S51, the input keyword input by the user from the input section 1 is fetched.

【0092】ステップS52で、上記画像データ格納部1
2に登録されている画像データに基づいて、既登録画像
が表示部5に一覧表示される。
In step S52, the image data storage unit 1
The registered images are displayed as a list on the display unit 5 based on the image data registered in 2.

【0093】ステップS53で、ユーザとの対話によっ
て、一覧表示されている既登録画像の中から上記入力キ
ーワードに相応しい画像が選択される。尚、選択画像は
少なくとも1つあればよく、複数選択されても一向に構
わない。
In step S53, an image suitable for the input keyword is selected from the registered images displayed in the list by the dialogue with the user. At least one selected image may be selected, and a plurality of selected images may be selected.

【0094】ステップS54で、上記ステップS53におい
て選択された画像の上記画像辞書上における座標ベクト
ルが辞書格納部8から読み出され、選択画像の画像空間
(画像辞書)上での平均座標が求められる。この平均座標
の算出は、読み出された座標ベクトルの各要素値を単純
平均した値を要素値とするベクトルを求めることによっ
て行う。尚、上記画像空間上の平均座標は、同一意味空
間であるキーワード空間上における同一座標と対応付け
られているのであるから、上記入力キーワードのキーワ
ード空間上の座標と見なすことができる。
In step S54, the coordinate vector in the image dictionary of the image selected in step S53 is read from the dictionary storage unit 8, and the image space of the selected image is read.
The average coordinates on the (image dictionary) are calculated. The calculation of the average coordinates is performed by obtaining a vector whose element value is a value obtained by simply averaging each element value of the read coordinate vector. Since the average coordinates in the image space are associated with the same coordinates in the keyword space, which is the same meaning space, they can be regarded as the coordinates of the input keyword in the keyword space.

【0095】ステップS55で、上記入力キーワードに上
記ステップS54において求められた平均座標の座標ベク
トルが付加されて、キーワード格納部3に追加登録され
る。また、上記入力キーワードのキーワード空間上の位
置情報が辞書格納部8に追加登録される。
In step S55, the coordinate vector of the average coordinates obtained in step S54 is added to the input keyword and additionally registered in the keyword storage unit 3. Further, position information of the input keyword in the keyword space is additionally registered in the dictionary storage unit 8.

【0096】ステップS56で、ユーザとの対話によっ
て、キーワード登録が終了したか否かが判別される。そ
の結果、終了していなければ上記ステップS51にリター
ンして次のキーワードの入力に移行し、終了していれ
ば、図4に示すメインルーチンにリターンする。
At step S56, it is determined by dialogue with the user whether or not the keyword registration is completed. As a result, if it has not been completed, the procedure returns to step S51 to move to the input of the next keyword, and if it has been completed, the procedure returns to the main routine shown in FIG.

【0097】こうして、ユーザは、新たに登録したいキ
ーワードに相応しい画像を選択するだけの簡単な操作
で、この選択画像の画像空間上での位置に基づいて登録
対象キーワードのキーワード空間上での位置が自動的に
求められ、そのキーワード空間上の位置に登録されるの
である。尚、上述のようにして上記キーワード辞書に新
たにキーワードが追加されて行くことによってキーワー
ド辞書が拡張されて行くと、やがて、追加登録されたキ
ーワードの座標からの影響を受けて既に登録されている
キーワードの座標を変更する必要が生ずる。その場合に
は、再度「辞書全体の構築処理」を実行することによっ
て、ユーザのキーワード設定の最新の判断基準が反映さ
れたキーワード辞書を構築できるのである。
Thus, the user can determine the position of the keyword to be registered in the keyword space based on the position of the selected image in the image space by a simple operation of simply selecting an image suitable for the keyword to be newly registered. It is automatically obtained and registered at the position in the keyword space. When the keyword dictionary is expanded by adding new keywords to the keyword dictionary as described above, the keywords are already registered due to the influence of the coordinates of the additionally registered keywords. It becomes necessary to change the coordinates of the keywords. In that case, by executing the "construction process of the entire dictionary" again, it is possible to construct the keyword dictionary in which the latest judgment standard of the keyword setting of the user is reflected.

【0098】ところで、上述のようにして構築された画
像辞書(画像空間)とキーワード辞書(キーワード空間)と
は同じn次元の意味空間であるから、互いに高い相関を
有している。したがって、新たに登録する画像の画像辞
書上の位置が分かれば、その画像辞書上の位置に対応す
るキーワード辞書上の位置の近傍にあるキーワードを上
記新たに登録する画像に相応しいキーワードとして自動
的に付与できることになる。そこで、このような自動キ
ーワード付与を実現するためには、新たに登録する画像
の画像辞書上の位置を知る必要となる。
By the way, since the image dictionary (image space) and the keyword dictionary (keyword space) constructed as described above are the same n-dimensional semantic space, they have a high correlation. Therefore, if the position of the image to be newly registered in the image dictionary is known, a keyword near the position in the keyword dictionary corresponding to the position in the image dictionary is automatically set as a keyword suitable for the newly registered image. Can be given. Therefore, in order to realize such automatic keyword assignment, it is necessary to know the position in the image dictionary of the image to be newly registered.

【0099】一方、画像の特性を表す値として色や形状
やテクスチャ等の特徴量がある。そこで、画像の特徴量
と画像辞書上の位置との関係が分かっていれば、新たに
登録する画像の特徴量を求めることによって、上記新た
に登録する画像の画像辞書上の位置を知ることができ
る。以下、画像の画像辞書上の位置と特徴量との関係、
つまり、定量的に測定された2組の変数群の対応関係の
分析について説明する。
On the other hand, there are characteristic quantities such as color, shape, texture, etc. as values representing the characteristics of the image. Therefore, if the relationship between the image feature amount and the position in the image dictionary is known, the position of the newly registered image in the image dictionary can be known by obtaining the feature amount of the newly registered image. it can. Below, the relationship between the position of the image in the image dictionary and the feature amount,
That is, the analysis of the correspondence relationship between the two quantitatively measured variable groups will be described.

【0100】2組の変数群X(X1,X2,…,Xn),Y(Y1,
2,…,Yp)の間の相関的構造を分析する方法に正準相
関分析がある。この正準相関分析によれば、画像辞書上
のr個の画像のn次元の座標ベクトルをXとし、その合
成変数行列をF(=A1・XT)とする。一方、p次元の特
徴ベクトルをYとし、その合成変数行列をG(=A2・
T)とする。そして、上記合成変数行列F,Gの相関を
高くするように正準相関係数行列A1,A2を決定するの
である。その結果、互いに高い相関を持って対応付けら
れた(r×k)の合成変数行列Fの空間と(r×k)の合成
変数行列Gの空間が構築され、画像の特徴ベクトルに基
づく合成変数行列Gの空間上のベクトルが与えられる
と、合成変数行列Fの空間上の対応するベクトルを介し
て同一画像の画像辞書上の座標ベクトルを求めることが
できるのである。つまり、正準相関係数行列A1はn次
元の座標ベクトルをk次元の合成変数ベクトルfに変換
するためのベクトル変換係数であり、正準相関係数行列
A2はp次元の特徴ベクトルをk次元の合成変数ベクト
ルgに変換するためのベクトル変換係数なのである。
Two sets of variables X (X 1 , X 2 , ..., X n ), Y (Y 1 ,
A canonical correlation analysis is a method for analyzing the correlation structure between Y 2 , ..., Y p ). According to this canonical correlation analysis, the n-dimensional coordinate vector of the r images on the image dictionary is X, and its composite variable matrix is F (= A1 · X T ). On the other hand, the p-dimensional feature vector is Y, and its composite variable matrix is G (= A2.
Y T ). Then, the canonical correlation coefficient matrices A1 and A2 are determined so as to increase the correlation between the composite variable matrices F and G. As a result, the space of the (r × k) composite variable matrix F and the space of the (r × k) composite variable matrix G that are associated with each other with high correlation are constructed, and the composite variable based on the image feature vector. Given a vector in the space of the matrix G, the coordinate vector in the image dictionary of the same image can be obtained via the corresponding vector in the space of the composite variable matrix F. That is, the canonical correlation coefficient matrix A1 is a vector conversion coefficient for converting an n-dimensional coordinate vector into a k-dimensional synthetic variable vector f, and the canonical correlation coefficient matrix A2 is a p-dimensional feature vector k-dimensional. Is a vector conversion coefficient for converting into the combined variable vector g of.

【0101】図10は、図4に示す基本処理動作におけ
るステップS9において、上記ベクトル変換係数作成処
理部9によって実行されるベクトル変換係数作成サブル
ーチンのフローチャートである。以下、図1および図1
0に従って、ベクトル変換係数作成処理動作について詳
細に説明する。図4に示す基本処理動作のメインルーチ
ンの上記ステップS8においてジョブメニュー「ベクト
ル変換係数作成」が選択されたと判別されると、ベクト
ル変換係数作成処理サブルーチンがスタートする。
FIG. 10 is a flow chart of a vector conversion coefficient creation subroutine executed by the vector conversion coefficient creation processing section 9 in step S9 in the basic processing operation shown in FIG. Hereinafter, FIG. 1 and FIG.
0, the vector conversion coefficient creation processing operation will be described in detail. When it is determined in step S8 of the main routine of the basic processing operation shown in FIG. 4 that the job menu "vector conversion coefficient creation" is selected, the vector conversion coefficient creation processing subroutine is started.

【0102】ステップS61で、上記辞書格納部8から画
像辞書上における各画像のn次元座標ベクトルが読み出
される。一方、対応する画像のp次元特徴ベクトルが上
記内部メモリから読み出される。そして、上記読み出さ
れた各画像の座標ベクトルと対応する特徴ベクトルとの
正準相関分析が行われる。
In step S61, the n-dimensional coordinate vector of each image in the image dictionary is read from the dictionary storage unit 8. On the other hand, the p-dimensional feature vector of the corresponding image is read from the internal memory. Then, a canonical correlation analysis is performed between the read coordinate vector of each image and the corresponding feature vector.

【0103】ステップS62で、上記ステップS61におけ
る正準相関分析の結果得られた座標ベクトル変換用の正
準相関係数行列A1(n×k)と、特徴ベクトル変換用の
正準相関係数行列A2(p×k)とが、ベクトル変換係数
格納部10に格納される。
In step S62, the canonical correlation coefficient matrix A1 (n × k) for coordinate vector conversion obtained as a result of the canonical correlation analysis in step S61 and the canonical correlation coefficient matrix for feature vector conversion are obtained. A 2 (p × k) is stored in the vector conversion coefficient storage unit 10.

【0104】ステップS63で、上記画像辞書に格納され
たr個の画像の座標ベクトルに正準相関係数行列A1が
掛けられて、k次元の合成変数ベクトルfに変換され
る。そして、得られた合成変数ベクトルfが上記ベクト
ル変換係数格納部10に格納される。
In step S63, the coordinate vectors of the r images stored in the image dictionary are multiplied by the canonical correlation coefficient matrix A1 and converted into a k-dimensional composite variable vector f. Then, the obtained composite variable vector f is stored in the vector conversion coefficient storage unit 10.

【0105】ステップS64で、上記r個の画像の特徴ベ
クトルに正準相関係数行列A2が掛けられて、k次元の
合成変数ベクトルにg変換される。
In step S64, the feature vectors of the r images are multiplied by the canonical correlation coefficient matrix A2, and g-transformed into a k-dimensional composite variable vector.

【0106】ステップS65で、上記ステップS64におい
て求められたk次元合成変数ベクトルgの各次元に関し
て最大値と最小値とが求められ、ベクトル変換係数格納
部10に格納される。そうした後、ベクトル変換係数作
成処理動作を終了して図4に示すメインルーチンにリタ
ーンする。
In step S65, the maximum value and the minimum value for each dimension of the k-dimensional composite variable vector g calculated in step S64 are calculated and stored in the vector conversion coefficient storage unit 10. After that, the vector conversion coefficient creation processing operation is terminated and the process returns to the main routine shown in FIG.

【0107】すなわち、本実施の形態においては、上記
相関関係算出手段を、上記ベクトル変換係数作成処理サ
ブルーチンにおける上記ステップS61,S62で構成する
のである。
That is, in this embodiment, the correlation calculating means is constituted by the steps S61 and S62 in the vector conversion coefficient creating processing subroutine.

【0108】こうして、画像のp次元特徴ベクトルをk
次元の合成変数ベクトルgに変換する正準相関係数行列
A2が求められたので、当該画像の画像辞書上の位置を
推定することができる。したがって、上述したように、
新たに登録する画像に相応しいキーワードを自動付与す
ることが可能になる。以下、キーワード自動付与動作が
含まれる画像データ登録処理について説明する。
Thus, the p-dimensional feature vector of the image is k
Since the canonical correlation coefficient matrix A2 to be converted into the dimensional synthetic variable vector g is obtained, the position of the image in the image dictionary can be estimated. Therefore, as mentioned above,
It becomes possible to automatically assign a keyword suitable for an image to be newly registered. Hereinafter, the image data registration processing including the keyword automatic addition operation will be described.

【0109】図11は、図4に示す基本処理動作におけ
るステップS11において、上記画像データ登録処理部1
1によって実行される画像データ登録処理サブルーチン
のフローチャートである。以下、図1及び図11に従っ
て、画像データ登録処理動作について詳細に説明する。
図4に示す基本処理動作のメインルーチンにおける上記
ステップS10においてジョブメニュー「データ登録」が
選択されたと判別されると、画像データ登録処理サブル
ーチンがスタートする。
FIG. 11 shows the above-mentioned image data registration processing unit 1 in step S11 in the basic processing operation shown in FIG.
6 is a flowchart of an image data registration processing subroutine executed by the first embodiment. The image data registration processing operation will be described in detail below with reference to FIGS. 1 and 11.
When it is determined in step S10 in the main routine of the basic processing operation shown in FIG. 4 that the job menu "data registration" is selected, the image data registration processing subroutine is started.

【0110】ステップS71で、ユーザとの対話によっ
て、新規の画像データを登録するのか否かが判別され
る。その結果、新規画像データの場合にはステップS72
に進み、そうでなければステップS73に進む。
In step S71, it is determined by dialogue with the user whether or not new image data is to be registered. As a result, in the case of new image data, step S72
Otherwise, to step S73.

【0111】ステップS72で、後に詳述するようにし
て、画像データ取り込み処理が実行される。そうした
後、ステップS74に進む。
In step S72, an image data fetching process is executed as will be described later. After that, the process proceeds to step S74.

【0112】ステップS73で、既存の画像データが選択
されて読み出される。
In step S73, existing image data is selected and read.

【0113】ステップS74で、ユーザとの対話によっ
て、自動でキーワードを付与するか否かが判別される。
その結果、自動キーワード付与を行う場合にはステップ
S75に進み、そうでない場合にはステップS77に進む。
In step S74, it is determined by dialogue with the user whether or not a keyword is automatically added.
As a result, if the automatic keyword assignment is performed, the process proceeds to step S75, and if not, the process proceeds to step S77.

【0114】ステップS75で、後に詳述するように上記
キーワード自動設定処理部14が制御されて、キーワー
ド自動設定処理が実行される。
In step S75, the keyword automatic setting processing section 14 is controlled to execute the keyword automatic setting processing as will be described later in detail.

【0115】ステップS76で、上記ステップS75におい
て設定されたキーワードが上記ステップS72あるいはス
テップS73において取り込まれた画像データの付加情報
の一つとして設定される。
At step S76, the keyword set at step S75 is set as one of the additional information of the image data fetched at step S72 or step S73.

【0116】ステップS77で、ユーザとの対話によっ
て、付加情報を手動で入力するか否かが判別される。そ
の結果、手動で入力する場合にはステップS78に進み、
そうでなければステップS79に進む。
In step S77, it is determined whether or not the additional information is to be manually input by the interaction with the user. As a result, when manually inputting, the process proceeds to step S78,
Otherwise, it proceeds to step S79.

【0117】ステップS78で、後に詳述するように上記
付加情報入力処理部17が制御されて、付加情報入力処
理が実行される。
In step S78, the additional information input processing section 17 is controlled and the additional information input processing is executed, as will be described later in detail.

【0118】ステップS79で、上記取り込まれた画像デ
ータが、上記設定された付加情報と対応付けられて、画
像データ格納部12に登録される。そうした後、画像デ
ータ登録処理動作を終了して図4に示すメインルーチン
にリターンする。
In step S79, the captured image data is registered in the image data storage section 12 in association with the set additional information. After that, the image data registration processing operation is terminated and the process returns to the main routine shown in FIG.

【0119】こうして、ユーザは、上記入力部1からジ
ョブメニュー「データ登録」を選択して「キーワード自
動設定」を指定するだけで、登録対象画像に相応しいキ
ーワードが自動的に設定されて、該当する画像データに
付与されて登録されるのである。
In this way, the user only selects the job menu "data registration" from the input section 1 and specifies "keyword automatic setting", and the keyword suitable for the image to be registered is automatically set, and the corresponding keyword is set. It is added to the image data and registered.

【0120】図12は、図11に示す画像データ登録処
理サブルーチンにおける上記ステップS72において実行
される画像データ取り込み処理サブルーチンのフローチ
ャートである。以下、図1および図12に従って、画像
データ取り込み処理動作について詳細に説明する。図1
1に示す画像データ登録処理サブルーチンの上記ステッ
プS71において、新規の画像データを登録すると判別さ
れると、画像データ取り込み処理サブルーチンがスター
トする。
FIG. 12 is a flow chart of the image data import processing subroutine executed in step S72 in the image data registration processing subroutine shown in FIG. Hereinafter, the image data import processing operation will be described in detail with reference to FIGS. 1 and 12. Figure 1
In step S71 of the image data registration processing subroutine shown in FIG. 1, if it is determined to register new image data, the image data import processing subroutine starts.

【0121】ステップS81で、上記入力部1(スキャナ
28やCD−ROMドライブ29b等の画像入力装置あ
るいはハードディスク装置26等の画像データ保存媒
体)から新規の画像データが取り込まれる。
In step S81, new image data is fetched from the input unit 1 (image input device such as scanner 28 or CD-ROM drive 29b or image data storage medium such as hard disk device 26).

【0122】ステップS82で、上記取り込まれた画像デ
ータを保管する作業メモリ等の保管先が指定される。
In step S82, a storage destination such as a work memory for storing the above-mentioned captured image data is designated.

【0123】ステップS83で、上記取り込まれた画像デ
ータが、ユーザによって入力部1から設定された画像デ
ータ名が付けられて、上記作業メモリに格納される。そ
うした後、画像データ取り込み処理サブルーチンが終了
されて、図11に示す画像データ登録処理サブルーチン
にリターンする。
In step S83, the captured image data is stored in the working memory with the image data name set by the user from the input section 1 being given. After that, the image data import processing subroutine is ended, and the process returns to the image data registration processing subroutine shown in FIG.

【0124】図13は、図11に示す画像データ登録処
理サブルーチンにおける上記ステップS75において、キ
ーワード自動設定部14によって実行されるキーワード
自動設定処理サブルーチンのフローチャートである。以
下、図1および図13に従って、キーワード自動設定処
理動作について詳細に説明する。図11に示す画像デー
タ登録処理サブルーチンの上記ステップS74において、
自動でキーワードを付与すると判別されるとキーワード
自動設定処理サブルーチンがスタートする。
FIG. 13 is a flowchart of the keyword automatic setting processing subroutine executed by the keyword automatic setting unit 14 in step S75 in the image data registration processing subroutine shown in FIG. Hereinafter, the keyword automatic setting processing operation will be described in detail with reference to FIGS. 1 and 13. In step S74 of the image data registration processing subroutine shown in FIG.
When it is determined that the keyword is automatically added, the keyword automatic setting processing subroutine starts.

【0125】ステップS91で、上記特徴量抽出部15に
よって、図11に示す画像データ登録処理サブルーチン
の上記ステップS72あるいはステップS73において取り
込まれた画像データから、例えば色味や形状やテクスチ
ャ等のp個の特徴量が抽出されて、p次元の特徴ベクト
ルが得られる。
In step S91, the feature quantity extraction unit 15 selects from the image data captured in step S72 or step S73 of the image data registration processing subroutine shown in FIG. Is extracted, and a p-dimensional feature vector is obtained.

【0126】ステップS92で、後に詳述するようにして
ベクトル変換処理が実行される。このベクトル変換処理
によって、上記ステップS91において抽出されたp次元
の特徴ベクトルがk次元の合成変数ベクトルgに変換さ
れるのである。
In step S92, vector conversion processing is executed as described later in detail. By this vector conversion process, the p-dimensional feature vector extracted in step S91 is converted into the k-dimensional composite variable vector g.

【0127】ステップS93で、後に詳述するようにして
近傍画像抽出処理が実行される。この近傍画像抽出処理
によって、上記ステップS92において変換されたk次元
の合成変換ベクトルgに基づいて登録対象画像の近傍画
像が抽出される。
In step S93, a neighborhood image extraction process is executed as will be described later in detail. By this neighborhood image extraction processing, the neighborhood image of the registration target image is extracted based on the k-dimensional composite transformation vector g transformed in step S92.

【0128】ステップS94で、後に詳述するようにし
て、画像近傍キーワード抽出処理が実行される。この画
像近傍キーワード抽出処理によって、上記画像辞書を用
いて、上記ステップS93において抽出された近傍画像に
近い画像近傍キーワードが抽出される。
In step S94, the image neighborhood keyword extraction processing is executed as will be described later. By this image neighborhood keyword extraction processing, image neighborhood keywords close to the neighborhood image extracted in step S93 are extracted using the image dictionary.

【0129】ステップS95で、上記ステップS94におい
て抽出された画像近傍キーワードの中から重複するキー
ワードが除かれて、設定用キーワードとして確定され
る。そうした後、キーワード自動設定処理サブルーチン
が終了されて、図11に示す画像データ登録処理サブル
ーチンにリターンする。
In step S95, duplicate keywords are removed from the image neighborhood keywords extracted in step S94, and the keywords are set as setting keywords. After that, the keyword automatic setting process subroutine is ended, and the process returns to the image data registration process subroutine shown in FIG.

【0130】すなわち、本実施の形態においては、上記
オブジェクト位置算出手段を上記キーワード自動設定処
理サブルーチンにおける上記ステップS92で構成し、上
記キーワード選出手段を上記ステップS93〜S95で構成
し、上記近傍オブジェクト抽出手段を上記ステップS93
で構成し、上記近傍キーワード抽出手段を上記ステップ
S94,S95で構成し、上記キーワード付与手段を上記画
像データ登録処理サブルーチンにおける上記ステップS
76,S79で構成するのである。
That is, in the present embodiment, the object position calculating means is constituted by the step S92 in the keyword automatic setting processing subroutine, and the keyword selecting means is constituted by the steps S93 to S95 to extract the neighboring objects. Means above step S93
And the above-mentioned neighborhood keyword extracting means is constituted by the steps S94 and S95, and the keyword assigning means is constituted by the step S in the image data registration processing subroutine.
It is composed of 76 and S79.

【0131】図14は、図13に示すキーワード自動設
定処理サブルーチンにおける上記ステップS92におい
て、ベクトル変換部16によって実行されるベクトル変
換処理サブルーチンのフローチャートである。以下、図
14に従って、ベクトル変換処理動作について詳細に説
明する。図13に示すキーワード自動設定処理サブルー
チンの上記ステップS91において、登録対象画像データ
のp次元特徴ベクトルが抽出されると、ベクトル変換処
理サブルーチンがスタートする。
FIG. 14 is a flowchart of the vector conversion processing subroutine executed by the vector conversion unit 16 in step S92 in the keyword automatic setting processing subroutine shown in FIG. The vector conversion processing operation will be described in detail below with reference to FIG. In step S91 of the keyword automatic setting processing subroutine shown in FIG. 13, when the p-dimensional feature vector of the registration target image data is extracted, the vector conversion processing subroutine starts.

【0132】ステップS101で、上記抽出されたp次元
特徴ベクトルに、上記ベクトル変換係数格納部10に格
納されている特徴ベクトル変換用の正準相関係数行列A
2(p×k)が掛けられて、k次元の合成変数ベクトルg
に変換される。
In step S 101, the extracted p-dimensional feature vector is added to the feature vector conversion canonical correlation coefficient matrix A stored in the vector conversion coefficient storage unit 10.
It is multiplied by 2 (p × k) and k-dimensional composite variable vector g
Is converted to.

【0133】ステップS102で、上記ステップS101にお
いて特徴ベクトルから求められたk次元合成変数ベクト
ルgの各要素値(各次元の値)が、ベクトル変換係数格納
部10に格納されているr個の既登録画像の特徴ベクト
ルから求められたk次元合成変換ベクトルgの各次元毎
の最大値と最小値とを用いてスケール変更される。こう
して、登録対象画像の合成変数ベクトルgが合成変数行
列Gの空間上の該当位置に配置されるのである。そうし
た後、ベクトル変換処理動作を終了して図13に示すキ
ーワード自動設定処理サブルーチンにリターンする。
In step S102, the respective element values (values of the respective dimensions) of the k-dimensional composite variable vector g obtained from the feature vector in the above step S101 are stored in the vector conversion coefficient storage unit 10. The scale is changed using the maximum value and the minimum value for each dimension of the k-dimensional composite transformation vector g obtained from the feature vector of the registered image. In this way, the composite variable vector g of the registration target image is arranged at the corresponding position in the space of the composite variable matrix G. After that, the vector conversion processing operation is terminated, and the processing returns to the keyword automatic setting processing subroutine shown in FIG.

【0134】図15は、図13に示すキーワード自動設
定処理サブルーチンにおける上記ステップS93において
実行される近傍画像抽出処理サブルーチンのフローチャ
ートである。以下、図15にしたがって、近傍画像抽出
処理動作について詳細に説明する。図13に示すキーワ
ード自動設定処理サブルーチンの上記ステップS92にお
いて、登録対象画像データのp次元特徴ベクトルがk次
元合成変換ベクトルgに変換されると、近傍画像抽出処
理サブルーチンがスタートする。
FIG. 15 is a flowchart of the neighborhood image extraction processing subroutine executed in step S93 in the keyword automatic setting processing subroutine shown in FIG. Hereinafter, the neighboring image extraction processing operation will be described in detail with reference to FIG. In step S92 of the keyword automatic setting processing subroutine shown in FIG. 13, when the p-dimensional feature vector of the registration target image data is converted into the k-dimensional composite conversion vector g, the neighborhood image extraction processing subroutine is started.

【0135】ステップS111で、上記r個の既登録画像
の座標ベクトルから変換されて上記ベクトル変換係数格
納部10に格納されているr個のk次元合成変数ベクト
ルfから、1つの合成変換ベクトルfが読み出される。
In step S111, one composite conversion vector f is converted from the r k-dimensional composite variable vectors f converted from the coordinate vectors of the r registered images and stored in the vector conversion coefficient storage unit 10. Is read.

【0136】ステップS112で、上記登録対象画像の特
徴ベクトルから変換されたk次元合成変換ベクトルg
と、上記ステップS111において読み出されたk次元合
成変数ベクトルfとの距離が算出される。この距離の算
出は、各要素値の差の二乗和を算出することによって行
われる。
In step S112, the k-dimensional composite conversion vector g converted from the feature vector of the registration target image.
And the distance to the k-dimensional composite variable vector f read in step S111 is calculated. The calculation of this distance is performed by calculating the sum of squares of the differences between the element values.

【0137】ステップS113で、上記ベクトル変換係数
格納部10に格納されている総ての既登録画像の合成変
換ベクトルfに関して、上記距離が算出されたか否かが
判別される。その結果、算出されていなければ上記ステ
ップS111に戻って次の合成変換ベクトルfとの距離の
算出に移行し、算出されていればステップS114に進
む。
In step S113, it is determined whether or not the distance has been calculated for the combined transformation vector f of all the registered images stored in the vector transformation coefficient storage unit 10. As a result, if not calculated, the process returns to step S111 to move to the calculation of the distance to the next combined conversion vector f, and if calculated, the process proceeds to step S114.

【0138】ステップS114で、上記算出された距離の
近い順にq個の合成変換ベクトルfが求められ、この求
められた合成変換ベクトルfに関するq個の既登録画像
が近傍画像として求められる。そうした後、近傍画像抽
出処理動作を終了して図13に示すキーワード自動設定
処理サブルーチンにリターンする。
In step S114, q composite transformation vectors f are obtained in the order of decreasing distances calculated above, and q registered images relating to the obtained composite transformation vectors f are obtained as neighboring images. After that, the neighborhood image extraction processing operation is terminated, and the processing returns to the keyword automatic setting processing subroutine shown in FIG.

【0139】図16は、図13に示すキーワード自動設
定処理サブルーチンにおける上記ステップS94において
実行される画像近傍キーワード抽出処理サブルーチンの
フローチャートである。以下、図16に従って、画像近
傍キーワード抽出処理動作について詳細に説明する。図
13に示すキーワード自動設定処理サブルーチンの上記
ステップS93において、近傍画像が抽出されると、画像
近傍キーワード抽出処理サブルーチンがスタートする。
FIG. 16 is a flowchart of the image neighborhood keyword extraction processing subroutine executed in step S94 in the keyword automatic setting processing subroutine shown in FIG. Hereinafter, the image vicinity keyword extraction processing operation will be described in detail with reference to FIG. In step S93 of the keyword automatic setting processing subroutine shown in FIG. 13, when the neighborhood image is extracted, the image neighborhood keyword extraction processing subroutine is started.

【0140】ステップS121で、上記辞書格納部8か
ら、上記抽出されたq個の近傍画像のうち1つの近傍画
像の上記画像空間上の座標ベクトルが読み出される。
In step S121, the coordinate vector on the image space of one of the extracted q neighboring images is read from the dictionary storage unit 8.

【0141】ステップS122で、上記読み出された画像
空間上のn次元座標ベクトルと、辞書格納部8に格納さ
れた総ての既登録キーワードの上記キーワード空間上の
n次元座標ベクトルとの距離(各要素値に二乗和)が算出
され、内部メモリ等に格納される。
In step S122, the distance between the read n-dimensional coordinate vector in the image space and the n-dimensional coordinate vector in the keyword space of all the registered keywords stored in the dictionary storage unit 8 ( The sum of squares of each element value is calculated and stored in the internal memory or the like.

【0142】ステップS123で、上記算出された距離の
近い順にh個のキーワードが求められる。
In step S123, h keywords are obtained in the order of decreasing distances calculated above.

【0143】ステップS124で、上記抽出されたq個総
ての近傍画像の画像ベクトルからh個ずつキーワードが
求められたか否かが判別される。その結果、求められて
いなければ上記ステップS121に戻って次の既登録キー
ワードに対する処理に移行する。一方、求められていれ
ばステップS125に進む。
In step S124, it is determined whether or not h keywords have been obtained for each of the q extracted image vectors of the neighboring images. As a result, if it has not been obtained, the process returns to the step S121 to shift to the process for the next registered keyword. On the other hand, if so, the process proceeds to step S125.

【0144】ステップS125で、上記求められたq×h
個のキーワードが画像近傍キーワードとして内部メモリ
等に格納される。そうした後、画像近傍キーワード抽出
処理を終了して、キーワード自動設定処理サブルーチン
にリターンする。
In step S125, q × h obtained as described above
Each keyword is stored in the internal memory or the like as an image neighborhood keyword. After that, the image neighborhood keyword extraction process is terminated, and the process returns to the keyword automatic setting process subroutine.

【0145】そして、上述したように、上記抽出された
画像近傍キーワードから重複が除かれて設定用キーワー
ドが確定されるとキーワード自動設定処理を終了して、
画像データ登録処理サブルーチンにリターンする。そし
て、上述のようにして自動的に設定されたキーワードが
付加情報の1つとして設定され、付加情報を手動入力す
ると判別されると付加情報入力処理が実行されるのであ
る。
Then, as described above, when the keyword for setting is confirmed by removing the duplication from the extracted image neighborhood keyword, the keyword automatic setting process is terminated,
The process returns to the image data registration processing subroutine. Then, the keyword automatically set as described above is set as one of the additional information, and when it is determined that the additional information is manually input, the additional information input process is executed.

【0146】図17は、図11に示す画像データ登録処
理サブルーチンにおける上記ステップS78において、付
加情報入力処理部17によって実行される付加情報入力
処理サブルーチンのフローチャートである。以下、図1
および図17に従って、付加情報入力処理動作について
詳細に説明する。図11に示す画像データ登録処理サブ
ルーチンの上記ステップS77において「付加情報の手動
入力」が指定されていると判別されると、付加情報入力
処理サブルーチンがスタートする。
FIG. 17 is a flowchart of the additional information input processing subroutine executed by the additional information input processing unit 17 in step S78 in the image data registration processing subroutine shown in FIG. Below, Figure 1
The additional information input processing operation will be described in detail with reference to FIG. When it is determined in step S77 of the image data registration processing subroutine shown in FIG. 11 that "manual input of additional information" is designated, the additional information input processing subroutine starts.

【0147】ステップS131で、上記表示部5に付加情
報入力メニューが表示される。
In step S131, the additional information input menu is displayed on the display section 5.

【0148】ステップS132で、付加情報入力メニュー
「キーワード付加」が選択されたと判別されるとステッ
プS133に進み、そうでなければステップS134に進む。
If it is determined in step S132 that the additional information input menu "add keyword" is selected, the process proceeds to step S133, and if not, the process proceeds to step S134.

【0149】ステップS133で、上記選択された付加情
報入力メニュー「キーワード付加」に従って、後に詳述
するキーワード付加処理が実行される。そうした後に、
ステップS136に進む。
In step S133, the keyword addition process described later in detail is executed according to the selected additional information input menu "keyword addition". After doing so,
It proceeds to step S136.

【0150】ステップS134で、付加情報入力メニュー
「その他の情報付加」が選択されたと判別されるとステ
ップS135に進み、そうでなければステップS136に進
む。
If it is determined in step S134 that the "additional information" is selected in the additional information input menu, the process proceeds to step S135. If not, the process proceeds to step S136.

【0151】ステップS135で、上記選択された付加情
報入力メニュー「その他の情報付加」に従って、入力部
1から入力された付加情報が取り込まれて当該画像デー
タの付加情報の1つとしてレジスタに保持される。
In step S135, the additional information input from the input unit 1 is fetched according to the selected additional information input menu "Additional information" and stored in the register as one of the additional information of the image data. It

【0152】ステップS136で、ユーザとの対話によっ
て、付加情報入力処理を終了するか否かが判別される。
その結果、終了であれば付加情報入力処理サブルーチン
を終了して図11に示す画像データ登録処理サブルーチ
ンにリターンする。一方、終了でなければ上記ステップ
S132に戻って次のメニュー処理に移行する。
In step S136, it is determined whether or not the additional information input processing is to be ended by the dialogue with the user.
As a result, if it is ended, the additional information input processing subroutine is ended and the process returns to the image data registration processing subroutine shown in FIG. On the other hand, if the process is not finished, the process returns to step S132 to move to the next menu process.

【0153】こうして、上記画像データ登録処理サブル
ーチンにおける上記ステップS75において設定されたキ
ーワード以外のキーワードや、データの作成者名,作成
日,登録日,サイズおよびコメント等のキーワード以外の
付加情報が、ユーザによってマニュアル入力される。
Thus, the keywords other than the keywords set in step S75 in the image data registration processing subroutine and the additional information other than the keywords such as the creator name of the data, the creation date, the registration date, the size, the comment, etc. Entered manually by.

【0154】図18は、図17に示す付加情報入力処理
サブルーチンの上記ステップS133において実行される
キーワード付加処理サブルーチンのフローチャートであ
る。以下、図1および図18に従って、キーワード付加
処理動作について詳細に説明する。図17に示す付加情
報入力処理サブルーチンの上記ステップS132において
付加情報入力メニュー「キーワード付加」が選択された
と判別されると、キーワード付加処理サブルーチンがス
タートする。
FIG. 18 is a flowchart of the keyword addition processing subroutine executed in step S133 of the additional information input processing subroutine shown in FIG. The keyword addition processing operation will be described in detail below with reference to FIGS. 1 and 18. When it is determined in step S132 of the additional information input processing subroutine shown in FIG. 17 that the additional information input menu "add keyword" is selected, the keyword addition processing subroutine starts.

【0155】ステップS141で、上記キーワード格納部
3に登録されているキーワードが表示部5に一覧表示さ
れる。
In step S141, the keywords registered in the keyword storage unit 3 are listed on the display unit 5.

【0156】ステップS142で、ユーザとの対話によっ
て、上記表示されているキーワードの中から特定のキー
ワードが選択される。
At step S142, a specific keyword is selected from the displayed keywords by an interaction with the user.

【0157】ステップS143で、上記選択されたキーワ
ードが付加情報の1つとして設定されて、上記レジスタ
に保持される。
In step S143, the selected keyword is set as one of the additional information and stored in the register.

【0158】ステップS144で、ユーザとの対話によっ
て、キーワード付加処理を終了するか否かが判別され
る。その結果、終了でなければ上記ステップS142に戻
って次のキーワードの選択に移行する。一方、終了であ
ればキーワード付加処理サブルーチンを終了し、図17
に示す付加情報入力処理サブルーチンにリターンする。
In step S144, it is determined by dialogue with the user whether or not the keyword addition processing is to be ended. As a result, if it is not completed, the process returns to step S142 to select the next keyword. On the other hand, if it is finished, the keyword addition processing subroutine is finished, and FIG.
The process returns to the additional information input processing subroutine shown in.

【0159】そして、上述のように、ユーザとの対話に
よって付加情報入力処理を終了すると判別されると画像
データ登録処理サブルーチンにリターンする。そして、
上記ステップS75,S76,S78で設定された付加情報が登
録対象の画像データと共に画像データ格納部12に格納
されるのである。
Then, as described above, when it is determined that the additional information input process is to be ended by the dialog with the user, the process returns to the image data registration process subroutine. And
The additional information set in steps S75, S76 and S78 is stored in the image data storage unit 12 together with the image data to be registered.

【0160】図19は、図4に示す基本処理動作におけ
るステップS13において、上記付加情報変更処理部13
によって実行される付加情報変更処理サブルーチンのフ
ローチャートである。以下、図1および図19に従っ
て、付加情報変更処理動作について詳細に説明する。図
4に示す基本処理動作のメインルーチンの上記ステップ
S12においてジョブメニュー「付加情報変更」が選択さ
れたと判別されると、付加情報変更処理サブルーチンが
スタートする。
FIG. 19 shows the additional information change processing unit 13 in step S13 of the basic processing operation shown in FIG.
8 is a flowchart of an additional information change processing subroutine executed by. The additional information change processing operation will be described in detail below with reference to FIGS. 1 and 19. When it is determined in step S12 of the main routine of the basic processing operation shown in FIG. 4 that the "additional information change" job menu is selected, the additional information change processing subroutine is started.

【0161】ステップS151で、上記画像データ格納部
12に登録されている画像データに基づいて、既登録画
像が表示部5に一覧表示される。
In step S151, a list of registered images is displayed on the display unit 5 based on the image data registered in the image data storage unit 12.

【0162】ステップS152で、ユーザとの対話によっ
て、上記表示されている画像の中から変更対象の画像デ
ータが選択される。
In step S152, the image data to be changed is selected from the displayed images by the interaction with the user.

【0163】ステップS153〜ステップS157で、図11
に示す画像データ登録処理サブルーチンにおける上記ス
テップS74〜ステップS78と同様にして、自動でキーワ
ードを付与するかの判別、キーワード自動設定処理の実
行、設定キーワードの付加情報としての設定、付加情報
の手動入力の判別、付加情報入力処理の実行が行われ
る。尚、上記キーワード自動設定処理の実行は、図13
に示すキーワード自動設定処理サブルーチンに従って行
われる。その場合に、「登録対象画像」は「変更対象画
像」となる。また、上記付加情報入力処理の実行は、図
17に示す付加情報入力処理サブルーチンに従って行わ
れる。
In steps S153 to S157, FIG.
Similar to steps S74 to S78 in the image data registration processing subroutine shown in FIG. 7, determination of whether or not to automatically add a keyword, execution of keyword automatic setting processing, setting as additional information of setting keyword, manual input of additional information And the additional information input process is executed. Incidentally, the execution of the keyword automatic setting process is performed by referring to FIG.
This is performed according to the keyword automatic setting processing subroutine shown in. In that case, the “registration target image” becomes the “change target image”. The additional information input process is executed according to the additional information input process subroutine shown in FIG.

【0164】ステップS158で、上記画像データ格納部
12に格納されている選択画像データの付加情報が、上
記設定された付加情報に書き換えられる。そうした後、
付加情報変更処理動作を終了して図4に示すメインルー
チンにリターンする。
In step S158, the additional information of the selected image data stored in the image data storage section 12 is rewritten with the additional information set as described above. After doing that,
The additional information change processing operation is terminated and the process returns to the main routine shown in FIG.

【0165】こうして、ユーザは、上記入力部1からジ
ョブメニュー「付加情報変更」を選択して「キーワード
自動設定」を指定するだけで、既登録画像に付与されて
いるキーワードを更に相応しいキーワードに変更できる
のである。
In this way, the user can change the keyword assigned to the registered image to a more suitable keyword simply by selecting "additional information change" of the job menu from the input section 1 and designating "keyword automatic setting". You can do it.

【0166】図20は、図13に示すキーワード自動設
定処理の概念を示す。上記辞書格納部8には、r個の既
登録画像のn次元画像空間上の座標ベクトルが格納され
ている。また、上記r個の画像の特徴量からp次元の特
徴ベクトルが得られる。そして、n次元座標ベクトルは
正準相関係数行列A1によってk次元の合成変数ベクト
ルfに変換される一方、p次元特徴ベクトルは正準相関
係数行列A2によってk次元の合成変数ベクトルgに変
換される。こうすることによって、n次元の座標ベクト
ルとp次元の特徴ベクトルとが、同じ(r×k)の合成変
数行列F,Gの空間上で対応付けることが可能となるの
である。
FIG. 20 shows the concept of the keyword automatic setting processing shown in FIG. The dictionary storage unit 8 stores coordinate vectors of r registered images in the n-dimensional image space. Further, a p-dimensional feature vector is obtained from the feature amounts of the r images. Then, the n-dimensional coordinate vector is converted into a k-dimensional composite variable vector f by the canonical correlation coefficient matrix A1, while the p-dimensional feature vector is converted into a k-dimensional composite variable vector g by the canonical correlation coefficient matrix A2. To be done. By doing so, the n-dimensional coordinate vector and the p-dimensional feature vector can be associated with each other in the space of the same (r × k) composite variable matrices F and G.

【0167】一方、登録対象画像のp次元特徴ベクトル
を正準相関係数行列A2によってk次元の合成変数ベク
トルgに変換すると、登録対象画像の合成変数行列G空
間上の位置が分かる。そして、上述のように、n次元の
座標ベクトルとp次元の特徴ベクトルとは同サイズの合
成変数行列F,Gの空間上で対応付け可能なのであるか
ら、登録対象画像の合成変数ベクトルgの合成変数行列
G空間上の位置と各既登録画像の合成変数ベクトルfの
合成変数行列F空間上の位置との距離を比較することに
よって、登録対象画像と類似したq個の既登録画像(近
傍画像)を得ることができるのである。
On the other hand, when the p-dimensional feature vector of the registration target image is converted into the k-dimensional composite variable vector g by the canonical correlation coefficient matrix A2, the position of the registration target image on the composite variable matrix G space is known. Then, as described above, since the n-dimensional coordinate vector and the p-dimensional feature vector can be associated in the space of the synthetic variable matrices F and G of the same size, the synthetic variable vector g of the registration target image is synthesized. By comparing the distance between the position in the variable matrix G space and the position in the combined variable matrix F space of the combined variable vector f of each registered image, q registered images similar to the registration target image (neighboring image ) Can be obtained.

【0168】以後は、こうして得られたq個の近傍画像
の画像空間(画像辞書)上の位置に対応するキーワード空
間(キーワード辞書)上の位置と、既登録キーワードのキ
ーワード空間上の位置との距離を比較して、個々の近傍
画像の近傍キーワードをh個ずつ得るのである。こうし
て、登録対象画像に付与するに相応しいq×h個のキー
ワードが自動的に設定されるのである。
Thereafter, the positions in the keyword space (keyword dictionary) corresponding to the positions in the image space (image dictionary) of the q neighboring images thus obtained and the positions in the keyword space of the registered keywords are set. By comparing the distances, h neighboring keywords of each neighboring image are obtained. In this way, q × h keywords suitable for giving to the image to be registered are automatically set.

【0169】このように、本実施の形態においては、上
記辞書作成処理部6によって、複数の例示画像と各例示
画像に付与されたキーワードとに基づいて、例示画像の
画像データをサンプルとし、キーワードをカテゴリとす
る数量化理論III類による解析を行う。そして、この解
析結果より第n成分までのサンプルスコアxi (n)を最大
値を「1」に最小値を「−1」に正規化する一方、カテゴリ
スコアyj (n)を最大値を「1」に最小値を「−1」に正規化
する。そして、得られたサンプルスコアxi (n)の正規化
値を要素値とする画像空間上の座標ベクトルを画像辞書
として辞書格納部8に格納する。一方、カテゴリスコア
j (n)の正規値を要素値とするキーワード空間上の座標
ベクトルをキーワード辞書として辞書格納部8に格納す
る。
As described above, in the present embodiment, the dictionary creation processing unit 6 uses the image data of the exemplary image as a sample based on the plurality of exemplary images and the keyword given to each exemplary image, and The analysis is carried out according to the quantification theory type III with the category of. From this analysis result, the sample score x i (n) up to the n-th component is normalized to the maximum value of “1” and the minimum value to “−1”, while the category score y j (n) is set to the maximum value. The minimum value is normalized to "1" to "-1". Then, the coordinate vector in the image space having the obtained normalized value of the sample score x i (n) as an element value is stored in the dictionary storage unit 8 as an image dictionary. On the other hand, the coordinate vector in the keyword space having the normal value of the category score y j (n) as the element value is stored in the dictionary storage unit 8 as the keyword dictionary.

【0170】こうして構築されたキーワード辞書上に位
置付けられたキーワードは、n次元の意味空間における
n個の意味尺度上に配置されている。したがって、本実
施の形態によれば、キーワード空間を定義することがで
き、あるキーワードのキーワード空間上の位置(他のキ
ーワードとの関連度)を自動的に設定できるのである。
したがって、このキーワード間の関連度を用いて曖昧検
索を行うことが可能となる。
The keywords positioned on the keyword dictionary thus constructed are arranged on n meaning scales in the n-dimensional meaning space. Therefore, according to the present embodiment, the keyword space can be defined, and the position of a certain keyword in the keyword space (the degree of association with another keyword) can be automatically set.
Therefore, it is possible to perform a fuzzy search using the degree of association between the keywords.

【0171】このように、上記実施の形態によれば、複
数の例示画像にキーワードを付与して提示するだけで、
自動的にキーワード空間を定義し、このキーワード空間
に基づいてあるキーワードと他のキーワードとの関連度
を自動的に設定できるのである。したがって、特開平8
−329096号公報に開示されたキーワード付与方法
のようなキーワードマップ上へのキーワードの配置(つ
まり、キーワードの他のキーワードの関連度の設定)を
手動操作によって行うという面倒な作業からユーザを解
放することができるのである。
As described above, according to the above-described embodiment, it is only necessary to add a keyword to a plurality of exemplary images and present them.
It is possible to automatically define a keyword space and automatically set the degree of association between one keyword and another keyword based on this keyword space. Therefore, JP-A-8
The user is freed from the troublesome work of manually arranging keywords on the keyword map (that is, setting the degree of association of other keywords with the keyword) as in the keyword assigning method disclosed in Japanese Patent No. 329096. It is possible.

【0172】その場合に、上記例示画像として、使用分
野や用途に応じた画像を選ぶことによって、分野や用途
別の画像辞書およびキーワード辞書を構築できる。
In that case, an image dictionary and a keyword dictionary for each field or application can be constructed by selecting an image according to the field of application or application as the above-mentioned exemplary image.

【0173】また、上記辞書作成処理部6は、上記画像
辞書やキーワード辞書における自動的に設定されたn個
の軸以外の軸を、ユーザとの対話によって設定する軸追
加部7を有している。この軸追加部7は、対極に配置し
たい2つのキーワードが選択されると、この選択キーワ
ードの距離が最も遠い2軸マップ上において両選択キー
ワードを結ぶ直線を新たな軸とし、この軸上に全登録キ
ーワードを射影して、全キーワードの上記新たな軸上の
座標を得るようにしている。
Further, the dictionary creation processing section 6 has an axis adding section 7 for setting axes other than the automatically set n axes in the image dictionary or the keyword dictionary through a dialogue with the user. There is. When two keywords to be arranged on opposite poles are selected, the axis adding unit 7 sets a straight line connecting both selected keywords on the two-axis map where the distance of the selected keyword is the longest as a new axis, and the entire axis is on this axis. The registered keywords are projected to obtain the coordinates on the new axis of all the keywords.

【0174】したがって、上記実施の形態によれば、上
記キーワード空間に、ユーザによって指定された新規な
評価尺度を有する軸を追加設定できる。こうすることに
よって、上記数量化理論III類による解析の結果得られ
た具体的意味の分かりにくいn本の軸に加えて、ユーザ
にとって意味の分かる軸を設定できるのである。
Therefore, according to the above embodiment, it is possible to additionally set the axis having the new evaluation scale designated by the user in the keyword space. By doing so, in addition to the n axes whose specific meanings are difficult to understand, which are obtained as a result of the analysis by the above-mentioned quantification theory III, it is possible to set axes whose meanings are understandable to the user.

【0175】また、上述のようにして構築された上記画
像辞書(n次元の意味空間:画像空間)と上記キーワード
辞書(n次元の意味空間:キーワード空間)とは高い相関
を有している。したがって、ある画像の画像辞書上の座
標に対応するキーワード辞書上の座標付近には、当該画
像に相応しいキーワードが配置されている。また、逆の
ことも言える。そこで、キーワード登録処理部2は、ユ
ーザとの対話によって画像データ格納部12から登録対
象キーワードに相応しい画像を選択し、この選択画像の
画像空間上の平均座標を求める。そして、この画像空間
上の平均座標を登録対象キーワードのキーワード辞書上
の座標として、登録対象キーワードと共にキーワード格
納部3および辞書格納部8のキーワード辞書に追加登録
するのである。
The image dictionary (n-dimensional meaning space: image space) constructed as described above and the keyword dictionary (n-dimensional meaning space: keyword space) have a high correlation. Therefore, a keyword suitable for the image is arranged near the coordinates on the keyword dictionary corresponding to the coordinates on the image dictionary of a certain image. The opposite is also true. Therefore, the keyword registration processing unit 2 selects an image suitable for the registration target keyword from the image data storage unit 12 through a dialogue with the user, and obtains an average coordinate of the selected image in the image space. Then, the average coordinates in the image space are additionally registered in the keyword dictionaries of the keyword storage unit 3 and the dictionary storage unit 8 together with the registration target keyword as coordinates in the keyword dictionary of the registration target keyword.

【0176】したがって、上記実施の形態によれば、登
録対象キーワードに相応しい画像を既登録画像から選択
するだけの簡単な処理で、新たなキーワードを上記例示
画像によって構築されたキーワード辞書に座標ベクトル
と共に登録できるのである。
Therefore, according to the above-described embodiment, a new keyword is stored in the keyword dictionary constructed by the above-mentioned exemplary image together with the coordinate vector by a simple process of selecting an image suitable for the keyword to be registered from the registered images. You can register.

【0177】上述したように、上記画像辞書(画像空間)
とキーワード辞書(キーワード空間)とは同じn次元の意
味空間であるから、互いに高い相関を有している。した
がって、登録対象画像の上記画像辞書上の位置に対応す
るキーワード辞書上の位置の近傍には、登録対象画像に
相応しいキーワードが登録されている。そこで、登録対
象画像の上記画像辞書上の位置が分かれば、登録対象画
像に相応しいキーワードを得ることができることにな
る。
As described above, the image dictionary (image space)
And the keyword dictionary (keyword space) have the same n-dimensional meaning space, and thus have a high correlation with each other. Therefore, a keyword suitable for the registration target image is registered near the position in the keyword dictionary corresponding to the position in the image dictionary of the registration target image. Therefore, if the position of the registration target image in the image dictionary is known, the keyword suitable for the registration target image can be obtained.

【0178】上記ベクトル変換係数作成処理部9は、上
記画像辞書から読み出した各既登録画像のn次元座標ベ
クトルと上記既登録画像のp次元特徴ベクトルとの正凖
相関分析を行う。そして、座標ベクトル変換用の正凖相
関係数行列A1(n×k)と、特徴ベクトル変換用の正凖
相関係数行列A2(p×k)とを求めて、ベクトル変換係
数格納部10に格納する。さらに、上記画像辞書に登録
されているr個の既登録画像のn次元座標ベクトルに正
凖相関係数行列A1(n×k)を掛けて、k次元の合成変
数ベクトルfを得る。また、r個の既登録画像のp次元
特徴ベクトルに正凖相関係数行列A2(p×k)を掛け
て、k次元の合成変数ベクトルgを得る。こうして得ら
れた合成変数行列Fと合成変数行列Gとはベクトル変換
係数格納部10に格納される。ここで、合成変数行列F
と合成変数行列Gとは高い相関を有している。したがっ
て、登録対象画像の特徴ベクトルから登録対象画像の画
像辞書上の座標ベクトルを得ることが可能となる。
The vector conversion coefficient creation processing section 9 performs a positive correlation analysis between the n-dimensional coordinate vector of each registered image read from the image dictionary and the p-dimensional feature vector of the registered image. Then, a normal correlation coefficient matrix A1 (n × k) for coordinate vector conversion and a normal correlation coefficient matrix A2 (p × k) for feature vector conversion are obtained and stored in the vector conversion coefficient storage unit 10. Store. Further, the n-dimensional coordinate vectors of the r registered images registered in the image dictionary are multiplied by the normal correlation coefficient matrix A1 (n × k) to obtain a k-dimensional composite variable vector f. Also, the p-dimensional feature vectors of the r registered images are multiplied by the normal correlation coefficient matrix A2 (p × k) to obtain a k-dimensional composite variable vector g. The composite variable matrix F and the composite variable matrix G thus obtained are stored in the vector conversion coefficient storage unit 10. Here, the composite variable matrix F
And the synthetic variable matrix G have a high correlation. Therefore, it is possible to obtain the coordinate vector of the registration target image in the image dictionary from the feature vector of the registration target image.

【0179】上記キーワード自動設定処理部14は、上
記特徴量抽出部15で登録対象画像あるいは変更対象画
像の特徴量を抽出してp次元の特徴ベクトルを得、ベク
トル変換部16で正準相関係数行列A2を掛けてk次元
の合成変数ベクトルgに変換し、スケール変更する。そ
して、対象画像の合成変数ベクトルgとベクトル変換係
数格納部10に格納されたr個の既登録画像の合成変数
ベクトルfとの距離に基づいて、対象画像と類似したq
個の既登録画像(近傍画像)を得る。そして、得られたq
個の近傍画像の画像空間(画像辞書)上の座標ベクトルと
既登録キーワードのキーワード空間(キーワード辞書)上
の座標ベクトルとの距離に基づいて、個々の近傍画像の
近傍キーワードをh個ずつ得るようにしている。したが
って、登録対象画像あるいは変更対象画像に付与するに
相応しいq×h個のキーワードを自動的に設定できるの
である。
In the keyword automatic setting processing unit 14, the feature amount extraction unit 15 extracts the feature amount of the registration target image or the change target image to obtain a p-dimensional feature vector, and the vector conversion unit 16 performs the canonical phase relation. The number matrix A2 is multiplied and converted into a k-dimensional composite variable vector g, and the scale is changed. Then, based on the distance between the composite variable vector g of the target image and the composite variable vector f of the r registered images stored in the vector conversion coefficient storage unit 10, q similar to the target image is obtained.
Obtain the registered images (neighboring images). And the obtained q
Based on the distance between the coordinate vector in the image space (image dictionary) of each neighboring image and the coordinate vector in the keyword space (keyword dictionary) of the registered keyword, obtain h neighboring keywords of each neighboring image. I have to. Therefore, q × h keywords suitable for being added to the registration target image or the change target image can be automatically set.

【0180】すなわち、上記実施の形態によれば、登録
対象画像や変更対象画像にキーワードを手動で付与する
という煩わしさからユーザを解放できる。したがって、
新規画像の登録や既登録画像の付加情報変更を効率よく
行うことができるのである。
That is, according to the above embodiment, the user can be relieved from the trouble of manually assigning the keyword to the registration target image or the change target image. Therefore,
It is possible to efficiently register a new image and change additional information of an already registered image.

【0181】その際に、予め複数の例示画像にキーワー
ドを付与して提示し、上記辞書作成処理部6によって画
像辞書とキーワード辞書とを自動的に構築して辞書格納
部8に格納しておくだけで、登録対象画像あるいは変更
対象画像に相応しいキーワードが自動的に設定される。
したがって、上記特開平6−295318号公報に開示
されたキーワード付与方法のように、キーワード候補毎
に適合演算情報と閾値とを設定して登録しておく必要が
ない。
At this time, a plurality of exemplary images are provided with keywords in advance, and the dictionary creation processing unit 6 automatically constructs an image dictionary and a keyword dictionary and stores them in the dictionary storage unit 8. Only then, a keyword suitable for the registration target image or the change target image is automatically set.
Therefore, unlike the keyword assigning method disclosed in Japanese Patent Laid-Open No. 6-295318, it is not necessary to set and register the matching calculation information and the threshold value for each keyword candidate.

【0182】上記実施の形態におけるキーワード自動設
定処理部14は、キーワードを自動的に設定する場合
に、登録対象画像あるいは変更対象画像の各近傍画像の
画像近傍キーワードをh個ずつ得、登録対象画像に付与
するに相応しいq×h個のキーワードを設定するように
している。しかしながら、この発明はこれに限定される
ものではなく、次のようにして登録対象画像あるいは変
更対象画像に相応しいキーワードを設定してもよい。
When the keyword is automatically set, the keyword automatic setting processing unit 14 in the above embodiment obtains h number of image neighborhood keywords of each neighboring image of the registration target image or the change target image, and registers the registration target image. The q × h keywords appropriate to be assigned to the are set. However, the present invention is not limited to this, and a keyword suitable for the registration target image or the change target image may be set as follows.

【0183】図21は、図11に示す画像データ登録処
理サブルーチンにおける上記ステップS75において、キ
ーワード自動設定処理部14によって実行されるキーワ
ード自動設定処理サブルーチンの図13とは異なるフロ
ーチャートである。以下、図1および図21に従って、
本キーワード自動設定処理動作について説明する。図1
1に示す画像データ登録処理サブルーチンの上記ステッ
プS74において、自動でキーワードを付与すると判別さ
れると、本キーワード自動設定処理サブルーチンがスタ
ートする。
FIG. 21 is a flowchart different from FIG. 13 of the keyword automatic setting processing subroutine executed by the keyword automatic setting processing unit 14 in step S75 in the image data registration processing subroutine shown in FIG. Hereinafter, according to FIG. 1 and FIG.
This keyword automatic setting processing operation will be described. Figure 1
In step S74 of the image data registration processing subroutine shown in FIG. 1, if it is determined that a keyword is automatically added, this keyword automatic setting processing subroutine starts.

【0184】ステップS161〜ステップS163で、図13
に示すキーワード自動設定処理サブルーチンにおける上
記ステップS91〜ステップS93と同様にして、上記特徴
量抽出部15によるp個の特徴量抽出と、ベクトル変換
部16によるベクトル変換処理と、近傍画像抽出処理と
が実行される。そして、登録対象画像あるいは変更対象
画像の近傍画像が抽出される。
In steps S161 to S163, as shown in FIG.
Similar to steps S91 to S93 in the keyword automatic setting processing subroutine shown in FIG. 5, p feature quantity extraction by the feature quantity extraction unit 15, vector conversion processing by the vector conversion unit 16, and neighborhood image extraction processing are performed. To be executed. Then, the image near the registration target image or the change target image is extracted.

【0185】ステップS164で、上記抽出されたq個の
近傍画像の辞書空間上の座標ベクトルに基づいて、上記
辞書空間上の近傍画像の中心座標ベクトルが求められ
る。この中心座標ベクトルは、全近傍画像の座標ベクト
ルの対応する要素値の平均値を要素とするベクトルであ
る。
In step S164, the central coordinate vector of the neighboring image in the dictionary space is obtained based on the coordinate vectors of the extracted q neighboring images in the dictionary space. This center coordinate vector is a vector whose element is the average value of the corresponding element values of the coordinate vectors of all the neighboring images.

【0186】ステップS165で、上記ステップS164にお
いて求められた辞書空間上の中心座標ベクトルに対応す
るキーワード空間上の座標ベクトルに近いh'個のキー
ワードが選出されて、設定用キーワードとして確定され
る。そうした後、キーワード自動設定処理サブルーチン
が終了されて、図11に示す画像データ登録処理サブル
ーチンにリターンする。
At step S165, h'keywords close to the coordinate vector on the keyword space corresponding to the central coordinate vector on the dictionary space obtained at step S164 are selected and fixed as the setting keywords. After that, the keyword automatic setting process subroutine is ended, and the process returns to the image data registration process subroutine shown in FIG.

【0187】すなわち、本実施の形態においては、上記
オブジェクト位置算出手段を、図21に示すキーワード
自動設定処理サブルーチンにおける上記ステップS162
で構成し、上記キーワード選出手段を上記ステップS16
3〜S165で構成し、上記近傍オブジェクト抽出手段を上
記ステップS163で構成し、上記注目位置算出手段を上
記ステップS164で構成し、上記近傍キーワード抽出手
段を上記ステップS165で構成するのである。
That is, in this embodiment, the object position calculating means is controlled by the step S162 in the keyword automatic setting processing subroutine shown in FIG.
In step S16, the keyword selection means
3 to S165, the neighborhood object extraction means is constructed in step S163, the attention position calculation means is constructed in step S164, and the neighborhood keyword extraction means is constructed in step S165.

【0188】図22は、図21に示すキーワード自動設
定処理の概念を示す。本キーワード自動設定処理では、
図13に示すキーワード自動設定処理と同様にして、登
録対象画像と類似したq個の既登録画像(近傍画像)が得
られる。
FIG. 22 shows the concept of the keyword automatic setting process shown in FIG. In this keyword automatic setting process,
Similar to the keyword automatic setting process shown in FIG. 13, q registered images (neighboring images) similar to the registration target image are obtained.

【0189】そして、こうして得られたq個の近傍画像
の画像空間(画像辞書)上の中心位置に対応するキーワー
ド空間(キーワード辞書)上の位置と、既登録キーワード
のキーワード空間上の位置との距離に基づいて、中心位
置の近傍キーワードをh'個得るのである。こうして、
登録対象画像に付与するに相応しいh'個のキーワード
が自動的に設定されるのである。
The position in the keyword space (keyword dictionary) corresponding to the central position in the image space (image dictionary) of the q neighboring images thus obtained and the position in the keyword space of the registered keyword are Based on the distance, h'keywords near the center position are obtained. Thus
That is, h'keywords suitable for giving to the image to be registered are automatically set.

【0190】尚、上記実施の形態においては、登録対象
画像の特徴量に関する合成変数ベクトルgに対応するキ
ーワード空間上の座標を求める場合に、近傍画像抽出処
理サブルーチンと画像近傍キーワード抽出処理サブルー
チンとによって、既登録画像の合成変数行列G,Fを利
用しているが、この発明はこれに限定されるものではな
い。すなわち、例えば、予め幾つかの代表画像の特徴量
に関する合成変数ベクトルとキーワード空間上の座標と
の対応関係を、既登録画像の合成変数行列G,Fを利用
して求めておく。そして、この対応関係を用いて、登録
対象画像の特徴量に関する合成変数ベクトルgに対応す
るキーワード空間上の座標を求めてもよい。また、予め
画像の特徴量に関する合成変数ベクトルからキーワード
空間への変換行列を作成しておき、この変換行列を用い
て登録対象画像の特徴量に関する合成変数ベクトルgに
対応するキーワード空間上の座標を求めてもよい。
In the above embodiment, when the coordinates in the keyword space corresponding to the combined variable vector g relating to the feature quantity of the image to be registered are to be obtained, the neighboring image extraction processing subroutine and the image neighboring keyword extraction processing subroutine are used. , The composite variable matrices G and F of registered images are used, but the present invention is not limited to this. That is, for example, the correspondence relationship between the synthesis variable vectors relating to the feature quantities of some representative images and the coordinates in the keyword space is obtained in advance using the synthesis variable matrices G and F of the registered images. Then, using this correspondence relationship, the coordinates in the keyword space corresponding to the combined variable vector g relating to the feature amount of the registration target image may be obtained. In addition, a conversion matrix from the synthetic variable vector relating to the image feature amount to the keyword space is created in advance, and the coordinate in the keyword space corresponding to the synthetic variable vector g relating to the feature amount of the registration target image is calculated using this conversion matrix. You may ask.

【0191】また、上記実施の形態においては、画像デ
ータにキーワードを付与する場合を例に説明している。
しかしながら、この発明はこれに限らず、音声データ
や、画像データに音声データを組み合わせたマルチメデ
ィアデータにキーワードを付与する場合にも適用可能で
ある。要は、データの内容の特徴を表す特徴量を抽出可
能なデータであればよいのである。
Further, in the above embodiment, the case where the keyword is added to the image data has been described as an example.
However, the present invention is not limited to this, and is also applicable to a case where a keyword is added to audio data or multimedia data in which audio data is combined with image data. The point is that the data need only be data capable of extracting a feature amount that represents the feature of the content of the data.

【0192】また、上記辞書作成処理動作,キーワード
登録処理動作,ベクトル変換係数作成処理動作,画像デー
タ登録処理動作および付加情報変更処理動作のアルゴリ
ズムは、上述のフローチャートに限定されるものではな
い。
The algorithms of the dictionary creating process operation, the keyword registering process operation, the vector conversion coefficient creating process operation, the image data registering process operation, and the additional information changing process operation are not limited to those in the above flow chart.

【0193】[0193]

【発明の効果】以上より明らかなように、請求項1に係
る発明のキーワード付与方法は、複数のオブジェクトと
付与されたキーワードとが配置された2次元以上の意味
空間を用意し、登録対象オブジェクトの特徴量を抽出
し、上記特徴量に基づいて求められた上記登録対象オブ
ジェクトの上記意味空間上の位置の近傍のキーワードを
選出して上記登録対象オブジェクトに付与するので、キ
ーワードが付与された複数のオブジェクトを例示するだ
けで数量化理論III類等の多変量解析によって容易に得
られる上記意味空間を用いることによって、登録対象オ
ブジェクトに相応しいキーワードを、簡単に且つ自動的
に選出して付与できる。したがって、オブジェクト登録
の際に、相応しいキーワードを選出して付与するという
非常に面倒な作業からユーザを解放し、オブジェクト登
録作業を効率よく行うことができる。
As is clear from the above, the keyword assigning method of the invention according to claim 1 prepares a two-dimensional or more semantic space in which a plurality of objects and assigned keywords are prepared, and the object to be registered is registered. Is extracted, and a keyword in the vicinity of the position in the semantic space of the registration target object obtained based on the feature amount is selected and assigned to the registration target object. By using the above-mentioned semantic space that can be easily obtained by multivariate analysis such as quantification theory III by simply exemplifying the object of (3), a keyword suitable for the registration target object can be easily and automatically selected and added. Therefore, at the time of object registration, the user can be freed from the extremely troublesome work of selecting and assigning a suitable keyword, and the object registration work can be performed efficiently.

【0194】さらに、使用分野や用途に応じた複数のオ
ブジェクトとこれらのオブジェクトに付与されたキーワ
ードとが配置された意味空間を用意すれば、上記使用分
野や用途に応じて適当なキーワード付与を行うことがで
きる。
Further, if a semantic space in which a plurality of objects corresponding to fields of use and uses and keywords assigned to these objects are arranged is prepared, appropriate keywords are assigned according to the fields of use and uses. be able to.

【0195】また、請求項2に係る発明のキーワード付
与方法は、複数のオブジェクトに関する上記意味空間上
の位置と特徴量との相関関係を正凖相関分析を用いて求
め、上記相関関係を用いて、上記登録対象オブジェクト
の特徴量に基づいて上記意味空間上の位置を求めるの
で、登録対象オブジェクトの特徴量から上記登録対象オ
ブジェクトの上記意味空間上の位置を正しく求めること
ができる。したがって、登録対象オブジェクトにより相
応しいキーワードを付与できる。
Further, in the keyword assigning method of the invention according to claim 2, the correlation between the position on the semantic space and the feature amount regarding a plurality of objects is obtained by using the normal correlation analysis, and the correlation is used by using the correlation. Since the position in the semantic space is obtained based on the feature amount of the registration target object, the position of the registration target object in the semantic space can be correctly obtained from the feature amount of the registration target object. Therefore, a more suitable keyword can be added to the registration target object.

【0196】また、請求項3に係る発明のキーワード付
与方法は、上記意味空間をオブジェクト用の意味空間と
キーワード用の意味空間とに分けて用意し、上記オブジ
ェクト用の意味空間上における上記登録対象オブジェク
トの位置の近傍からn個のオブジェクトを選出し、この
n個のオブジェクト夫々の上記オブジェクト用の意味空
間上の位置から、上記キーワード用の意味空間を用いて
上記登録対象オブジェクトの近傍のキーワードを選出す
るので、同一空間構造を有するオブジェクト用の意味空
間とキーワード用の意味空間とを対応付けて、上記登録
対象オブジェクトの近傍に位置しているキーワードを容
易に選出できる。
In the keyword assigning method of the invention according to claim 3, the semantic space is prepared separately for the object semantic space and the keyword semantic space, and the registration target in the object semantic space is prepared. N objects are selected from the vicinity of the position of the object, and the keywords in the vicinity of the registration target object are selected from the positions of the n objects in the semantic space for the object using the semantic space for the keyword. Since the selection is performed, the semantic space for the object having the same spatial structure and the semantic space for the keyword are associated with each other, and the keyword located near the registration target object can be easily selected.

【0197】また、請求項4に係る発明のキーワード付
与方法は、上記意味空間をオブジェクト用の意味空間と
キーワード用の意味空間とに分けて用意し、上記オブジ
ェクト用の意味空間上における上記登録対象オブジェク
トの位置の近傍からn個のオブジェクトを選出し、この
n個のオブジェクトの上記オブジェクト用の意味空間上
における位置から注目位置を求め、この注目位置に基づ
いて、上記キーワード用の意味空間を用いて上記登録対
象オブジェクトの近傍のキーワードを選出するので、同
一空間構造を有するオブジェクト用の意味空間とキーワ
ード用の意味空間とを対応付けて、上記登録対象オブジ
ェクトの近傍に位置しているキーワードを容易に選出で
きる。
Further, in the keyword assigning method of the invention according to claim 4, the semantic space is prepared separately for the object semantic space and the keyword semantic space, and the registration target in the object semantic space is prepared. N objects are selected from the vicinity of the position of the object, an attention position is obtained from the positions of the n objects in the semantic space for the object, and the semantic space for the keyword is used based on the attention position. Since the keywords near the registration target object are selected, the semantic space for the object having the same spatial structure and the semantic space for the keyword are associated with each other, and the keywords located near the registration target object can be easily identified. Can be elected.

【0198】また、請求項5に係る発明のキーワード自
動付与装置は、複数のオブジェクトとこれらのオブジェ
クトに付与されたキーワードとが配置された2次元以上
の意味空間の情報を意味空間格納手段に格納し、特徴量
抽出手段によって登録対象オブジェクトの特徴量を抽出
し、上記特徴量に基づいて、オブジェクト位置算出手段
によって上記登録対象オブジェクトの上記意味空間上の
位置を求め、キーワード選出手段によって上記登録対象
オブジェクトの位置の近傍のキーワードを選出し、この
選出されたキーワードをキーワード付与手段によって上
記登録対象オブジェクトに付与するので、複数のオブジ
ェクトと付与されたキーワードとに基づいて数量化理論
III類等の多変量解析によって容易に得られる上記意味
空間を用いることによって、上記登録対象オブジェクト
に相応しいキーワードを、簡単に且つ自動的に選出でき
る。したがって、オブジェクト登録の際に、相応しいキ
ーワードを選出して付与するという非常に面倒な作業か
らユーザを解放し、オブジェクト登録作業を効率よく行
うことができる。
Further, the keyword automatic assigning apparatus of the invention according to claim 5 stores in the semantic space storage means information on a two or more-dimensional semantic space in which a plurality of objects and keywords assigned to these objects are arranged. Then, the characteristic amount of the registration target object is extracted by the characteristic amount extraction means, the position of the registration target object in the semantic space is obtained by the object position calculation means based on the characteristic amount, and the registration target by the keyword selection means. Since a keyword near the position of the object is selected and the selected keyword is added to the registration target object by the keyword adding means, the quantification theory is based on the plurality of objects and the added keyword.
By using the semantic space that is easily obtained by multivariate analysis such as class III, a keyword suitable for the registration target object can be easily and automatically selected. Therefore, at the time of object registration, the user can be freed from the extremely troublesome work of selecting and assigning a suitable keyword, and the object registration work can be performed efficiently.

【0199】さらに、上記意味空間格納手段に、使用分
野や用途に応じた複数のオブジェクトとこれらのオブジ
ェクトに付与されたキーワードとが配置された意味空間
の情報を記憶しておけば、上記使用分野や用途に応じた
適当なキーワード付与することができる。
Further, if the semantic space storing means stores the information of the semantic space in which a plurality of objects corresponding to the fields of use and applications and keywords assigned to these objects are stored, It is possible to add an appropriate keyword according to the purpose.

【0200】また、請求項6に係る発明のキーワード自
動付与装置は、相関関係算出手段によって、複数のオブ
ジェクトに関する上記意味空間上の位置と特徴量との相
関関係を正凖相関分析によって求め、上記オブジェクト
位置算出手段は、上記相関関係を用いて、上記登録対象
オブジェクトの特徴量に基づいて上記登録対象オブジェ
クトの上記意味空間上の位置を求めるので、登録対象オ
ブジェクトの特徴量から上記登録対象オブジェクトの上
記意味空間上の位置を正しく求めることができる。した
がって、上記登録対象オブジェクトにより相応しいキー
ワードを付与できる。
Further, in the keyword automatic assigning device of the invention according to claim 6, the correlation calculating means obtains the correlation between the position on the semantic space and the feature amount regarding the plurality of objects by the normal correlation analysis, and Since the object position calculating means obtains the position of the registration target object in the semantic space based on the feature amount of the registration target object using the correlation, the object position calculation unit determines the registration target object from the feature amount of the registration target object. The position in the above semantic space can be correctly obtained. Therefore, a more suitable keyword can be added to the registration target object.

【0201】また、請求項7に係る発明のキーワード自
動付与装置は、上記意味空間の情報をオブジェクト用の
意味空間とキーワード用の意味空間とに分けて格納し、
上記キーワード選出手段は、上記オブジェクト用の意味
空間上における登録対象オブジェクトの近傍のオブジェ
クトをn個抽出する近傍オブジェクト抽出手段と、この
n個のオブジェクト夫々の位置から、上記キーワード用
の意味空間を用いて上記登録対象オブジェクトの近傍の
キーワードを抽出する近傍キーワード抽出手段を有する
ので、同一空間構造を有するオブジェクト用の意味空間
とキーワード用の意味空間とを対応させて、上記登録対
象オブジェクトの近傍に位置しているキーワードを容易
に選出できる。
Further, the automatic keyword assigning device of the invention according to claim 7 stores the information on the semantic space separately into a semantic space for an object and a semantic space for a keyword,
The keyword selecting means uses the neighboring object extracting means for extracting n objects in the vicinity of the registration target object in the object semantic space and the meaning space for the keyword from the position of each of the n objects. Since it has a neighborhood keyword extracting means for extracting a keyword near the registration target object, the meaning space for the object having the same spatial structure and the meaning space for the keyword are made to correspond to each other, and the position near the registration target object is set. You can easily select the keywords you are doing.

【0202】また、請求項8に係る発明のキーワード自
動付与装置は、上記意味空間の情報をオブジェクト用の
意味空間とキーワード用の意味空間とに分けて格納し、
上記キーワード選出手段は、上記オブジェクト用の意味
空間上における登録対象オブジェクトの近傍のオブジェ
クトをn個抽出する近傍オブジェクト抽出手段と、この
n個のオブジェクトの位置から注目位置を求める注目位
置算出手段と、上記注目位置に基づいて、上記キーワー
ド用の意味空間を用いて上記登録対象オブジェクトの近
傍のキーワードを抽出する近傍キーワード抽出手段を有
するので、同一空間構造を有するオブジェクト用の意味
空間とキーワード用の意味空間とを対応させて、上記登
録対象オブジェクトの近傍に位置しているキーワードを
容易に選出できる。
The automatic keyword assigning apparatus of the invention according to claim 8 stores the information on the semantic space separately into a semantic space for objects and a semantic space for keywords,
The keyword selecting means includes neighboring object extracting means for extracting n objects in the vicinity of the registration target object in the semantic space for the object, and attention position calculating means for obtaining attention positions from the positions of the n objects. Based on the position of interest, since there is a neighborhood keyword extracting means for extracting a keyword near the registration target object using the meaning space for the keyword, the meaning space for the object having the same spatial structure and the meaning for the keyword A keyword located near the registration target object can be easily selected in association with the space.

【0203】また、請求項9に係る発明のプログラム記
憶媒体は、登録対象オブジェクトの特徴量を抽出し、複
数のオブジェクトとこれらのオブジェクトに付与された
キーワードとが配置された2次元以上の意味空間上の上
記登録対象オブジェクトの位置を上記特徴量に基づいて
求め、上記登録対象オブジェクトの位置の近傍のキーワ
ードを選出して上記登録対象オブジェクトに付与するプ
ログラムを記憶しているので、上記登録対象オブジェク
トの特徴量から上記意味空間上の位置を求めることがで
きる。したがって、上記登録対象オブジェクトの上記意
味空間上の位置から、付与するに相応しいキーワードを
容易に得ることができる。
Further, the program storage medium of the invention according to claim 9 extracts a feature amount of an object to be registered, and has a two-dimensional or more semantic space in which a plurality of objects and keywords assigned to these objects are arranged. Since the program stores the position of the registration target object above based on the feature amount, selects a keyword near the position of the registration target object, and assigns it to the registration target object, the registration target object is stored. The position on the semantic space can be obtained from the feature amount of. Therefore, it is possible to easily obtain a keyword suitable for giving from the position of the registration target object in the semantic space.

【0204】また、請求項10に係る発明のプログラム
記憶媒体は、複数のオブジェクトに関する上記意味空間
上の位置と特徴量との相関関係を正凖相関分析で求め、
この相関関係を用いて、上記登録対象オブジェクトの特
徴量に基づいて上記意味空間上の位置を求めるプログラ
ムを記憶しているので、登録対象オブジェクトの特徴量
から上記登録対象オブジェクトの上記意味空間上の位置
を正しく求めることができる。したがって、登録対象オ
ブジェクトにより相応しいキーワードを付与できる。
According to a tenth aspect of the program storage medium of the present invention, the correlation between the position in the semantic space and the feature amount regarding a plurality of objects is obtained by a normal correlation analysis,
Since a program for finding the position in the semantic space based on the feature amount of the registration target object using this correlation is stored, the feature amount of the registration target object in the semantic space of the registration target object is stored. The position can be calculated correctly. Therefore, a more suitable keyword can be added to the registration target object.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明のキーワード自動付与装置が搭載され
た検索装置の機能ブロック図である。
FIG. 1 is a functional block diagram of a search device equipped with an automatic keyword assigning device of the present invention.

【図2】図1に示す機能を実現する装置構成を示す図で
ある。
FIG. 2 is a diagram showing a device configuration that realizes the functions shown in FIG.

【図3】図1に示す機能を実現するハードウェアのCP
Uを中心としたブロック図である。
FIG. 3 is a hardware CP that realizes the functions shown in FIG.
It is a block diagram centering on U.

【図4】図3におけるCPUによる制御の下に実行され
る基本処理動作のフローチャートである。
4 is a flowchart of a basic processing operation executed under the control of the CPU in FIG.

【図5】図1における辞書作成処理部によって実行され
る辞書作成処理サブルーチンのフローチャートである。
5 is a flowchart of a dictionary creation processing subroutine executed by a dictionary creation processing unit in FIG.

【図6】サンプルデータの説明図である。FIG. 6 is an explanatory diagram of sample data.

【図7】図5に示す辞書作成処理中において実行される
辞書全体の構築処理サブルーチンのフローチャートであ
る。
FIG. 7 is a flowchart of an entire dictionary construction processing subroutine that is executed during the dictionary creation processing shown in FIG.

【図8】図1における軸追加部によって実行される軸追
加処理サブルーチンのフローチャートである。
8 is a flowchart of an axis addition processing subroutine executed by an axis addition unit in FIG.

【図9】図1におけるキーワード登録処理部によって実
行されるキーワード登録処理サブルーチンのフローチャ
ートである。
9 is a flowchart of a keyword registration processing subroutine executed by a keyword registration processing unit in FIG.

【図10】図1におけるベクトル変換係数作成部によっ
て実行されるベクトル変換係数作成処理サブルーチンの
フローチャートである。
10 is a flowchart of a vector conversion coefficient creation processing subroutine executed by the vector conversion coefficient creation unit in FIG.

【図11】図1における画像データ登録処理部によって
実行される画像データ登録処理サブルーチンのフローチ
ャートである。
11 is a flowchart of an image data registration processing subroutine executed by the image data registration processing unit in FIG.

【図12】図11に示す画像データ登録処理中において
実行される画像データ取り込み処理サブルーチンのフロ
ーチャートである。
FIG. 12 is a flowchart of an image data import process subroutine executed during the image data registration process shown in FIG. 11.

【図13】図11に示す画像データ登録処理中において
実行されるキーワード自動設定処理サブルーチンのフロ
ーチャートである。
13 is a flowchart of a keyword automatic setting processing subroutine executed during the image data registration processing shown in FIG.

【図14】図1におけるベクトル変換部によって実行さ
れるベクトル変換処理サブルーチンのフローチャートで
ある。
14 is a flowchart of a vector conversion processing subroutine executed by the vector conversion unit in FIG.

【図15】図13に示すキーワード自動設定処理中にお
いて実行される近傍画像抽出処理サブルーチンのフロー
チャートである。
15 is a flowchart of a neighborhood image extraction processing subroutine executed during the keyword automatic setting processing shown in FIG.

【図16】図13に示すキーワード自動設定処理中にお
いて実行される画像近傍キーワード抽出処理サブルーチ
ンのフローチャートである。
16 is a flowchart of an image neighborhood keyword extraction processing subroutine executed during the keyword automatic setting processing shown in FIG.

【図17】図1における付加情報入力処理部によって実
行される付加情報入力処理サブルーチンのフローチャー
トである。
17 is a flowchart of an additional information input processing subroutine executed by an additional information input processing unit in FIG.

【図18】図17に示す付加情報入力処理中において実
行されるキーワード付加処理サブルーチンのフローチャ
ートである。
18 is a flowchart of a keyword addition processing subroutine executed during the additional information input processing shown in FIG.

【図19】図1における付加情報変更処理部によって実
行される付加情報変更処理サブルーチンのフローチャー
トである。
19 is a flowchart of an additional information change processing subroutine executed by an additional information change processing unit in FIG.

【図20】図13に示すキーワード自動設定処理の概念
を示す図である。
FIG. 20 is a diagram showing the concept of the keyword automatic setting process shown in FIG. 13.

【図21】図13とは異なるキーワード自動設定処理サ
ブルーチンのフローチャートである。
FIG. 21 is a flowchart of a keyword automatic setting processing subroutine different from FIG.

【図22】図21に示すキーワード自動設定処理の概念
を示す図である。
22 is a diagram showing the concept of the keyword automatic setting process shown in FIG. 21. FIG.

【符号の説明】[Explanation of symbols]

1…入力部、 2…キーワード登
録処理部、3…キーワード格納部、 4…画
像データ検索処理部、5…表示部、
6…辞書作成処理部、7…軸追加部、
9…ベクトル変換係数作成処理部、11…画像
データ登録処理部、 12…画像データ格納部、1
3…付加情報変更処理部、 14…キーワード自
動設定処理部、15…特徴量抽出部、 1
6…ベクトル変換部、17…付加情報入力処理部。
1 ... Input unit, 2 ... Keyword registration processing unit, 3 ... Keyword storage unit, 4 ... Image data search processing unit, 5 ... Display unit,
6 ... Dictionary creation processing unit, 7 ... Axis addition unit,
9 ... Vector conversion coefficient creation processing unit, 11 ... Image data registration processing unit, 12 ... Image data storage unit, 1
3 ... Additional information change processing unit, 14 ... Keyword automatic setting processing unit, 15 ... Feature amount extraction unit, 1
6 ... Vector conversion unit, 17 ... Additional information input processing unit.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 本間直人 外,情報検索におけるキー ワードの空間表現,信学技報(NC94− 138),1995年 3月18日,Vol.94, No.563,p.187−194 本間直人 外,キーワードの空間表現 とその階層化,信学技報(NC96− 183),1997年 3月18日,Vol.96, No.584,p.213−220 (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continued Front Page (56) References Naoto Honma, Spatial Representation of Keyword in Information Retrieval, IEICE Technical Report (NC94-138), March 18, 1995, Vol. 94, No. 563, p. 187-194 Naoto Honma, Spatial representation of keywords and their layering, IEICE Technical Report (NC96-183), March 18, 1997, Vol. 96, No. 584, p. 213-220 (58) Fields surveyed (Int.Cl. 7 , DB name) G06F 17/30 JISST file (JOIS)

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 記憶部に登録するオブジェクトにキーワ
ードを自動的に付与するキーワード付与方法であって、 複数のオブジェクトとこれらのオブジェクトに付与され
たキーワードとが配置された2次元以上の意味空間を用
意し、 登録対象オブジェクトの特徴量を抽出し、 上記特徴量に基づいて、上記登録対象オブジェクトの上
記意味空間上の位置を求め、 上記意味空間上に配置されているキーワードのうち、上
記登録対象オブジェクトの位置の近傍に位置しているキ
ーワードを選出して、上記登録対象オブジェクトに付与
することを特徴とするキーワード付与方法。
1. A keyword assigning method for automatically assigning a keyword to an object to be registered in a storage unit, comprising a two-dimensional or more semantic space in which a plurality of objects and keywords assigned to these objects are arranged. Prepare and extract the feature amount of the registration target object, obtain the position of the registration target object in the semantic space based on the feature amount, and select the registration target among the keywords arranged in the semantic space. A keyword assigning method, characterized in that a keyword located near the position of an object is selected and assigned to the registration target object.
【請求項2】 請求項1に記載のキーワード付与方法に
おいて、 複数のオブジェクトに関する上記意味空間上の位置と特
徴量とに対して正凖相関分析を行って、上記複数のオブ
ジェクトに関する上記意味空間上の位置と特徴量との相
関関係を求め、 上記相関関係を用いて、上記登録対象オブジェクトの特
徴量に基づいて上記登録対象オブジェクトの上記意味空
間上の位置を求めることを特徴とするキーワード付与方
法。
2. The keyword assigning method according to claim 1, wherein a regular correlation analysis is performed on the position and the feature amount of the plurality of objects in the semantic space, and the feature amount is calculated in the semantic space of the plurality of objects. A keyword assigning method characterized in that the position of the registration target object in the semantic space is calculated based on the feature amount of the registration target object using the correlation. .
【請求項3】 請求項1に記載のキーワード付与方法に
おいて、 上記意味空間は、上記複数のオブジェクトが配置されて
いるオブジェクト用の意味空間と、このオブジェクト用
の意味空間と同一空間構造を有すると共に、上記複数の
オブジェクトに付与されたキーワードが配置されている
キーワード用の意味空間とに分けて用意されており、 上記オブジェクト用の意味空間上における上記登録対象
オブジェクトの位置の近傍に位置しているn個のオブジ
ェクトを選出し、 この選出されたn個のオブジェクト夫々の上記オブジェ
クト用の意味空間上における位置に基づいて、上記キー
ワード用の意味空間を用いて、上記登録対象オブジェク
トの近傍に位置するキーワードを選出することを特徴と
するキーワード付与方法。
3. The keyword assigning method according to claim 1, wherein the semantic space has a semantic space for an object in which the plurality of objects are arranged, and the same spatial structure as the semantic space for the object. , The keywords assigned to the plurality of objects are separately prepared in the keyword semantic space in which the keywords are arranged, and the keywords are located in the vicinity of the position of the registration target object in the object semantic space. n objects are selected, and the objects are located in the vicinity of the registration target object using the keyword semantic space based on the positions of the selected n objects in the object semantic space. A keyword assigning method characterized by selecting a keyword.
【請求項4】 請求項1に記載のキーワード付与方法に
おいて、 上記意味空間は、上記複数のオブジェクトが配置されて
いるオブジェクト用の意味空間と、このオブジェクト用
の意味空間と同一空間構造を有すると共に、上記複数の
オブジェクトに付与されたキーワードが配置されている
キーワード用の意味空間とに分けて用意されており、 上記オブジェクト用の意味空間上における上記登録対象
オブジェクトの位置の近傍に位置しているn個のオブジ
ェクトを選出し、 この選出されたn個のオブジェクトの上記オブジェクト
用の意味空間上における位置に基づいて、上記オブジェ
クト用の意味空間上における注目位置を求め、 上記注目位置に基づいて、上記キーワード用の意味空間
を用いて、上記登録対象オブジェクトの近傍に位置する
キーワードを選出することを特徴とするキーワード付与
方法。
4. The keyword assigning method according to claim 1, wherein the semantic space has a semantic space for an object in which the plurality of objects are arranged, and the same spatial structure as the semantic space for the object. , The keywords assigned to the plurality of objects are separately prepared in the keyword semantic space in which the keywords are arranged, and the keywords are located in the vicinity of the position of the registration target object in the object semantic space. n objects are selected, based on the positions of the selected n objects in the object semantic space, a position of interest in the object semantic space is determined, and based on the position of interest, Located near the registration target object using the semantic space for the keyword Keyword assignment method which is characterized in that to elect a keyword.
【請求項5】 記憶部に登録するオブジェクトにキーワ
ードを自動的に付与するキーワード自動付与装置であっ
て、 複数のオブジェクトとこれらのオブジェクトに付与され
たキーワードとが配置された2次元以上の意味空間の情
報が格納された意味空間格納手段と、 登録対象オブジェクトの特徴量を抽出する特徴量抽出手
段と、 上記特徴量に基づいて、上記登録対象オブジェクトの上
記意味空間上の位置を求めるオブジェクト位置算出手段
と、 上記意味空間上に配置されているキーワードのうち、上
記登録対象オブジェクトの位置の近傍に位置しているキ
ーワードを選出するキーワード選出手段と、 上記選出されたキーワードを上記登録対象オブジェクト
に付与するキーワード付与手段を備えたことを特徴とす
るキーワード自動付与装置。
5. A keyword automatic assigning device for automatically assigning a keyword to an object registered in a storage unit, which is a two-dimensional or more semantic space in which a plurality of objects and keywords assigned to these objects are arranged. Information storing means stores a meaning space storing means, a feature amount extracting means for extracting a feature amount of a registration target object, and an object position calculation for obtaining the position of the registration target object in the meaning space based on the feature amount. Means, a keyword selecting means for selecting a keyword located in the vicinity of the position of the registration target object from among the keywords arranged in the semantic space, and assigning the selected keyword to the registration target object An automatic keyword assigning device, which is provided with a keyword assigning means.
【請求項6】 請求項5に記載のキーワード自動付与装
置において、 複数のオブジェクトに関する上記意味空間上の位置と特
徴量とに対して正凖相関分析を行って、上記複数のオブ
ジェクトに関する上記意味空間上の位置と特徴量との相
関関係を求める相関関係算出手段を備えて、 上記オブジェクト位置算出手段は、上記相関関係を用い
て、上記登録対象オブジェクトの特徴量に基づいて、上
記登録対象オブジェクトの上記意味空間上の位置を求め
るようになっていることを特徴とするキーワード自動付
与装置。
6. The automatic keyword assigning device according to claim 5, wherein a regular correlation analysis is performed on the position and the feature amount of the plurality of objects in the semantic space to obtain the semantic space of the plurality of objects. The object position calculating means is provided with a correlation calculating means for obtaining a correlation between the upper position and the feature amount, and the object position calculating means uses the correlation, based on the feature amount of the registration target object, An automatic keyword assigning device, characterized in that the position in the semantic space is obtained.
【請求項7】 請求項5に記載のキーワード自動付与装
置において、 上記意味空間の情報は、上記複数のオブジェクトが配置
されているオブジェクト用の意味空間と、このオブジェ
クト用の意味空間と同一空間構造を有すると共に、上記
複数のオブジェクトに付与されたキーワードが配置され
ているキーワード用の意味空間とに分けて格納されてお
り、 上記キーワード選出手段は、 上記オブジェクト用の意味空間上における上記登録対象
オブジェクトの位置の近傍に位置しているオブジェクト
をn個抽出する近傍オブジェクト抽出手段と、 この抽出されたn個のオブジェクト夫々の上記オブジェ
クト用の意味空間上における位置に基づいて、上記キー
ワード用の意味空間を用いて、上記登録対象オブジェク
トの近傍に位置するキーワードを抽出する近傍キーワー
ド抽出手段を備えたことを特徴とするキーワード自動付
与装置。
7. The automatic keyword assigning device according to claim 5, wherein the semantic space information is a semantic space for an object in which the plurality of objects are arranged, and the same spatial structure as the semantic space for the object. And the keywords assigned to the plurality of objects are separately stored in the semantic space for keywords in which the keywords are arranged. The keyword selection means is configured to store the object to be registered in the semantic space for the objects. Based on the position of each of the extracted n objects in the semantic space for the object, the proximity space for the keyword is extracted based on the position of each of the extracted n objects. To search for keywords located near the above registration target object. Keywords automatic application device, characterized in that it comprises a proximity keyword extracting means for output.
【請求項8】 請求項5に記載のキーワード自動付与装
置において、 上記意味空間の情報は、上記複数のオブジェクトが配置
されているオブジェクト用の意味空間と、このオブジェ
クト用の意味空間と同一空間構造を有すると共に、上記
複数のオブジェクトに付与されたキーワードが配置され
ているキーワード用の意味空間とに分けて格納されてお
り、 上記キーワード選出手段は、 上記オブジェクト用の意味空間上における上記登録対象
オブジェクトの位置の近傍に位置しているオブジェクト
をn個抽出する近傍オブジェクト抽出手段と、 この抽出されたn個のオブジェクトの上記オブジェクト
用の意味空間上における位置に基づいて、上記オブジェ
クト用の意味空間上における注目位置を求める注目位置
算出手段と、 上記注目位置に基づいて、上記キーワード用の意味空間
を用いて、上記登録対象オブジェクトの近傍に位置する
キーワードを抽出する近傍キーワード抽出手段を備えた
ことを特徴とするキーワード自動付与装置。
8. The automatic keyword assigning device according to claim 5, wherein the information on the semantic space is a semantic space for an object in which the plurality of objects are arranged, and the same spatial structure as the semantic space for the object. And the keywords assigned to the plurality of objects are separately stored in the semantic space for keywords in which the keywords are arranged. The keyword selection means is configured to store the object to be registered in the semantic space for the objects. In the semantic space for the object based on the positions in the semantic space for the object of the n objects that are extracted in the vicinity of the position n. Attention position calculation means for obtaining the attention position in the Te, by using the semantic space for the keyword, an automatic application device which comprising the near keyword extracting means for extracting a keyword that is located in the vicinity of the object to be registered.
【請求項9】 登録対象オブジェクトの特徴量を抽出
し、 上記特徴量に基づいて、複数のオブジェクトとこれらの
オブジェクトに付与されたキーワードとが配置された2
次元以上の意味空間上における上記登録対象オブジェク
トの位置を求め、 上記意味空間上に配置されているキーワードのうち、上
記登録対象オブジェクトの位置の近傍に位置しているキ
ーワードを選出して、上記登録対象オブジェクトに付与
するプログラムを記憶していることを特徴とするプログ
ラム記憶媒体。
9. A feature quantity of a registration target object is extracted, and a plurality of objects and keywords assigned to these objects are arranged based on the feature quantity.
The position of the registration target object in the semantic space of dimension or more is obtained, and among the keywords arranged in the semantic space, the keyword located near the position of the registration target object is selected, and the registration is performed. A program storage medium, which stores a program to be given to a target object.
【請求項10】 請求項9に記載のプログラム記憶媒体
において、 複数のオブジェクトに関する上記意味空間上の位置と特
徴量とに対して正凖相関分析を行って、上記複数のオブ
ジェクトに関する上記意味空間上の位置と特徴量との相
関関係を求め、 上記相関関係を用いて、上記登録対象オブジェクトの特
徴量に基づいて上記登録対象オブジェクトの上記意味空
間上の位置を求めるプログラムを記憶していることを特
徴とするプログラム記憶媒体。
10. The program storage medium according to claim 9, wherein a regular correlation analysis is performed on the position and the feature amount of the plurality of objects in the semantic space, and in the semantic space of the plurality of objects. A program for obtaining the correlation between the position and the feature amount, and using the correlation, determining the position of the registration target object in the semantic space based on the feature amount of the registration target object. Characteristic program storage medium.
JP25704097A 1997-09-22 1997-09-22 Keyword assignment method and keyword automatic assignment device Expired - Fee Related JP3500930B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP25704097A JP3500930B2 (en) 1997-09-22 1997-09-22 Keyword assignment method and keyword automatic assignment device
US09/157,413 US6480841B1 (en) 1997-09-22 1998-09-21 Information processing apparatus capable of automatically setting degree of relevance between keywords, keyword attaching method and keyword auto-attaching apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25704097A JP3500930B2 (en) 1997-09-22 1997-09-22 Keyword assignment method and keyword automatic assignment device

Publications (2)

Publication Number Publication Date
JPH1196176A JPH1196176A (en) 1999-04-09
JP3500930B2 true JP3500930B2 (en) 2004-02-23

Family

ID=17300915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25704097A Expired - Fee Related JP3500930B2 (en) 1997-09-22 1997-09-22 Keyword assignment method and keyword automatic assignment device

Country Status (1)

Country Link
JP (1) JP3500930B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8341112B2 (en) * 2006-05-19 2012-12-25 Microsoft Corporation Annotation by search
JP2009049886A (en) * 2007-08-22 2009-03-05 Casio Comput Co Ltd Image retrieval device, photographing device, image retrieval method, and program
JP5277110B2 (en) * 2009-08-11 2013-08-28 日本電信電話株式会社 Data search method, data search device, and data search program
CA2786727C (en) 2010-02-01 2017-08-29 Google, Inc. Joint embedding for item association
US9703782B2 (en) 2010-05-28 2017-07-11 Microsoft Technology Licensing, Llc Associating media with metadata of near-duplicates
US8903798B2 (en) 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
JP5826513B2 (en) * 2011-05-16 2015-12-02 株式会社日立国際電気 Similar image search system
US9678992B2 (en) 2011-05-18 2017-06-13 Microsoft Technology Licensing, Llc Text to image translation
US9239848B2 (en) 2012-02-06 2016-01-19 Microsoft Technology Licensing, Llc System and method for semantically annotating images
JP5959446B2 (en) * 2013-01-30 2016-08-02 Kddi株式会社 Retrieval device, program, and method for high-speed retrieval by expressing contents as a set of binary feature vectors

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
本間直人 外,キーワードの空間表現とその階層化,信学技報(NC96−183),1997年 3月18日,Vol.96,No.584,p.213−220
本間直人 外,情報検索におけるキーワードの空間表現,信学技報(NC94−138),1995年 3月18日,Vol.94,No.563,p.187−194

Also Published As

Publication number Publication date
JPH1196176A (en) 1999-04-09

Similar Documents

Publication Publication Date Title
US6480841B1 (en) Information processing apparatus capable of automatically setting degree of relevance between keywords, keyword attaching method and keyword auto-attaching apparatus
US7392233B2 (en) Image searching system, image searching method, and a recording medium storing an image searching program
JP5229744B2 (en) Image classification device and image classification program
JP2816241B2 (en) Image information retrieval device
WO2010053160A1 (en) Content search device and content search program
JP2004240750A (en) Picture retrieval device
JP3500930B2 (en) Keyword assignment method and keyword automatic assignment device
JPH07160731A (en) Method and device for picture retrieval
JP4948607B2 (en) Image search device, image classification device and method, and program
US20060195419A1 (en) Device and method for supporting material name setting, and computer product
JPH11167581A (en) Information sorting method, device and system
CN113688273B (en) Graphic question answering and judging method and device
JP5862243B2 (en) Information processing apparatus, control method therefor, and program
JPH11250106A (en) Method for automatically retrieving registered trademark through the use of video information of content substrate
JP3903613B2 (en) Search device and computer-readable recording medium storing search program
CN117763126A (en) Knowledge retrieval method, device, storage medium and apparatus
JP3530996B2 (en) Information processing equipment
JPH0944518A (en) Method for structuring image data base, and method and device for retrieval from image data base
JPH06103254A (en) Device and method for facilitating neural network
JP2013131051A (en) Information processing apparatus, information processing method, and program
JP2004240751A (en) Picture retrieval device
JP2000048041A (en) Data retrieval system and device to be used for the system
JP4585742B2 (en) Image display device, image display method, program, and recording medium
JPH05266085A (en) Method and device for similar retrieval using dynamic concept dictionary
JPH07239856A (en) Method and device for retrieving image

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees