JP2000112956A - Information retrieval device/method - Google Patents

Information retrieval device/method

Info

Publication number
JP2000112956A
JP2000112956A JP10278722A JP27872298A JP2000112956A JP 2000112956 A JP2000112956 A JP 2000112956A JP 10278722 A JP10278722 A JP 10278722A JP 27872298 A JP27872298 A JP 27872298A JP 2000112956 A JP2000112956 A JP 2000112956A
Authority
JP
Japan
Prior art keywords
search
word
information
image
associative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10278722A
Other languages
Japanese (ja)
Other versions
JP4086377B2 (en
Inventor
Tomomi Takada
智美 高田
Yuji Kobayashi
雄二 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP27872298A priority Critical patent/JP4086377B2/en
Priority to US09/409,056 priority patent/US6493705B1/en
Publication of JP2000112956A publication Critical patent/JP2000112956A/en
Priority to US10/234,185 priority patent/US6856987B2/en
Priority to US10/962,398 priority patent/US7054861B2/en
Priority to US11/329,182 priority patent/US7664803B2/en
Application granted granted Critical
Publication of JP4086377B2 publication Critical patent/JP4086377B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely take out objective multimedia information against a given retrieval word. SOLUTION: A retrieval request input processing 201 holds an inputted retrieval word in a retrieval word holding part 202. An associated word development processing 208 refers to an associated word dictionary 211 and obtains an associated word on the retrieval word held in the retrieval word holding part 202. A picture content retrieval processing 210 by the associated word retrieves the keyword of picture information based on the associated word obtained and the retrieval word. On the other hand, a sensibility pattern development processing 212 obtains a sensibility pattern corresponding to the retrieval word and the associated word. A sensibility pattern retrieval processing 214 retrieves picture information by using the feature quantity of the obtained sensibility pattern. A retrieval result integration processing 217 integrates retrieval results obtained by the picture content retrieval processing 210 and the sensibility pattern retrieval processing 214.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、与えられた検索語
に基づいて情報を検索する情報検索装置及びその方法に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information retrieval apparatus and method for retrieving information based on a given retrieval word.

【0002】[0002]

【従来の技術】従来、マルチメディア情報、例えば画像
情報を検索する情報検索装置では、検索対象となる各画
像に対する一人または複数の人による主観評価から導き
出したデータ(キーワード)、または各画像から取り出
した物理的な画像特徴等を用いて検索を行っていた。
2. Description of the Related Art Conventionally, in an information retrieval apparatus for retrieving multimedia information, for example, image information, data (keywords) derived from subjective evaluation by one or more persons for each image to be retrieved or extracted from each image Search has been performed using physical image features and the like.

【0003】例えば、人間が画像を見て受けた印象や印
象に結びつくキー情報を画像管理情報に付加し、検索に
利用する手法がある。キー情報には、例えば、「暖かい
感じ」「冷たい感じ」の様に、画像から受けた印象を表
す言葉や、「子猫」「海」「山」の様に、画像に描かれ
ているものを表す言葉をキーワードとして付加したもの
がある。また、画像に描かれている一部の画像特徴的な
要素を主観的に評価し、キー情報として付加する場合も
ある。例えば、「赤い」「青い」等の色に関する情報
や、「丸い」「三角」「尖った」等の形状に関する情
報、「ざらざらした感じ」「つるつるした感じ」等のテ
クスチャに関する情報を、言葉やアイコンを使って表現
し、キー情報として画像に付加し、検索に利用するもの
がある。
[0003] For example, there is a method in which impressions received by a person as a result of viewing an image and key information associated with the impression are added to the image management information and used for retrieval. Key information may include words that express the impression received from the image, such as "warm feeling" or "cold feeling", or information drawn on the image, such as "kitten,""sea," or "mountain." Some words have words added as keywords. In some cases, some image characteristic elements drawn in an image are subjectively evaluated and added as key information. For example, information on colors such as "red" and "blue", information on shapes such as "round", "triangle", and "pointed", and information on textures such as "gritty feeling" Some are expressed using icons, added to images as key information, and used for search.

【0004】一方、画像から物理的な画像特徴量を抽出
し、画像検索に利用するシステムもある。画像特徴に
は、例えば画像に描かれている一部の色や全体の色調、
画像に描かれているものの形状、構図、テクスチャ、等
がある。画像特徴量は、例えば画像全体を色情報をもと
に領域分割したり、一定面積毎のブロックに分割するな
どして得られた分割領域・ブロックから抽出されたり、
画像全体から抽出されたりする。物理的な画像特徴に
は、例えば、色情報、画像の濃淡分布、テクスチャ、エ
ッジ、領域、面積、位置、周波数分布等がある。
[0004] On the other hand, there is also a system that extracts a physical image feature amount from an image and uses it for image retrieval. Image features include, for example, some colors and overall tones depicted in the image,
There are shapes, compositions, textures, etc. of what is depicted in the image. The image feature amount is extracted from a divided region / block obtained by, for example, dividing the entire image into regions based on color information, dividing the image into blocks of a fixed area, or the like.
Or extracted from the entire image. Physical image features include, for example, color information, image density distribution, texture, edge, area, area, position, frequency distribution, and the like.

【0005】[0005]

【発明が解決しようとする課題】しかしながら上記従来
例では、入力した検索語に一致したキーワードを含む画
像を検索した場合に、検索者の検索要求にそぐわない画
像が得られてしまう場合があった。特に、「さわやか
な」画像といった抽象的な検索語で画像検索を行なった
場合、検索される画像が著しく限られてしまう。これを
解決するために、この「さわやか」という検索語から連
想されるキーワードへ展開して検索を行なうことも提案
されているが、このような手法を用いれば、さわやかで
ない画像が検索結果に混入してしまう可能性がある。
However, in the above conventional example, when an image including a keyword that matches the input search word is searched, an image that does not meet the search request of the searcher may be obtained. In particular, when an image search is performed using an abstract search word such as a "fresh" image, the searched image is significantly limited. In order to solve this, it has been proposed to expand the search term "fresh" to a keyword associated with it and perform a search, but using such a method, non-fresh images are mixed in the search results. Could be done.

【0006】また、検索語の代わりに、検索画像を与
え、その特徴量を用いて検索を行なうことも提案されて
いるが、この場合には、検索者の意図を反映した検索画
像を用意する必要があり、検索画像の選択が困難である
等、操作性が悪い。
It has also been proposed to provide a search image instead of a search word and perform a search using the feature amount. In this case, a search image reflecting the intention of the searcher is prepared. Operability is poor, for example, it is necessary to select a search image.

【0007】本発明は、上記の問題に鑑みてなされたも
のであり、与えられた検索語に対して、目的とする情報
を精度良く取り出すことを可能とする情報検索方法及び
装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides an information retrieval method and apparatus capable of accurately extracting target information from a given retrieval word. With the goal.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
めの本発明の一態様による情報検索装置は、たとえば以
下の構成を備える。すなわち、入力された検索語に基づ
いて情報を検索する情報検索装置であって、前記検索語
に基づいて検索キーワードを決定し、該検索キーワード
に基づいて情報の検索を行なう第1検索手段と、前記検
索語に対応するパターンの特徴量を決定し、該特徴量に
基づいて情報の検索を行なう第2検索手段と、前記第1
及び第2検索手段によって得られた検索結果を統合する
統合手段とを備える。
An information retrieval apparatus according to one aspect of the present invention for achieving the above object has, for example, the following configuration. That is, an information search device that searches for information based on an input search word, a first search unit that determines a search keyword based on the search word, and searches for information based on the search keyword, A second search unit that determines a feature amount of a pattern corresponding to the search word and searches for information based on the feature amount;
And integration means for integrating the search results obtained by the second search means.

【0009】また、上記の目的を達成するための本発明
の他の態様による情報検索方法は、たとえば以下の工程
を備える。すなわち、入力された検索語に基づいて情報
を検索する情報検索方法であって、前記検索語に基づい
て検索キーワードを決定し、該検索キーワードに基づい
て情報の検索を行なう第1検索工程と、前記検索語に対
応するパターンの特徴量を決定し、該特徴量に基づいて
情報の検索を行なう第2検索工程と、前記第1及び第2
検索工程によって得られた検索結果を統合する統合工程
とを備える。
An information search method according to another aspect of the present invention for achieving the above object includes, for example, the following steps. That is, an information search method for searching for information based on an input search word, wherein a first search step of determining a search keyword based on the search word and searching for information based on the search keyword, A second search step of determining a feature amount of a pattern corresponding to the search word and searching for information based on the feature amount;
An integration step of integrating search results obtained in the search step.

【0010】[0010]

【発明の実施の形態】以下、添付の図面を参照して本発
明の好適な一実施形態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

【0011】図1は、本実施形態の画像検索装置を構成
するための情報処理装置の構成例を示す図である。
FIG. 1 is a diagram showing an example of the configuration of an information processing device for configuring the image search device of the present embodiment.

【0012】図1において、11はマイクロプロセッサ
(以下、CPU)であり、制御プログラムに従って画像
情報検索のための演算、論理判断等を行なうと共に、ア
ドレスバスAB、コントロールバスCB、データバスD
Bを介して、それらのバスに接続された各構成要素を制
御する。アドレスバスABはCPU11の制御の対象と
する構成要素を指示するアドレス信号を転送する。コン
トロールバスCBはCPU11の制御の対象とする各構
成要素へのコントロール信号を転送する。データバスD
Bは各構成機器相互間のデータ転送を行なう。
In FIG. 1, reference numeral 11 denotes a microprocessor (hereinafter referred to as a CPU), which performs an operation and a logic judgment for image information retrieval in accordance with a control program, and also executes an address bus AB, a control bus CB and a data bus D
B controls each component connected to those buses. The address bus AB transfers an address signal indicating a component to be controlled by the CPU 11. The control bus CB transfers a control signal to each component to be controlled by the CPU 11. Data bus D
B performs data transfer between the constituent devices.

【0013】12は読出し専用の固定メモリ(以下、R
OM)であり、当該装置の起動時にCPU11によって
実行されるブート処理プログラム等を格納する。また、
13は1ワード16ビットで構成される書込み可能なラ
ンダムアクセスメモリ(以下、RAM)であって、各構
成要素からの各種データの一時記憶に用いられる。特に
本実施形態では、RAM13は、図2において後述する
検索語保持部202、検索観点保持部203、検索重み
保持部204、決定重み保持部207、展開連想語保持
部209、展開感性パターン保持部213、検索結果保
持部216といった各種データ保持部を提供する。
Reference numeral 12 denotes a read-only fixed memory (hereinafter referred to as R
OM), and stores a boot processing program executed by the CPU 11 when the apparatus is started. Also,
Reference numeral 13 denotes a writable random access memory (hereinafter referred to as a RAM) composed of 16 bits per word, which is used for temporarily storing various data from each component. In particular, in the present embodiment, the RAM 13 includes a search word holding unit 202, a search viewpoint holding unit 203, a search weight holding unit 204, a decision weight holding unit 207, a developed associative word holding unit 209, and a developed sentiment pattern holding unit described later with reference to FIG. 213, various data holding units such as a search result holding unit 216 are provided.

【0014】14は外部メモリ(DISK)であり、図
2において後述する概念判別辞書205及び連想語辞書
211を格納すると共に、イメージ語と感性パターンの
対応保持部215、画像内容語保持部219、画像保持
部218、感性パターン保持部220、画像特徴量保持
部222、画像特徴量及び感性パターンの対応保持部2
23といったデータ保持部を提供する。なお、外部メモ
リ14の記録媒体としては、ROM、フロッピーディス
ク、CD−ROM、メモリカード、光磁気ディスクなど
が用いられ得る。
Reference numeral 14 denotes an external memory (DISK) which stores a concept discrimination dictionary 205 and an associative word dictionary 211, which will be described later with reference to FIG. 2, as well as an image word and sensitivity pattern correspondence holding unit 215, an image content word holding unit 219, Image holding unit 218, Kansei pattern holding unit 220, Image feature amount holding unit 222, Image feature amount and Kansei pattern correspondence holding unit 2
23 is provided. Note that as a recording medium of the external memory 14, a ROM, a floppy disk, a CD-ROM, a memory card, a magneto-optical disk, or the like can be used.

【0015】また、外部メモリ14は、図2等において
後述する検索要求入力処理201、重み判定処理20
6、連想語展開処理208、連想語による画像内容語検
索処理210、感性パターン展開処理212、感性パタ
ーン検索処理214、検索結果統合処理217、画像特
徴抽出処理221、感性パターン判定処理224の各処
理を実行するプログラムが格納される。
The external memory 14 includes a search request input process 201 and a weight determination process 20 described later in FIG.
6, associative word expansion processing 208, image content word search processing 210 using associative words, kansei pattern expansion processing 212, kansei pattern search processing 214, search result integration processing 217, image feature extraction processing 221, and kansei pattern determination processing 224 Is stored.

【0016】15はキーボード(KB)であり、アルフ
ァベットキー、ひらがなキー、カタカナキー、句点等の
文字記号入力キーの他に、検索を指示するための検索キ
ー(一般的なキーボードのファンクションキーで代用し
ても良い)及びカーソル移動を指示するカーソル移動キ
ー等のような各種の機能キーを備えている。また、図示
していないが、マウス等のポインティングデバイスが接
続されてもよい。
Reference numeral 15 denotes a keyboard (KB) which includes a character / character input key such as an alphabet key, a hiragana key, a katakana key, and a punctuation mark, and a search key for instructing a search (function keys of a general keyboard are used as substitutes). And various function keys such as a cursor movement key for instructing cursor movement. Although not shown, a pointing device such as a mouse may be connected.

【0017】16は表示用ビデオメモリ(以下、VRA
M)であり、表示すべきデータのパターンを格納する。
17はCRTコントローラ(以下、CRTC)であり、
VRAM16に蓄えられた内容をCRT18に表示する
役割を担う。18は陰極線管等を用いた表示装置(CR
T)であり、CRT18におけるドット構成の表示パタ
ーンおよびカーソルの表示がCRTC17で制御され
る。なお、表示装置としては、液晶等、各種表示器を用
いることができることはいうまでもない。19はネット
ワークインターフェースカード(NIC)であり、本画
像検索装置をEthernetなどのネットワークに接続する役
割を担う。
Reference numeral 16 denotes a display video memory (hereinafter referred to as VRA).
M) and stores a pattern of data to be displayed.
Reference numeral 17 denotes a CRT controller (hereinafter, CRTC),
It plays a role of displaying the contents stored in the VRAM 16 on the CRT 18. Reference numeral 18 denotes a display device using a cathode ray tube or the like (CR
T), the display pattern of the dot configuration on the CRT 18 and the display of the cursor are controlled by the CRTC 17. It is needless to say that various displays such as liquid crystal can be used as the display device. Reference numeral 19 denotes a network interface card (NIC), which plays a role of connecting the image search device to a network such as Ethernet.

【0018】以上の各構成要素からなる本実施形態の画
像検索装置は、キーボード15からの各種入力、及びネ
ットワークコントローラから供給されるネットワーク経
由の各種入力に応じて動作する。キーボード15からの
入力、或いはネットワークコントローラ19からの入力
があると、インタラプト信号がCPU11に送られる。
このインタラプト信号を受けたCPU11は、外部メモ
リ14内に記憶してある各種の制御データを読み出し、
それら制御データに従って、各種の制御を実行する。な
お、本実施形態において規定する処理を実現するための
制御プログラムを格納した記録媒体をシステムあるいは
装置に供給し、そのシステムあるいは装置のコンピュー
タが、当該記録媒体に格納されたプログラムコードを読
み出し実行することによっても、本発明は達成される。
The image retrieval apparatus according to the present embodiment comprising the above-described components operates according to various inputs from the keyboard 15 and various inputs via the network supplied from the network controller. When there is an input from the keyboard 15 or an input from the network controller 19, an interrupt signal is sent to the CPU 11.
Upon receiving the interrupt signal, the CPU 11 reads out various control data stored in the external memory 14 and
Various controls are executed according to the control data. Note that a recording medium storing a control program for realizing the processing specified in the present embodiment is supplied to a system or an apparatus, and a computer of the system or the apparatus reads out and executes the program code stored in the recording medium. Thus, the present invention is achieved.

【0019】図2は本実施形態の画像検索装置における
処理構成を図式化したブロック図である。
FIG. 2 is a block diagram schematically illustrating a processing configuration in the image retrieval apparatus according to the present embodiment.

【0020】図2において、201は検索要求入力処理
であり、所望の検索対象に関する要求事項(ここでは、
検索語、検索観点、検索重みであり、詳細は後述する)
を入力する。202は検索語保持部であり、検索要求入
力処理201によって入力された検索語を記憶する。2
03は検索観点保持部であり、検索要求入力処理201
によって入力された検索観点を記憶する。204は検索
重み保持部であり、検索要求入力処理201によって入
力された検索重みを記憶する。
In FIG. 2, reference numeral 201 denotes a search request input process, which is a request related to a desired search target (here,
(Search terms, search viewpoints, search weights, details will be described later.)
Enter Reference numeral 202 denotes a search term holding unit that stores the search term input by the search request input process 201. 2
Reference numeral 03 denotes a search viewpoint holding unit, and a search request input process 201
Is stored. A search weight holding unit 204 stores the search weight input by the search request input processing 201.

【0021】205は概念判別辞書であり、図8に示す
ように、検索対象となる概念に関係する検索観点、検索
対象となる概念とは反対の意味を持つ反意概念、概念を
検索する際の重み判定のための2種類の係数(連想重み
と感性パターン重み)を有する。なお、概念判別辞書2
05の詳細については、図8を参照して後述する。20
6は重み判定処理であり、検索語保持部202に記憶さ
れた検索語を検索する際に、連想語(連想語展開処理2
08によって得られる)と感性パターン(感性パターン
展開処理212によって得られる)のいずれを重視して
検索すべきかを示す重み(連想重み、感性パターン重
み)を与える。207は決定重み保持部であり、重み判
定処理206で決定された検索重みを記憶する。
Reference numeral 205 denotes a concept discrimination dictionary. As shown in FIG. 8, a search viewpoint related to the concept to be searched, a dissenting concept having a meaning opposite to the concept to be searched, and a concept for searching for a concept. Has two types of coefficients (associative weight and sensibility pattern weight) for weight determination. Note that the concept discrimination dictionary 2
05 will be described later with reference to FIG. 20
Reference numeral 6 denotes a weight determination process, which is performed when searching for a search word stored in the search word holding unit 202.
08) or a sentiment pattern (obtained by the sentiment pattern development process 212) is given a weight (associative weight, sentiment pattern weight) indicating whether to search with emphasis. A determination weight holding unit 207 stores the search weight determined in the weight determination processing 206.

【0022】208は連想語展開処理であり、検索語保
持部202に記憶された検索語を連想語辞書211を参
照して連想語に展開するとともに、その検索語に対する
反意概念を概念判別辞書205から獲得し、連想語辞書
211を参照して、得られた反意概念を連想語に展開す
る。209は展開連想語保持部であり、連想語展開処理
208によって展開された連想語(反意概念の連想語を
含む)を格納する。210は連想語による画像内容語検
索処理(以下、画像内容語検索処理210という)であ
り、展開連想語保持部209を参照し、画像内容語保持
部219に格納された画像内容語のうち展開された連想
語と合致するものを検索する。211は連想語辞書であ
り、見出しとなる概念ごとに連想される語を連想観点と
対応させて格納してある(詳細は図9により後述す
る)。
Reference numeral 208 denotes an associative word expansion process, which expands the search word stored in the search word holding unit 202 into an associative word with reference to the associative word dictionary 211, and converts a dissenting concept corresponding to the search word into a concept discrimination dictionary. With reference to the associative word dictionary 211 obtained from 205, the obtained opposite meaning concept is developed into an associative word. Reference numeral 209 denotes an associative word holding unit that stores the associative words (including the associative words of the negative concept) expanded by the associative word expansion processing 208. Reference numeral 210 denotes an image content word search process using an associative word (hereinafter, referred to as an image content word search process 210), which refers to the expanded associative word storage unit 209 and expands the image content words stored in the image content word storage unit 219. Search for a word that matches the associated word. Reference numeral 211 denotes an associative word dictionary, which stores words associated with each concept as a heading in association with an associative viewpoint (details will be described later with reference to FIG. 9).

【0023】212は感性パターン展開処理であり、検
索語保持部202に記憶された検索語をイメージ語−感
性パターン対応保持部215を参照して感性パターンに
展開すると共に、当該検索語の反意概念を概念判別辞書
205から得て、得られた反意概念を、イメージ語−感
性パターン対応保持部215を参照して、感性パターン
に展開する。
Reference numeral 212 denotes a sentiment pattern developing process, which develops the search word stored in the search word holding unit 202 into a sentiment pattern by referring to the image word-kansei pattern correspondence holding unit 215, and performs the opposite of the search word. The concept is obtained from the concept discrimination dictionary 205, and the obtained antisense concept is developed into a sensitivity pattern with reference to the image word-sensitivity pattern correspondence holding unit 215.

【0024】213は展開感性パターン保持部であり、
感性パターン展開処理212で展開した感性パターンを
一時的に保存する。展開感性パターン保持部213にお
けるデータの格納については図11を参照して後述す
る。214は感性パターン検索処理であり、展開感性パ
ターン保持部213を参照して、感性パターン保持部2
20に格納されている感性パターンのうち展開された感
性パターンと類似するものを検索する。
Reference numeral 213 denotes a development sensitivity pattern holding unit.
The sentiment patterns developed in the sentiment pattern development process 212 are temporarily stored. The storage of data in the development sensitivity pattern holding unit 213 will be described later with reference to FIG. Reference numeral 214 denotes a sentiment pattern search unit, which refers to the developed sentiment pattern holding unit 213 and
A search is made for a sentiment pattern stored in 20 that is similar to the developed sentiment pattern.

【0025】215はイメージ語−感性パターン対応保
持部であり、イメージ語とそのイメージ語に関連づけら
れた各連想語の組に対応する感性パターンIDを記憶す
ることにより、イメージ語と感性パターンの対応を格納
する。なお、イメージ語−感性パターン対応保持部21
5の詳細は図12を参照して後述する。
Reference numeral 215 denotes an image word-kansei pattern correspondence holding unit which stores a sentiment pattern ID corresponding to a set of an image word and each associative word associated with the image word, so that the correspondence between the image word and the sentiment pattern is stored. Is stored. Note that the image word-sensitive pattern correspondence holding unit 21
Details of 5 will be described later with reference to FIG.

【0026】216は検索結果保持部であり、画像内容
語検索処理210と感性パターン検索処理214によっ
て検索された画像IDを格納する。217は検索結果統
合処理であり、検索結果保持部216に記憶された連想
語による画像内容語の検索結果と感性パターンの検索結
果とを、重み判定処理206によって得られ、決定重み
保持部207内に格納された決定重みに基づいて統合す
る。
Reference numeral 216 denotes a search result holding unit which stores the image IDs searched by the image content word search processing 210 and the affective pattern search processing 214. A search result integration process 217 obtains the search result of the image content word and the search result of the sensibility pattern by the associative word stored in the search result storage unit 216 by the weight determination process 206. Are integrated based on the decision weights stored in.

【0027】218は画像保持部であり、検索対象とな
る画像情報を格納する。219は画像内容語保持部であ
り、画像保持部218に格納された画像の内容を描写す
べく付与されている概念を言語で記述し格納したもので
ある。220は感性パターン保持部であり、画像保持部
218に格納された各画像の画像情報と感性パターンと
の適合度を格納する。すなわち、感性パターン保持部2
20には、画像IDごとに各感性パターンとの適合度が
記憶されている。感性パターン保持部220のデータ内
容については、図13を参照して後述する。
An image holding unit 218 stores image information to be searched. Reference numeral 219 denotes an image content word holding unit that describes and stores, in a language, a concept given to describe the content of the image stored in the image holding unit 218. Reference numeral 220 denotes a feeling pattern holding unit that stores the degree of matching between the image information of each image stored in the image holding unit 218 and the feeling pattern. That is, the sensitivity pattern holding unit 2
20 stores the degree of matching with each emotion pattern for each image ID. The data content of the affective pattern holding unit 220 will be described later with reference to FIG.

【0028】221は画像特徴抽出処理であり、画像保
持部218に格納された各画像情報から物理的な画像特
徴量を抽出する。物理的な画像特徴量は、色情報をもと
に分割された領域や、一定面積で分けられたブロック、
または画像全体から抽出される視覚的な特徴である。例
えば、画像特徴は、画像の色分布やヒストグラム、画像
の濃淡分布、テクスチャ、エッジ、周波数分布等の数値
化された情報である。なお、画像特徴量の詳細は図14
を参照して後述する。
An image feature extraction process 221 extracts a physical image feature amount from each piece of image information stored in the image holding unit 218. Physical image features include areas divided based on color information, blocks divided by a certain area,
Or a visual feature extracted from the entire image. For example, the image feature is digitized information such as a color distribution and a histogram of the image, a density distribution of the image, a texture, an edge, and a frequency distribution. The details of the image feature amount are shown in FIG.
It will be described later with reference to FIG.

【0029】222は画像特徴量保持部であり、画像特
徴抽出処理221によって得られた各画像の画像特徴量
を格納する。また、223は画像特徴量−感性パターン
対応保持部であり、画像特徴量と感性パターンの対応を
とって記憶する。画像特徴量−感性パターン対応保持部
223には、感性パターンIDと各IDに対応した画像
特徴量データが記憶されている。なお、画像特徴量−感
性パターン対応保持部223のデータ構成については図
17を参照して後述する。
Reference numeral 222 denotes an image feature storage, which stores the image feature of each image obtained by the image feature extraction processing 221. Reference numeral 223 denotes an image feature-feeling pattern correspondence holding unit, which stores the correspondence between the image feature quantity and the feeling pattern. The image feature amount-kansei pattern correspondence holding unit 223 stores a Kansei pattern ID and image feature amount data corresponding to each ID. Note that the data configuration of the image feature-sensitivity pattern correspondence holding unit 223 will be described later with reference to FIG.

【0030】224は感性パターン判定処理であり、画
像特徴量保持部222と画像特徴量−感性パターン対応
保持部223とを参照して、感性パターンから抽出した
画像特徴量と画像情報から抽出した画像特徴量とを比較
・照合して、その適合度を求め、上述の感性パターン保
持部220にその結果を登録する。
Reference numeral 224 denotes a feeling pattern determination process, which refers to the image feature amount holding unit 222 and the image feature amount-sensitive pattern correspondence holding unit 223, and extracts the image feature amount extracted from the feeling pattern and the image extracted from the image information. The degree of matching is obtained by comparing / collating with the feature amount, and the result is registered in the above-described emotion pattern holding unit 220.

【0031】図3は検索要求入力処理201において入
力された検索要求語について、関連する検索観点を表示
した例を示す図である。検索語が例えばキーボード15
を操作することにより入力されると、図8のごとき概念
判別辞書205が検索され、検索語を見出し語として、
対応する検索観点が抽出される。図3においては、検索
要求語「渋い」に対して、「色調」「味」「雰囲気一
般」の3つの検索観点が存在し、ここでは、網掛け表示
されている「色調」が選択されていることを示してい
る。この状態でOKボタンを押下(クリック)すると、
検索観点「色調」が選択され、検索観点保持部203に
保持される。
FIG. 3 is a diagram showing an example in which a search viewpoint related to the search request word input in the search request input processing 201 is displayed. If the search term is keyboard 15
Is operated, the concept discriminating dictionary 205 as shown in FIG. 8 is searched.
The corresponding search viewpoint is extracted. In FIG. 3, there are three search viewpoints “color tone”, “taste”, and “general atmosphere” with respect to the search request word “bitter”. In this case, the shaded “color tone” is selected. It indicates that When the OK button is pressed (clicked) in this state,
The search viewpoint “tone” is selected and stored in the search viewpoint storage unit 203.

【0032】なお、キーボード15上のカーソル移動キ
ーを押下することにより、網掛け表示部は「色調」から
「味」または「雰囲気一般」というように遷移するの
で、所望の検索観点を選択することができる。なお、検
索要求語である「渋い」は検索語保持部202に、選択
された検索観点は検索観点保持部203にそれぞれ保持
されることになる。
By pressing the cursor movement key on the keyboard 15, the shaded display section changes from "color tone" to "taste" or "general atmosphere", so that a desired search viewpoint can be selected. Can be. The search request word “bitter” is stored in the search word storage unit 202, and the selected search viewpoint is stored in the search viewpoint storage unit 203.

【0033】図4は検索要求入力処理201における、
連想語による検索重みと、感性パターンによる検索重み
を指示するための、重み指定操作パネルの表示例を示す
図である。上述のように、本実施形態では、連想語によ
る検索と、検索語に基づくイメージ(感性パターン)の
特徴量による検索とを行ない、両検索結果を統合する
が、この統合処理においては両検索結果に重み付けが行
なわれる。重み指定操作パネルにおいて、これら、連想
語による検索重みと、感性パターンによる検索重みを指
定することができる。すなわち連想語による検索と感性
パターンによる検索のどちらを重視して検索するかを指
定することができる。
FIG. 4 shows the search request input processing 201.
It is a figure which shows the example of a display of the weight designation | designated operation panel for designating the search weight by an association word, and the search weight by a feeling pattern. As described above, in the present embodiment, the search based on the associative word and the search based on the feature amount of the image (kansei pattern) based on the search word are performed to integrate the two search results. Is weighted. On the weight designation operation panel, it is possible to designate the search weight based on the association word and the search weight based on the emotion pattern. That is, it is possible to specify which of the search based on the associative word and the search based on the sensibility pattern is emphasized.

【0034】図4において、スライダーボタン41を左
方向にスライドさせると、連想語による検索を重視する
ような指示が行われ、右方向にスライドさせると感性パ
ターンによる検索を重視する指示が行われる。スライダ
ーボタン41で重みを指定した後、OKボタン43を押
下することで、重みの設定指示が行われる。なお、ボタ
ン42は重みを明示的に指定しない場合に押下する。ボ
タン42が選択された場合には、所定の重みの値(これ
は、概念判別辞書205の連想重み83と感性パターン
重み84から得られる)が用いられる。こうして設定さ
れた重みは、検索重み保持部204に格納される。な
お、重み指定操作パネルの各ボタン41〜43の押下
は、不図示のポインティングデバイスによるクリック操
作であっても良いことは明らかである。
In FIG. 4, when the slider button 41 is slid to the left, an instruction is given to attach importance to the search by the associative word, and when the slider button 41 is slid to the right, an instruction is attached to attach importance to the search by the sensibility pattern. After the weight is designated by the slider button 41, the OK button 43 is pressed to issue a weight setting instruction. The button 42 is pressed when the weight is not explicitly specified. When the button 42 is selected, a predetermined weight value (obtained from the association weight 83 and the sensitivity pattern weight 84 of the concept discrimination dictionary 205) is used. The weight set in this way is stored in the search weight holding unit 204. It should be noted that pressing of each of the buttons 41 to 43 on the weight designation operation panel may be a click operation using a pointing device (not shown).

【0035】図5は、画像IDと画像ファイル格納パス
を対応づけた画像保持部218のデータ構成を示す図で
ある。図5において、51は画像IDを示し、当該画像
データベースにおいて、1つの画像ファイルにつき一意
に付与された識別番号である。52は画像IDに対応す
る画像ファイルの外部メモリ14における格納先を示す
ファイルパスであり、MS−DSのディレクトリとファ
イル名に相当する。
FIG. 5 is a diagram showing a data configuration of the image holding unit 218 in which image IDs and image file storage paths are associated with each other. In FIG. 5, reference numeral 51 denotes an image ID, which is an identification number uniquely assigned to one image file in the image database. Reference numeral 52 denotes a file path indicating the storage location of the image file corresponding to the image ID in the external memory 14, which corresponds to the directory and file name of the MS-DS.

【0036】図示は省略するが、各画像ファイルは、周
知のように、ヘッダ部と画像データ部に分けられる。ヘ
ッダ部にはその画像ファイルからデータを読み取るとき
に必要な情報や、画像の内容を説明する付帯的な情報が
格納され、その画像フォーマット名を示す画像フォーマ
ット識別子、ファイルサイズ、画像の幅・高さ・深さ、
圧縮の有無、カラーパレットの情報、解像度、画像デー
タの格納位置へのオフセットなどの情報が格納される。
また、画像データ部は画像データを順次格納している部
分である。本実施形態においては、このような画像フォ
ーマットとしてMicrosoft社のBMPフォーマットを用
いるものとするが、GIFフォーマットあるいはJPE
G、Flash Pixといった、その他の圧縮フォーマットを
用いても同様の構成をなすことができる。
Although not shown, each image file is divided into a header section and an image data section, as is well known. The header section stores information necessary for reading data from the image file and additional information describing the content of the image, an image format identifier indicating the image format name, a file size, and a width and height of the image. Sa depth
Information such as the presence / absence of compression, color palette information, resolution, and offset to the storage position of image data is stored.
The image data section is a section that stores image data sequentially. In the present embodiment, the BMP format of Microsoft Corporation is used as such an image format.
The same configuration can be achieved by using other compression formats such as G and Flash Pix.

【0037】図6は、画像IDと画像内容語とを対応づ
けた画像内容語保持部219のデータ構成例を示す図で
ある。図6において、61は画像IDであり、図5の画
像ID51と対応する。62は画像内容語であり、画像
ID61で表される各画像を描写するための語を格納す
る。画像内容語は画像に描写されている画像特徴を言葉
にしたキーワードであり、文字コード(例えばunicod
e)で格納される。キーワードは1つの画像について複
数個格納してもよく、画像内容語保持部219は画像I
D61をキーとする画像内容語62のリストで構成され
る。
FIG. 6 is a diagram showing an example of the data configuration of the image content word holding unit 219 in which image IDs are associated with image content words. 6, reference numeral 61 denotes an image ID, which corresponds to the image ID 51 in FIG. Reference numeral 62 denotes an image content word, which stores a word for describing each image represented by the image ID 61. An image content word is a keyword that expresses image features described in an image as words, and a character code (for example, unicod
Stored in e). A plurality of keywords may be stored for one image, and the image content word holding unit 219 stores the image I
It is composed of a list of image content words 62 using D61 as a key.

【0038】図7は図6に示す画像内容語保持部のデー
タを、画像内容語をキーとして画像IDのリストで格納
したテーブルを示す図である。図7において、画像内容
語71の各語をキーワードとして含むすべての画像ID
が画像ID72に格納される。なお、図6は画像IDに
よる分類を、図7は画像内容語による分類を示したもの
であり、図6と図7は内容的には同じものなので両方を
保持しておく必要は無い。
FIG. 7 is a diagram showing a table in which the data of the image content word holding unit shown in FIG. 6 is stored in a list of image IDs using the image content words as keys. In FIG. 7, all image IDs including each of the image content words 71 as a keyword
Is stored in the image ID 72. Note that FIG. 6 shows the classification based on the image ID, and FIG. 7 shows the classification based on the image content word. Since the contents are the same, it is not necessary to hold both.

【0039】図8は概念判別辞書205のデータ構成例
を示した図である。概念判別辞書205は、検索要求と
なる検索語に関する情報を提供するものであり、検率語
に対応する見出し語80、見出し語に関係する検索観点
81、検索観点毎の、見出し語と反対の意味をもつ反意
概念82、見出し語を検索する際の連想語の重み83、
見出し語を検索する際の感性パターンの重み84とを対
応させて格納したテーブルである。
FIG. 8 is a diagram showing an example of the data configuration of the concept discrimination dictionary 205. The concept discrimination dictionary 205 provides information on a search term that is a search request, and includes a headword 80 corresponding to an evaluative word, a search viewpoint 81 related to the headword, and a search word opposite to the headword for each search viewpoint. A disagreeable concept 82 having a meaning, an associative word weight 83 when searching for a headword,
It is a table in which a sentence pattern weight 84 at the time of searching for a headword is stored in correspondence.

【0040】図9は連想語辞書211のデータ構成例を
示す図である。連想語辞書211は見出し語に対する連
想語の一組を一意に番号付ける連想ID90と、連想の
起点となる見出し語91、見出し語91から連想される
連想語92、連想語92の連想に関係する連想観点9
3、見出し語91と連想語92との間の連想の強さを示
す連想強度94とから構成される。
FIG. 9 is a diagram showing an example of the data structure of the associative word dictionary 211. The associative word dictionary 211 relates to an associative ID 90 for uniquely numbering a set of associative words for the headword, an associative word 92 serving as a starting point of the associative word, an associative word 92 associated with the associative word 91, and the association of the associative word 92. Associative viewpoint 9
3. An association strength 94 indicating the strength of association between the headword 91 and the association word 92.

【0041】なお、本例では、連想強度94は0〜10
の絶対値をとり、符号が連想語の適用状態をあらわす。
すなわち、連想強度が正数である場合は、連想強度数値
が大きいほど連想関係による結びつきが強い(共起性が
高い)ことを示し、逆に連想強度が負数である場合は、
連想強度が大きいほど連想関係が成り立たないことを示
す。例えば、図9において、連想ID=126533の
連想データにおいて、見出し語「素朴」に対応する連想
語「民芸品」は「6」の強さで連想が可能な言葉である
が、連想ID=126536の連想データ「シャンデリ
ア」は連想強度が負数であるので「9」の強さで連想で
きない言葉である。
In this example, the association strength 94 is 0 to 10
The sign indicates the application state of the associative word.
That is, if the association strength is a positive number, the larger the association strength value, the stronger the association by the association (higher co-occurrence). Conversely, if the association strength is a negative number,
It indicates that the associative relationship does not hold as the associative strength increases. For example, in FIG. 9, in the association data of association ID = 126533, the association word “folk art” corresponding to the headword “simple” is a word that can be associated with a strength of “6”, but the association ID = 126536. The associative data "chandelier" is a word that cannot be associated with a strength of "9" because the associative strength is a negative number.

【0042】図10は、検索結果保持部216における
データ保持形態を説明する図である。上述したように、
検索結果保持部216は、連想語による画像内容語検索
処理210と感性パターン検索処理214によって検索
された画像IDを格納するものである。
FIG. 10 is a view for explaining a data holding mode in the search result holding section 216. As mentioned above,
The search result holding unit 216 stores the image IDs searched by the image content word search process 210 using the associative word and the emotion pattern search process 214.

【0043】図10において、100は検索された画像
IDを格納し、101は、画像内容語検索処理217で
一致した、連想強度が正数である連想語の数を格納す
る。また、連想語IDリスト102は、一致した連想語
の連想語辞書211における連想語ID90(図9)を
最大20個まで格納する。連想語一致数101がゼロで
ある場合は、連想語IDリスト102にはヌルコードが
埋められる。103は、画像ID100に対する連想語
による連想一致度を格納する。連想語一致数101がゼ
ロである場合は、連想一致度103にもゼロが格納され
る。
In FIG. 10, reference numeral 100 stores the searched image ID, and reference numeral 101 stores the number of associative words having a positive associative strength matched in the image content word search processing 217. The associative word ID list 102 stores up to 20 associative word IDs 90 (FIG. 9) in the associative word dictionary 211 of the associated associative words. If the associative word match count 101 is zero, the associative word ID list 102 is filled with null codes. Reference numeral 103 stores the association degree of the image ID 100 by the association word. If the associative word match count 101 is zero, zero is also stored in the associative match degree 103.

【0044】104は、感性パターン検索処理223で
検索された類似度の最も高い感性パターンの数を格納す
る。105は感性パターンIDリストであり、一致した
感性パターンの感性パターンIDを最大20個まで格納
する。感性パターン一致数104がゼロである場合は、
感性パターンIDリスト105にはヌルコードが埋めら
れる。106は画像ID100に対する感性パターン検
索による感性パターン一致度を格納する。感性パターン
一致数104がゼロである場合は、感性パターン一致度
106にはゼロが格納される。107には、連想一致度
103と感性パターン一致度106とをパラメータとし
て求めた、検索要求に対する画像ID100の統合一致
度(検索結果統合処理217による)が格納される。
Reference numeral 104 stores the number of emotion patterns having the highest similarity searched in the emotion pattern search processing 223. A sentiment pattern ID list 105 stores up to 20 sentiment pattern IDs of the matched sentiment patterns. When the number of emotion pattern matches 104 is zero,
A null code is embedded in the sensitivity pattern ID list 105. Reference numeral 106 denotes a sentence pattern matching degree obtained by a sentiment pattern search for the image ID 100. When the number of emotion pattern matches 104 is zero, zero is stored in the emotion pattern matching degree 106. In 107, the integrated matching degree of the image ID 100 in response to the search request (by the search result integrating process 217) obtained by using the associative matching degree 103 and the sentiment pattern matching degree 106 as parameters is stored.

【0045】図11は図2の展開感性パターン保持部2
13のデータ構成例を説明する図である。図11におい
て、110は、この感性パターンの展開元であるイメー
ジ語で、検索語保持部202に格納されているのと同じ
イメージ語が格納されている。本例では、「さわやか
な」という文字列が格納されており、文字列はNULL
コードで終了する。111は、イメージ語110をイメ
ージ語−感性パターン対応保持部215を参照して展開
して得られた感性パターンの数である。たとえば、イメ
ージ語−感性パターン対応保持部215の内容が図12
のようであった場合、「さわやかな」というイメージ語
から展開された感性パターンの数は7となる。112
は、「さわやかな」というイメージ語を実際に展開した
データの格納先の領域を示すアドレスである。図11に
示した例では、この格納先アドレス112は、同図の1
15で示されるデータにリンクしている。
FIG. 11 shows the developed sensitivity pattern holding unit 2 shown in FIG.
13 is a diagram for explaining a data configuration example of No. 13. FIG. In FIG. 11, reference numeral 110 denotes an image word from which the sentiment pattern is developed, and the same image word as that stored in the search word holding unit 202 is stored. In this example, a character string “fresh” is stored, and the character string is NULL.
End with code. Reference numeral 111 denotes the number of kansei patterns obtained by developing the image word 110 with reference to the image word-kansei pattern correspondence holding unit 215. For example, the contents of the image word-sensitive pattern correspondence holding unit 215 are as shown in FIG.
In this case, the number of emotional patterns developed from the image word “refreshing” is seven. 112
Is an address indicating a storage destination area of data in which an image word “refreshing” is actually developed. In the example shown in FIG. 11, this storage destination address 112 is
Linking to the data indicated by 15.

【0046】データ115においては、「さわやかな」
から実際に展開された展開データ、すなわち連想語と感
性パターンの組が、感性パターン数111に示される個
数分格納されている。本例では、データ115として、
連想語と感性パターンの組が7組格納されることにな
る。たとえば、114は、「さわやかな」というイメー
ジ語の連想語で、本例では、「森林」という文字列が格
納されており、文字列はNULLコードで終了する。そ
して、113は、イメージ語「さわやかな」と「さわや
かな」の連想語「森林」に対応した感性パターンIDで
あり、本例では、5が格納されている。他の連想語と感
性パターンの組についても同様である。
In the data 115, "fresh"
, The expanded data actually developed, that is, the sets of the associative words and the sensibility patterns are stored by the number indicated by the number of sensibility patterns 111. In this example, as the data 115,
Seven sets of association words and sentiment patterns are stored. For example, 114 is an associative word of an image word “fresh”. In this example, a character string “forest” is stored, and the character string ends with a NULL code. Reference numeral 113 denotes a feeling pattern ID corresponding to the associative word “forest” between the image words “fresh” and “fresh”. In this example, 5 is stored. The same applies to other pairs of associative words and sensitivity patterns.

【0047】図12は図2におけるイメージ語−感性パ
ターン対応保持部215のデータ構成例を示す図であ
る。図12において、120は、この感性パターンの展
開元となるイメージ語である。図では、「さわやかな」
「トロピカルな」等の文字列が格納されており、文字列
はNULLコードで終了する。121は、120の各イ
メージ語から展開された連想語である。本例では、「さ
わやかな」に対して「森林」「高原」「青空」などの連
想語が記憶されており、文字列はNULLコードで終了
する。この121の部分に文字列が格納されていない場
合、即ちNULLコードのみの場合は、この感性パター
ンが、「さわやかな」というイメージ語全てに適応で
き、特に連想語が指定されていないことを表している。
FIG. 12 is a diagram showing an example of the data structure of the image word-sensitive pattern correspondence holding unit 215 in FIG. In FIG. 12, reference numeral 120 denotes an image word serving as a development source of the sensibility pattern. In the figure, "Refreshing"
A character string such as "tropical" is stored, and the character string ends with a NULL code. Reference numeral 121 denotes an associative word developed from each of the 120 image words. In this example, an associative word such as "forest", "plateau", and "blue sky" is stored for "fresh", and the character string ends with a NULL code. When a character string is not stored in the portion 121, that is, when only a NULL code is used, this sensibility pattern can be applied to all the image words “refreshing”, and particularly indicates that no association word is specified. ing.

【0048】122は、120のイメージ語と121の
連想語に対応した感性パターンIDである。本例では、
イメージ語「さわやかな」とその連想語「森林」に対す
る感性パターンIDとして、005,006が格納され
ている。また、「さわやかな」に対する反意概念として
「さわやかでない」に対する感性パターンも記憶されて
いる。本例では、「さわやかでない」には、特に連想語
はなく、感性パターンIDとして001と010が登録
されている。
Reference numeral 122 denotes a feeling pattern ID corresponding to 120 image words and 121 associative words. In this example,
005, 006 are stored as sensitivity pattern IDs for the image word “fresh” and its associated word “forest”. In addition, a feeling pattern for “not refreshing” is also stored as an opposite concept to “fresh”. In this example, “not refreshing” does not have an associated word, and 001 and 010 are registered as sensibility pattern IDs.

【0049】図13は図2における感性パターン保持部
220のデータ構成を示す図である。図13において、
131は、登録する画像を識別するための画像IDであ
る。画像ID131は、画像保持部218に記憶されて
いる番号と同じものが使用され、このシステムにおいて
画像を一意に定義付けている。132には、感性パター
ンIDが格納されている。本実施形態では、それぞれの
画像について、画像特徴量−感性パターン対応保持部2
23に記憶されているすべての感性パターンに対する適
合度が求められるため、全ての感性パターンID(1〜
m)が格納されている。133は、各画像と各感性パタ
ーンとの適合度を示す数値である。適合度は0から1ま
での数で、0はこの画像が感性パターンにまったく適合
しなかったことを示しており、1に近いほど適合性が高
いことを示している。例えば、本実施形態では、画像I
D001の画像に対して、感性パターン1との適合度は
0.10、感性パターン2との適合度は0である。
FIG. 13 is a diagram showing a data structure of the affective pattern holding unit 220 in FIG. In FIG.
Reference numeral 131 denotes an image ID for identifying an image to be registered. As the image ID 131, the same number as the number stored in the image holding unit 218 is used, and uniquely defines an image in this system. 132 stores a sensitivity pattern ID. In the present embodiment, for each image, the image feature amount-kansei pattern correspondence holding unit 2
Since the degree of conformity to all the emotion patterns stored in the memory pattern 23 is calculated, all the emotion pattern IDs (1 to
m) is stored. 133 is a numerical value indicating the degree of conformity between each image and each emotion pattern. The degree of conformity is a number from 0 to 1, where 0 indicates that the image did not conform to the emotional pattern at all, and closer to 1 indicates higher suitability. For example, in the present embodiment, the image I
For the image of D001, the degree of conformity with Kansei pattern 1 is 0.10, and the degree of conformity with Kansei pattern 2 is 0.

【0050】図14は画像特徴量抽出処理によって一枚
の画像から画像特徴量を抽出した際に得られるデータ例
を示す図である。図14において、画像特徴をX1,X
2,X3,…,Xn、画像特徴量を抽出する領域・ブロッ
クをB1,B2,…,Bm、各領域・ブロックから抽出さ
れた特徴量をx11〜xmnで表している。すなわち、各領
域・ブロック毎に、X1〜Xnの物理的画像特徴に関する
特徴量が得られる。
FIG. 14 is a diagram showing an example of data obtained when an image feature is extracted from one image by the image feature extraction process. In FIG. 14, the image features are X1, X
2, X3,..., Xn, regions / blocks for extracting image feature amounts are represented by B1, B2,..., Bm, and feature amounts extracted from each region / block are represented by x11 to xmn. In other words, feature amounts relating to physical image features of X1 to Xn are obtained for each area / block.

【0051】図15は、特に色彩的画像特徴量を抽出し
た場合の例を示す図である。これは、画像の領域或いは
ブロックごとに代表的な色を抽出したものである。図1
5によれば、物理的画像特徴は「代表色」と「特徴量」
で表され、領域或いはブロックB1,B2,…,Bnから
抽出された代表色はC1(R1,G1,B1)、C2(R2,
G2,B2),…,Cn(Rn,Gn,Bn)で、それぞれの
特徴量はc1〜cnである。
FIG. 15 is a diagram showing an example in the case of extracting color image feature values. This is a representative color extracted for each region or block of the image. FIG.
According to 5, the physical image features are “representative color” and “feature amount”.
, And the representative colors extracted from the areas or blocks B1, B2,..., Bn are C1 (R1, G1, B1), C2 (R2,
G2, B2),..., Cn (Rn, Gn, Bn), and the respective characteristic amounts are c1 to cn.

【0052】図16は図2における画像特徴量保持部2
22の記憶例を示す図である。図16において、161
は、登録する画像を識別するための画像IDである。画
像ID161は、画像保持部218に記憶されているI
D番号と同じものが使用されている。162は、画像特
徴量を抽出したブロックまたは領域を示す番号で、本例
では各領域或いはブロックの番号をB1,B2,…,Bm
で表している。163は、162に示す各領域或いはブ
ロック(B1,B2,…,Bm)から抽出された画像特徴
を表す情報(本例では代表色を用いる)である。本例
は、色彩的画像特徴を抽出した場合の例で、例えば、色
彩を表す情報C11(R11,G11,B11),…,Cn1(R
n1,Gn1,Bn1)が格納されている。164は、各領域
或いはブロックから抽出された画像特徴の特徴量を示し
ている。本例では、C11(R11,G11,B11),…,C
n1(Rn1,Gn1,Bn1)の特徴量としてc11,…,Cn1
が格納されている。
FIG. 16 shows the image feature amount holding unit 2 in FIG.
22 is a diagram illustrating a storage example of No. 22. FIG. In FIG.
Is an image ID for identifying an image to be registered. The image ID 161 is the I ID stored in the image holding unit 218.
The same as the D number is used. Reference numeral 162 denotes a number indicating a block or area from which the image feature amount has been extracted. In this example, the number of each area or block is represented by B1, B2,.
It is represented by Reference numeral 163 denotes information (in this example, a representative color is used) representing an image feature extracted from each area or block (B1, B2,..., Bm) shown in 162. This example is an example in which a color image feature is extracted. For example, information C11 (R11, G11, B11),..., Cn1 (R
n1, Gn1, Bn1) are stored. Reference numeral 164 denotes a feature amount of an image feature extracted from each area or block. In this example, C11 (R11, G11, B11),.
.., Cn1 as features of n1 (Rn1, Gn1, Bn1)
Is stored.

【0053】図17は図2における画像特徴量−感性パ
ターン対応保持部223のデータ格納例を示す図であ
る。図17において、171は感性パターンIDで、感
性パターンを一意に識別する番号である。172は、各
感性パターンIDに対応付けられた画像特徴量データで
ある。本実施形態では、感性パターンを色彩的特徴量で
表現しており、各感性パターンIDに対する色成分(R
GBやHVCなどの色空間における値)の組み合わせが
記憶されている。本例では、色成分としてRGB色空間
における値が登録されいてる。RGB値は、0〜255
までの整数である。各パターンに対応付けられた色の数
は、最大m個である。
FIG. 17 is a diagram showing an example of data storage in the image feature amount-sensitive pattern correspondence holding unit 223 in FIG. In FIG. 17, reference numeral 171 denotes a feeling pattern ID, which is a number for uniquely identifying a feeling pattern. 172 is image feature amount data associated with each emotion pattern ID. In the present embodiment, the sensibility pattern is represented by a chromatic feature amount, and the color component (R
A combination of values in a color space such as GB or HVC is stored. In this example, values in the RGB color space are registered as color components. RGB value is 0 to 255
Is an integer up to. The maximum number of colors associated with each pattern is m.

【0054】感性パターン判定処理224は、以上の画
像特徴量保持部222と画像特徴量−感性パターン対応
保持部223を用いて、画像保持部218に登録されて
いる各画像データ毎に、各感性パターンとの適合度を求
め、感性パターン保持部220に登録する(図22のス
テップS87で後述する)。
The sensibility pattern determination process 224 uses the image feature amount holding unit 222 and the image feature amount-kansei pattern correspondence holding unit 223 to perform each kansei operation for each image data registered in the image holding unit 218. The degree of matching with the pattern is obtained and registered in the affective pattern holding unit 220 (described later in step S87 of FIG. 22).

【0055】以上のような構成を供えた本実施形態の画
像検索装置における処理について以下に説明する。
The processing in the image retrieval apparatus of the present embodiment having the above configuration will be described below.

【0056】図18は本実施形態の画像検索処理の動作
を説明したフローチャートである。図18において、ス
テップS1は、図2における検索要求処理201を実行
する処理モジュールであり、検索要求の入力を行う。な
お、処理の詳細は、図19を用いて後述する。
FIG. 18 is a flowchart for explaining the operation of the image search processing according to this embodiment. In FIG. 18, step S1 is a processing module that executes the search request processing 201 in FIG. 2, and inputs a search request. The details of the processing will be described later with reference to FIG.

【0057】ステップS2は、図2の重み判定処理20
6を実行する処理モジュールであり、ステップS1にお
ける検索要求入力処理によって検索重み保持部204に
格納された検索重みを参照し、もし重みが指定されてい
れば、その値を決定重み保持部207に格納する。もし
検索重み保持部204に重みが指定されていなければ、
概念判別辞書205(図8)を参照し、検索語保持部2
02に格納された検索語を見出し語80から検索し、対
応する連想重み83、感性パターン重み84を読み出
し、決定重み保持部207に格納する。また、見出し語
80に、検索語保持部202に一致する語が存在しない
場合は、連想重み、感性パターン重みの既定値として
(ともに5)を決定重み保持部207に格納するものと
する。
Step S2 is a weight judgment process 20 shown in FIG.
6, which refers to the search weight stored in the search weight storage unit 204 by the search request input process in step S1, and if the weight is specified, the value is stored in the determination weight storage unit 207. Store. If no weight is specified in the search weight holding unit 204,
Referring to the concept discrimination dictionary 205 (FIG. 8), the search term holding unit 2
The search term stored in the search term 02 is searched from the headword 80, the corresponding associative weight 83 and the affective pattern weight 84 are read out, and stored in the decision weight holding unit 207. If there is no word that matches the search word holding unit 202 in the headword 80, 5 (both are 5) are stored in the determination weight holding unit 207 as default values of the association weight and the sensitivity pattern weight.

【0058】ステップS3は決定重み保持部207を参
照し、連想重みが0であるかどうか判定する。もし連想
重みが0であるならば、連想語による検索は不要である
ので、ステップS5の処理へ分岐し、0でなければステ
ップS4の処理を行う。ステップS4は図2における連
想語展開処理208、連想語による画像内容語検索処理
210を行う処理モジュールであり、その処理の詳細は
図20を参照して後述する。
In step S3, it is determined whether or not the associative weight is 0 with reference to the decision weight holding unit 207. If the associative weight is 0, the search by the associative word is unnecessary, so the process branches to step S5. If not, the process of step S4 is performed. Step S4 is a processing module that performs an associative word expansion process 208 and an image content word search process 210 using an associative word in FIG. 2, and details of the process will be described later with reference to FIG.

【0059】ステップS5では、決定重み保持部207
を参照し、感性パターン重みが0であるかどうかを判定
する。もし、感性パターン重みが0であるならば、感性
パターンによる検索は不要であるので、ステップS7の
処理へ分岐し、そうでなければステップS6の処理を行
う。ステップS6は図2における感性パターン展開処理
212、感性パターン検索処理214を行う処理モジュ
ールであり、図21により後述する。
In step S5, the decision weight holding unit 207
To determine whether or not the sentiment pattern weight is 0. If the sentiment pattern weight is 0, the search by the sentiment pattern is unnecessary, and the process branches to step S7. Otherwise, the process of step S6 is performed. Step S6 is a processing module that performs the affective pattern development process 212 and the affective pattern search process 214 in FIG. 2, which will be described later with reference to FIG.

【0060】ステップS7は図2における検索結果統合
処理217を行うための処理モジュールであり、その処
理の詳細は、図22により後述する。
Step S7 is a processing module for performing the search result integration processing 217 in FIG. 2, and the details of the processing will be described later with reference to FIG.

【0061】ステップS8はステップS7によって得ら
れた検索結果として検索結果保持部216に格納されて
いる画像IDに対応する画像ファイルを画像保持部21
8より取り出して表示する。なお、ステップS8による
検索結果の表示は、同種の検索装置において広く行われ
ている公知の処理である。
In step S8, the image file corresponding to the image ID stored in the search result holding unit 216 as the search result obtained in step S7 is stored in the image holding unit 21.
Take out from 8 and display. The display of the search result in step S8 is a known process widely performed in the same type of search device.

【0062】図19は、検索要求入力処理201(図1
8のステップS1)の詳細を示すフローチャートであ
る。ステップS21において検索要求となる検索語を入
力する。検索語入力はKB15から入力された文字コー
ドをRAM13上の検索語保持部202に格納すること
により行われる。
FIG. 19 shows a search request input process 201 (FIG. 1).
8 is a flowchart illustrating details of step S1) of FIG. In step S21, a search word serving as a search request is input. Search term input is performed by storing the character code input from the KB 15 in the search term holding unit 202 on the RAM 13.

【0063】次にステップS22において、検索語保持
部202に格納された検索語を検索要求として、この検
索要求に関連する検索観点を概念判別辞書205から取
り出す。検索語保持部202の検索語と一致する見出し
語80(図8)に対する検索観点81をすべて取り出
す。例えば、検索語が「渋い」である場合、検索観点と
して「色調」,「味」,「雰囲気一般」の3つを得るこ
とができる。
Next, in step S 22, the search terms stored in the search term holding unit 202 are used as a search request, and a search viewpoint related to the search request is extracted from the concept determination dictionary 205. All search viewpoints 81 for the headword 80 (FIG. 8) that matches the search word in the search word holding unit 202 are extracted. For example, when the search word is "cool", three search viewpoints "color", "taste", and "general atmosphere" can be obtained.

【0064】次に、ステップS23において、上記ステ
ップS22の検索観点抽出により検索観点が見つかった
かどうか判定し、検索観点が見つかった場合はステップ
S24の処理へ、見つからなければステップS26の処
理へ分岐する。
Next, in step S23, it is determined whether or not a search viewpoint has been found by the search viewpoint extraction in step S22. If a search viewpoint has been found, the process branches to step S24. If not, the process branches to step S26. .

【0065】ステップS22において検索観点が見つか
ったならば、ステップS24において図3に示すように
検索観点を当該検索語とともに表示する。ステップS2
5では、表示された検索観点から、図3で説明したユー
ザインターフェースを用いて、所望の検索観点を選択す
る。こうして選択指示された検索観点は、検索観点保持
部203に格納される。
If a search viewpoint is found in step S22, the search viewpoint is displayed together with the search word in step S24 as shown in FIG. Step S2
In step 5, a desired search viewpoint is selected from the displayed search viewpoint using the user interface described with reference to FIG. The search viewpoint selected and instructed in this manner is stored in the search viewpoint holding unit 203.

【0066】ステップS26は検索要求に対する検索処
理方法に関し、連想語による検索と感性パターンによる
検索のいずれを重視して検索を行うかを指示する検索重
みを入力する。本実施形態では、図4に示すごときユー
ザインターフェースを用いて重みの設定を行なう。ユー
ザは、図4に示すスライダーバーを操作し、スライダー
の左右のバーの長さ(ボタン41の位置)で連想語を重
視する割合、感性パターンを重視する割合(所望の検索
重み)を指定する。なお、重みを指定しない場合は、図
4の重みの既定値の使用を指定する。
Step S26 relates to a search processing method for the search request, and inputs a search weight for designating which of the search based on the associative word and the search based on the sentiment pattern is to be emphasized. In the present embodiment, the weight is set using a user interface as shown in FIG. The user operates the slider bar shown in FIG. 4 to specify the ratio of emphasizing the association word and the ratio of emphasizing the sensitivity pattern (desired search weight) based on the length of the left and right bars of the slider (the position of the button 41). . When the weight is not specified, the use of the default value of the weight in FIG. 4 is specified.

【0067】ステップS27において、ステップS26
で重みの指定があったかどうか判定する。そして、重み
の既定値を使用する旨が指示された場合は本処理を終了
する。一方、検索重みが指定されていればステップS2
8へ進み、ステップS26で指定された連想語による検
索の重み、感性パターンによる検索の重みを検索重み保
持部204に格納して、本処理を終了する。
In step S27, step S26
It is determined whether or not a weight has been specified. Then, when it is instructed to use the default value of the weight, the present process is terminated. On the other hand, if the search weight has been designated, step S2
Then, the process proceeds to step S8, where the search weight based on the associative word specified in step S26 and the search weight based on the affective pattern are stored in the search weight holding unit 204, and the process ends.

【0068】図20は、連想語展開処理208及び連想
語による画像内容語検索処理210(図18のステップ
S4)の詳細を示すフローチャートである。
FIG. 20 is a flowchart showing details of the associative word expansion process 208 and the image content word search process 210 (step S4 in FIG. 18) using the associative words.

【0069】図20において、ステップS41は検索語
保持部202に格納されている検索語で連想語辞書21
1を検索し連想語データを得る。すなわち、検索語と一
致する連想語辞書211の見出し語91(図9)を検索
し、登録されている連想語データを抽出する。見出し語
91内に検索語に一致する語が存在すれば、その連想I
Dをすべて展開連想語保持部209に格納する。
In FIG. 20, a step S41 is a search word stored in the search word holding unit 202 and the associative word dictionary 21
1 to obtain associative word data. That is, a search is made for a headword 91 (FIG. 9) in the associative word dictionary 211 that matches the search word, and registered associative word data is extracted. If a word that matches the search word exists in the headword 91, its association I
D are all stored in the expanded associative word holding unit 209.

【0070】次にステップS42において、概念判別辞
書205を検索し、検索語202と一致する見出し語が
存在すれば、その見出し語に対応する検索観点81(図
8)を取り出す。そして、取り出された検索観点と、上
述のステップS25で検索観点保持部203に格納され
た検索観点とを比較し、両者が一致していれば、この見
出し語に対応する反意概念82を取り出す。検索観点が
一致しなければ、引き続き検索語と見出し語の一致する
データの検索を行う。こうして、抽出したすべての検索
観点について上記のチェックを終えると、ステップS4
3へ進む。
Next, in step S42, the concept discrimination dictionary 205 is searched, and if there is a headword that matches the search word 202, the search viewpoint 81 (FIG. 8) corresponding to the headword is extracted. Then, the retrieved search viewpoint is compared with the search viewpoint stored in the search viewpoint holding unit 203 in step S25 described above, and if both match, the dissenting concept 82 corresponding to the headword is extracted. . If the search viewpoints do not match, the search for data in which the search word matches the headword is continued. When the above check is completed for all the extracted search viewpoints in this way, step S4
Proceed to 3.

【0071】ステップS43では、ステップS42で見
つかった反意概念と一致する見出し語を持つ連想語を連
想語辞書211から検索する。反意概念に一致する見出
し語が存在すれば、その連想IDを反意概念であること
を示す状態符号を付与して、展開連想語保持部209に
格納する。
In step S43, an associative word having a headword that matches the antisense concept found in step S42 is searched from the associative word dictionary 211. If there is a headword that matches the negative meaning, the associative ID is assigned a status code indicating that the word is a negative meaning, and stored in the expanded associated word holding unit 209.

【0072】次に、ステップS44で展開連想語保持部
209に格納された連想IDから連想語を取り出し、連
想語と一致する画像内容語を画像内容語保持部219か
ら検索し、結果を検索結果保持部216に格納する。
Next, in step S44, an associative word is extracted from the associative ID stored in the expanded associative word holding unit 209, and an image content word that matches the associative word is searched from the image content word holding unit 219, and the result is retrieved. It is stored in the holding unit 216.

【0073】ここでは、まず、展開連想語保持部209
に格納されている連想IDを取り出し、連想語辞書21
1を参照して、対応する連想データを抽出する。そし
て、抽出した連想データの連想強度94を取り出し、R
AM13上のワークメモリASCF(不図示)にセット
する。ここで、もし、展開連想語保持部209より取り
出した連想IDに反意概念の状態符号が付与されていた
ら、連想強度の符号を反転して負数となるようにする。
ただし、連想強度がすでに負数であったら、その連想デ
ータは破棄して次の連想データをチェックする。
Here, first, the expanded associative word holding unit 209
Is extracted from the associative word dictionary 21
1, the corresponding associative data is extracted. Then, the association strength 94 of the extracted association data is extracted, and R
It is set in a work memory ASCF (not shown) on the AM 13. Here, if the associative ID extracted from the expanded associative word holding unit 209 is provided with a state code of a disagreeable concept, the sign of the associative strength is inverted to be a negative number.
However, if the association strength is already a negative number, the associative data is discarded and the next associative data is checked.

【0074】次に連想IDに対応する連想観点を取り出
し、検索観点保持部203に格納された検索観点と比較
し、一致すれば所定値αをRAM13上に確保されたワ
ークメモリVPF(不図示)にセットし、一致しなけれ
ばα×0.1の値をワークメモリVPFにセットする。
Next, the associative viewpoint corresponding to the associative ID is taken out, compared with the search viewpoint stored in the search viewpoint holding unit 203, and if they match, a predetermined value α is stored in the work memory VPF (not shown) secured in the RAM 13. And if they do not match, a value of α × 0.1 is set in the work memory VPF.

【0075】次に連想IDに対応する連想語と一致する
画像内容語を画像内容語保持部219から検索し、見つ
かれば、その画像内容語に対応する画像IDを画像ID
72(図7)より獲得し、検索結果保持部216の検索
された画像ID100(図10)にセットする。そし
て、連想語一致数101に1をセットし、連想語ID1
02に検索対象となっている連想IDをセットする。そ
して、連想一致度103に、連想語一致によるスコアの
所定値βにワークメモリASCFの値とVPFの値を乗
じた値を連想一致度として格納する。すでに同じ画像I
Dが格納されている場合は、連想語一致数101の値を
+1し、連想語ID102に新たな連想語IDを加え、
格納済の連想一致度103の値に、求めた連想一致度を
加えて新しい連想一致度として値を更新する。
Next, an image content word matching the association word corresponding to the association ID is searched from the image content word holding unit 219, and if found, the image ID corresponding to the image content word is assigned to the image ID.
72 (FIG. 7) and set in the searched image ID 100 (FIG. 10) of the search result holding unit 216. Then, 1 is set to the associative word match count 101 and the associative word ID1
02 is set to the associative ID to be searched. Then, a value obtained by multiplying the value of the work memory ASCF by the value of the VPF to the predetermined value β of the score by associative word matching is stored in the associative matching degree 103 as the associative matching degree. Image I already
If D is stored, +1 is added to the value of the number 101 of association words, and a new association word ID is added to the association word ID 102;
The value of the stored associative match 103 is added to the obtained associative match to update the value as a new associative match.

【0076】図21は、感性パターン展開処理212、
感性パターン検索処理214及び検索結果統合処理21
7の詳細を示すフローチャートである。
FIG. 21 shows a sentiment pattern development process 212,
Kansei pattern search processing 214 and search result integration processing 21
7 is a flowchart showing details of a seventh example.

【0077】上述のように、検索要求入力処理201
で、利用者から画像を検索するための検索要求が入力さ
れる。検索要求には、1つまたは複数の検索語、検索範
囲、等が含まれる。本実施形態で入力される検索語は、
「さわやかな」感じ、「あたたかい」感じ、等の画像の
印象を表す抽象的なイメージ語である。入力された検索
指示語は、検索語保持部202に格納される。ここで
は、「さわやかな」というイメージ語が格納されている
ものとして説明する。
As described above, the search request input processing 201
The user inputs a search request for searching for an image. The search request includes one or more search words, a search range, and the like. The search term input in this embodiment is
It is an abstract image word that expresses the impression of an image such as a "fresh" feeling, a "warm" feeling, and the like. The input search instruction word is stored in the search word holding unit 202. Here, the description will be made assuming that the image word “refreshing” is stored.

【0078】ステップS61及びステップS62は、感
性パターン展開処理212で実行される処理である。ス
テップS61では、イメージ語−感性パターン対応保持
部215を参照して、検索語保持部202に保持されて
いるイメージ語を感性パターンに展開する。本実施形態
では、検索語保持部202にイメージ語「さわやかな」
が、また展開連想語保持部209には「さわやかな」か
ら展開された連想語「森林」「高原」「青空」、etcが
保持されており、215を参照してそれぞれに対応する
感性パターンIDに展開する。例えば、イメージ語「さ
わやかな」−連想語「森林」に対する感性パターンID
として、005,006を、また、イメージ語「さわや
かな」−連想語「高原」に対する感性パターンIDとし
て007を取得する。
Steps S61 and S62 are processes executed in the sentiment pattern development process 212. In step S61, the image word held in the search word holding unit 202 is developed into a sentiment pattern with reference to the image word / kansei pattern correspondence holding unit 215. In the present embodiment, the image word “refreshing” is stored in the search word holding unit 202.
However, the associative words “forest”, “plateau”, “blue sky”, etc. developed from “refreshing” are stored in the expanded associative word holding unit 209. Expand to For example, a sensitivity pattern ID for an image word “fresh” -associative word “forest”
005 and 006, and 007 as the affective pattern ID for the image word “fresh” -associative word “Kogen”.

【0079】次にステップS62に進み、ステップS6
1で展開された感性パターンIDとイメージ語・連想語
の組を展開感性パターン保持部213に格納する。展開
感性パターン保持部213におけるデータの格納につい
ては、図11により上述したとおりである。
Then, the process proceeds to a step S62, wherein a step S6 is executed.
The set of the sentiment pattern ID and the image word / association word developed in step 1 is stored in the developed sentiment pattern holding unit 213. The storage of data in the development sensitivity pattern holding unit 213 is as described above with reference to FIG.

【0080】次にステップS63に進む。ステップS6
3及びステップS64は、感性パターン検索処理214
で実行される処理である。まず、ステップS63におい
て、感性パターン保持部220を参照して、展開感性パ
ターン保持部213に格納されている感性パターンID
に対する適合度が0より大きい画像の画像IDを全て取
得する。この処理は、展開感性パターン保持部213に
保持されているすべての感性パターンについて行う。な
お、感性パターン検索処理214では、検索語及び反意
概念の各々から展開された感性パターンIDに対する適
合度が0より大きい画像IDを取得する。
Next, the process proceeds to a step S63. Step S6
3 and step S64 are the emotion pattern search processing 214
This is the process executed by First, in step S63, the emotion pattern ID stored in the developed emotion pattern holding unit 213 is referred to with reference to the emotion pattern holding unit 220.
All image IDs of images having a degree of conformity to 0 greater than 0 are acquired. This process is performed for all the emotion patterns held in the developed emotion pattern holding unit 213. In the affective pattern search process 214, an image ID having a degree of conformity to the affective pattern ID developed from each of the search term and the negative concept that is greater than 0 is acquired.

【0081】次にステップS64において、ステップS
63で取得した感性パターンIDと、画像ID、及びそ
の適合度の組を検索結果保持部216に格納する。
Next, in step S64, step S
The set of the sentiment pattern ID, the image ID, and the matching degree acquired in 63 are stored in the search result holding unit 216.

【0082】次に、ステップS65に進む。ステップS
65〜S69の処理は、検索結果統合処理217によっ
て実行される処理を示している。すなわち、検索結果保
持部216に保持されている、連想語による画像内容語
検索結果と感性パターン検索結果とを参照し、決定重み
保持部207に保持されている重みをもとに、両検索結
果を一つの検索結果として統合する。なお、感性パター
ン検索結果に関し、検索語に対する反意概念に基づく感
性パターンがある場合には、当該画像を統合結果から除
外する。或いは、そのような反意概念の感性パターンを
含む画像の感性パターン一致度を、統合処理時において
低下させてもよい。
Next, the process proceeds to a step S65. Step S
The processing from 65 to S69 indicates the processing executed by the search result integration processing 217. That is, referring to the image content word search result by the associative word and the sentiment pattern search result held in the search result holding unit 216, based on the weight held in the decision weight holding unit 207, the two search results As one search result. If there is a sentiment pattern based on the opposite meaning to the search term in the sentiment pattern search result, the image is excluded from the integrated result. Alternatively, the degree of coincidence of the affective pattern of the image including the affective pattern of the opposite concept may be reduced during the integration processing.

【0083】統合処理は、各連想語毎に両検索結果の共
通要素をとる(検索結果のアンドをとる)方法や、各検
索に対する重みから統合適合度を求め、適合度が上位の
ものから適切な検索結果とする方法などがある。本実施
形態では、統合適合度を求める方法を例に統合処理につ
いて説明する。
In the integration processing, a method of taking a common element of both search results for each associative word (an AND of the search results) and a weight of each search are used to determine an integrated fitness. Search results. In the present embodiment, the integration processing will be described by taking a method of obtaining the integration suitability as an example.

【0084】検索結果保持部216に記憶されている、
たとえば連想語「森林」と一致した画像の連想適合度を
A、連想語「森林」に対応した感性パターンID005
に適合した画像の感性適合度をB、決定重み保持部20
7に保持されたそれぞれの検索の重みをw1、w2(w1
+w2=1)としたとき、統合適合度は、 統合適合度=w1×A+w2×B または、統合適合度=(w1×A^2+w2×B^2)^1/2 で求めることができる。ただし、X^YはXのY乗を表す。
統合適合度を全ての連想語の全感性パターンについて求
める。一つの画像IDが複数の感性パターンIDに対し
て0より大きい適合度を持つ場合は、一つの画像に対し
て複数の統合適合度が得られるが、この場合は最も大き
い適合度を検索結果として採用する(ステップS6
5)。
The search result storage unit 216 stores
For example, the associative fitness of an image that matches the associative word “forest” is A, and the sensitivity pattern ID 005 corresponding to the associative word “forest” is
Is the sensitivity adaptation degree of the image conforming to
7 are weighted by w1, w2 (w1
When + w2 = 1), the integrated fitness can be obtained as follows: integrated fitness = w1 × A + w2 × B or integrated fitness = (w1 × A ^ 2 + w2 × B ^ 2) ^ 1/2. Here, X ^ Y represents X to the power of Y.
The integrated relevance is obtained for all kansei patterns of all associative words. If one image ID has a degree of fitness greater than 0 for a plurality of emotional pattern IDs, a plurality of integrated degrees of fitness are obtained for one image. In this case, the largest degree of fitness is used as a search result. Adopt (Step S6
5).

【0085】この処理を、どちらかの検索結果が0より
も大きい全ての画像について行い、統合適合度が閾値よ
りも高い画像を統合した検索結果とする(ステップS6
6、S67、S68)。
This processing is performed for all the images in which one of the search results is larger than 0, and the images having the integrated suitability higher than the threshold value are made the integrated search results (step S6).
6, S67, S68).

【0086】ステップS69において画像IDとその適
合度の組を検索結果保持部216に格納することにより
検索処理を終了する。
In step S 69, the set of the image ID and its matching degree is stored in the search result holding unit 216, thereby ending the search processing.

【0087】図22は、画像登録時に行われる検索の前
処理の一例を示すフローチャートである。この処理は、
DISK14に格納されている処理プログラムに従って
制御される。
FIG. 22 is a flowchart showing an example of pre-processing of a search performed at the time of image registration. This process
It is controlled according to a processing program stored in the disk 14.

【0088】まず、ステップS81で、ユーザから登録
する画像が指示される。登録する画像は、DISK14
や図示外の外部記憶装置、画像入力装置、またはこの画
像処理装置に接続された画像データベース・サーバ等に
格納されている画像の中から指定される。本実施形態で
は、検索の対象となる画像があらかじめ記憶されてお
り、この中から画像が選択されるものとする。
First, in step S81, an image to be registered is designated by the user. The image to be registered is DISK14
And an image stored in an external storage device, an image input device, or an image database server connected to the image processing device. In the present embodiment, images to be searched are stored in advance, and an image is selected from the images.

【0089】次にステップS82に進む。ステップS8
2では、指定された画像ファイル名に対応した画像I
D、および登録するために必要となる各種画像情報を取
得し、画像特徴抽出処理221に与える。画像IDは、
画像を管理するために、画像ファイル名に対応付けられ
て記憶されているIDで、画像ファイル名から画像保持
部218のデータを検索して取得する。画像の各種情報
とは、例えばこの画像のファイルフォーマットがビット
マップ形式の場合は、画像の幅及び高さのピクセル値、
1ピクセル当たりのビット数、画像のサイズ(バイト単
位)、ビットマップイメージが実際に格納されている領
域のアドレスなどである。これらの情報は、画像ファイ
ルのヘッダ部分に格納されているので、ヘッダ部を参照
することにより取得できる。画像のファイルフォーマッ
トがビットマップ形式ではなく、JFIFやFlash Pix
の場合も、同様にファイルのヘッダ部から必要な情報を
得ることができる。また、画像保持部218にこれらの
情報を格納しておき、登録時に参照することにより情報
を取得してもよい。
Next, the process proceeds to a step S82. Step S8
2, the image I corresponding to the specified image file name
D and various kinds of image information necessary for registration are obtained and given to the image feature extraction processing 221. The image ID is
In order to manage the image, the data in the image holding unit 218 is searched for and acquired from the image file name using the ID stored in association with the image file name. The various information of the image is, for example, when the file format of the image is a bitmap format, pixel values of the width and height of the image,
The information includes the number of bits per pixel, the size of an image (in units of bytes), the address of an area where a bitmap image is actually stored, and the like. Since these pieces of information are stored in the header of the image file, they can be obtained by referring to the header. The image file format is not bitmap, but JFIF or Flash Pix
In the case of (1), necessary information can be similarly obtained from the header of the file. Alternatively, these pieces of information may be stored in the image holding unit 218, and the information may be acquired by referring to the information at the time of registration.

【0090】次に、ステップS83に進む。ステップS
83は、画像特徴量抽出処理221で行う処理で、指定
された画像IDに対する画像情報を解析し、物理的な画
像特徴量を抽出するステップである。上述の図15は、
本実施形態における画像特徴量の例で、画像の領域また
はブロックごとに代表的な色を抽出したものである。代
表色は、与えられた画像の各種情報を用いて、画像の実
際のビットイメージを1ピクセルずつ解析し、各領域或
いはブロックで使用されている色成分(RGBやHVC
などの色空間における値)の平均値や最も出現頻度の高
い色成分を求め、代表色とする手法などが用いられる。
Next, the process proceeds to a step S83. Step S
Reference numeral 83 denotes a process performed in the image feature amount extraction process 221 which is a step of analyzing image information corresponding to a designated image ID and extracting a physical image feature amount. In FIG. 15 described above,
In the example of the image feature amount in the present embodiment, a representative color is extracted for each area or block of the image. The representative color is obtained by analyzing an actual bit image of an image one pixel at a time using various types of information of a given image, and calculating color components (RGB, HVC, etc.) used in each area or block.
For example, a method of obtaining the average value of the values in a color space (eg, color space) and the color component having the highest frequency of appearance and using the color component as a representative color is used.

【0091】次に、ステップS84に進む。このステッ
プS84では、ステップS83で抽出された画像特徴量
c1〜cnとこの画像の画像IDとを対応づけて、画像特
徴量保持部222に記憶する。この場合のデータの格納
形態は、図16で上述したとおりである。
Next, the process proceeds to a step S84. In step S84, the image feature amounts c1 to cn extracted in step S83 are associated with the image ID of the image and stored in the image feature amount holding unit 222. The data storage form in this case is as described above with reference to FIG.

【0092】次に、ステップS85に進み、画像特徴量
−感性パターン対応保持部223を参照して、画像特徴
量−感性パターン対応保持部223に記憶されているす
べての感性パターンIDとその感性パターンに対応づけ
られた画像特徴量を取得する。本実施形態では、図17
で説明した様に各感性パターンに色彩的特徴量が対応付
けられている。
Then, the process proceeds to step S85, where all the feeling pattern IDs stored in the image feature quantity-kansei pattern correspondence holding section 223 and the kansei patterns thereof are referred to by referring to the image feature quantity-kansei pattern correspondence holding section 223. The image feature amount associated with is acquired. In the present embodiment, FIG.
As described above, the color feature amount is associated with each sensibility pattern.

【0093】次に、ステップS86に進み、ステップS
85で取得した感性パターンと、この画像に対する画像
特徴量との適合度を求める。これは、感性パターン判定
処理224で行われる処理で、ステップS85で取得し
た感性パターンそれぞれについて、感性パターンに対応
付けられた色彩的特徴量とステップS83で抽出された
画像特徴量とを比較・照合し、その適合度を求める。適
合度は、画像特徴量−感性パターン対応保持部223に
記憶されているすべての感性パターンについて求める。
適合度を算出するには、余弦測度を用いたベクトル演算
や統計処理などの手法が用いられる。
Then, the process proceeds to a step S86, wherein a step S86 is executed.
The matching degree between the sensitivity pattern acquired in step 85 and the image feature amount for this image is obtained. This is a process performed in the affective pattern determination process 224. For each of the affective patterns acquired in step S85, the color feature amount associated with the affective pattern is compared with the image feature amount extracted in step S83. And determine its fitness. The matching degree is obtained for all the emotion patterns stored in the image feature amount-sensibility pattern correspondence holding unit 223.
In order to calculate the degree of conformity, a technique such as a vector operation using a cosine measure or a statistical process is used.

【0094】次に、ステップS87に進む。ステップS
87では、ステップS86で求められたすべての感性パ
ターンと画像の適合度を、この画像の画像IDに対応づ
けて感性パターン保持部220に記憶する。感性パター
ン保持部220における画像の記憶例は図13で上述し
たとおりである。
Next, the process proceeds to a step S87. Step S
At 87, the suitability of all the sensibility patterns and images obtained in step S86 is stored in the sensibility pattern holding unit 220 in association with the image ID of this image. An example of storing an image in the affective pattern holding unit 220 is as described above with reference to FIG.

【0095】以上の処理を、登録するすべての画像に対
して行う。
The above processing is performed for all the images to be registered.

【0096】以上説明したように、本実施形態によれ
ば、検索語に関連づけられた連想語に基づいて、マルチ
メディア情報そのものの特徴量データを用いた検索と、
マルチメディア情報に付与された内容語を用いた検索を
行ない、両検索の結果から最終的な検索結果を得ること
が可能となる。このため、目的とする所望の画像情報を
精度良く取り出すことが可能になる。
As described above, according to the present embodiment, a search using the feature data of the multimedia information itself based on the associative word associated with the search word,
A search is performed using the content word added to the multimedia information, and a final search result can be obtained from the results of both searches. For this reason, it is possible to accurately extract desired desired image information.

【0097】例えば、従来は、「さわやかな」という検
索語に対して関連する語として「海」が得られると、
「荒れた海」が検索される可能性があったが、本願で
は、「さわやか」−「海」という組み合わせから得られ
る感性パターンによる検索結果と統合する際に排除され
る。
For example, conventionally, if the word “sea” is obtained as a related word to the search word “fresh”,
Although there is a possibility that "rough sea" may be searched, in the present application, it is excluded when integrating with a search result based on a sensitivity pattern obtained from a combination of "fresh"-"sea".

【0098】以上の実施形態において、検索対象となる
蓄積情報として画像情報を用いて説明したが、画像情報
以外のマルチメディア情報(たとえば、オーディオ情
報)についても、情報特徴量抽出を行い、特徴量と感性
パターンとを対応づけることによって、同様に扱うこと
ができる。
In the above embodiment, the description has been made using the image information as the storage information to be searched. For multimedia information (for example, audio information) other than the image information, the information feature is extracted and the feature is extracted. By associating with the sensibility pattern, it can be handled similarly.

【0099】また、以上の説明において、検索対象とな
る画像保持部218、画像内容語保持部219、感性パ
ターン保持部220は単一の装置を構成するDISK1
4に配置するものとして説明したが、これらの構成要件
を異なる装置に分散配置し、NIC19を介してネット
ワーク上で検索処理を行うようにすることも可能であ
る。
In the above description, the image holding unit 218, the image content word holding unit 219, and the sensibility pattern holding unit 220 to be searched are the DISK 1 constituting a single device.
4, it is also possible to distribute these components to different devices and perform a search process on the network via the NIC 19.

【0100】なお、本発明は、複数の機器(例えばホス
トコンピュータ,インタフェイス機器,リーダ,プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機,ファクシミリ装置
など)に適用してもよい。
The present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but can be applied to a single device (for example, a copier, a facsimile). Device).

【0101】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
An object of the present invention is to provide a system or an apparatus with a storage medium storing a program code of software for realizing the functions of the above-described embodiments, and to provide a computer (or CPU) of the system or the apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0102】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0103】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
Examples of a storage medium for supplying the program code include a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, and CD.
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0104】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
The functions of the above-described embodiments are implemented when the computer executes the readout program codes, and the OS (Operating System) running on the computer is executed based on the instructions of the program codes. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0105】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0106】[0106]

【発明の効果】以上説明したように、本発明によれば、
検索語に基づいて、検索対象の情報の特徴量データを用
いた検索と、検索対象の情報に付与された内容語を用い
た検索を行なって検索結果を得るので、与えられた検索
語に対して、目的とする情報を精度良く取り出すことが
可能となる。
As described above, according to the present invention,
Based on the search term, a search using the feature data of the information to be searched and a search using the content word given to the information to be searched are performed to obtain a search result. As a result, it is possible to accurately extract desired information.

【0107】[0107]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像検索装置を構成するための情
報処理装置の構成例を示す図である。
FIG. 1 is a diagram illustrating a configuration example of an information processing apparatus for configuring an image search device according to an embodiment;

【図2】本実施形態の画像検索装置における処理構成を
図式化したブロック図である。
FIG. 2 is a block diagram schematically illustrating a processing configuration in the image search device according to the embodiment;

【図3】検索要求入力処理201において入力された検
索要求語について、関連する検索観点を表示した例を示
す図である。
FIG. 3 is a diagram illustrating an example in which a related search viewpoint is displayed for a search request word input in a search request input process 201;

【図4】検索要求入力処理201における、連想語によ
る検索重みと、感性パターンによる検索重みを指示する
ための、重み指定操作パネルの表示例を示す図である。
FIG. 4 is a diagram showing a display example of a weight designation operation panel for designating a search weight based on an associative word and a search weight based on a feeling pattern in a search request input process 201;

【図5】画像IDと画像ファイル格納パスを対応づけた
画像保持部218のデータ構成を示す図である。
FIG. 5 is a diagram illustrating a data configuration of an image holding unit 218 in which an image ID is associated with an image file storage path.

【図6】画像IDと画像内容語とを対応づけた画像内容
語保持部219のデータ構成例を示す図である。
FIG. 6 is a diagram illustrating a data configuration example of an image content word holding unit 219 in which an image ID is associated with an image content word.

【図7】図6に示す画像内容語保持部のデータを、画像
内容語をキーとして画像IDのリストで格納したテーブ
ルを示す図である。
7 is a diagram showing a table in which data of an image content word holding unit shown in FIG. 6 is stored in a list of image IDs using image content words as keys.

【図8】概念判別辞書205のデータ構成例を示した図
である。
FIG. 8 is a diagram showing a data configuration example of a concept determination dictionary 205.

【図9】連想語辞書211のデータ構成例を示す図であ
る。
FIG. 9 is a diagram showing a data configuration example of an associative word dictionary 211.

【図10】検索結果保持部216におけるデータ保持形
態を説明する図である。
FIG. 10 is a diagram illustrating a data holding mode in a search result holding unit.

【図11】図2の展開感性パターン保持部213のデー
タ構成例を説明する図である。
11 is a diagram illustrating an example of a data configuration of a development sensitivity pattern holding unit 213 in FIG.

【図12】図2におけるイメージ語−感性パターン対応
保持部215のデータ構成例を示す図である。
12 is a diagram showing a data configuration example of an image word-kansei pattern correspondence holding unit 215 in FIG.

【図13】図2における感性パターン保持部220のデ
ータ構成を示す図である。
FIG. 13 is a diagram illustrating a data configuration of a feeling pattern holding unit 220 in FIG. 2;

【図14】画像特徴量抽出処理によって一枚の画像から
画像特徴量を抽出した際に得られるデータ例を示す図で
ある。
FIG. 14 is a diagram illustrating an example of data obtained when an image feature amount is extracted from one image by an image feature amount extraction process.

【図15】本実施形態における画像特徴量の例で、画像
の領域またはブロックごとに代表的な色を抽出したもの
である。
FIG. 15 is an example of an image feature amount according to the present embodiment, in which representative colors are extracted for each area or block of an image.

【図16】図2における画像特徴量保持部222の記憶
例を示す図である。
FIG. 16 is a diagram illustrating a storage example of an image feature amount holding unit 222 in FIG. 2;

【図17】図2における画像特徴量−感性パターンの対
応保持部223のデータ格納例を示す図である。
17 is a diagram illustrating an example of data storage in an image feature amount-kansei pattern correspondence holding unit 223 in FIG. 2;

【図18】本発明の動作を説明したフローチャートであ
る。
FIG. 18 is a flowchart illustrating the operation of the present invention.

【図19】検索要求入力処理201(図18のステップ
S1)の詳細を示すフローチャートである。
FIG. 19 is a flowchart showing details of a search request input process 201 (step S1 in FIG. 18).

【図20】連想語展開処理208及び連想語による画像
内容語検索処理210(図18のステップS4)の詳細
を示すフローチャートである。
20 is a flowchart showing details of an associative word expansion process 208 and an image content word search process 210 using an associative word (step S4 in FIG. 18).

【図21】感性パターン展開処理212、感性パターン
検索処理214及び検索結果統合処理217の詳細を示
すフローチャートである。
FIG. 21 is a flowchart illustrating details of a sensitivity pattern development process 212, a sensitivity pattern search process 214, and a search result integration process 217.

【図22】画像登録時に行われる検索の前処理の一例を
示すフローチャートである。
FIG. 22 is a flowchart illustrating an example of pre-processing of search performed at the time of image registration.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 CA07 EA07 EA09 FA02 FA13 GA08 5B075 NK07 NK08 NK31 NK46 PP03 PP13 PP28 QM07 QS15 UU40 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B050 CA07 EA07 EA09 FA02 FA13 GA08 5B075 NK07 NK08 NK31 NK46 PP03 PP13 PP28 QM07 QS15 UU40

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 入力された検索語に基づいて情報を検索
する情報検索装置であって、 前記検索語に基づいて検索キーワードを決定し、該検索
キーワードに基づいて情報の検索を行なう第1検索手段
と、 前記検索語に対応する特徴量を決定し、該特徴量に基づ
いて情報の検索を行なう第2検索手段と、 前記第1及び第2検索手段によって得られた検索結果を
統合する統合手段とを備えることを特徴とする情報検索
装置。
1. An information retrieval apparatus for retrieving information based on an input search term, wherein a first search is performed in which a search keyword is determined based on the search term, and information is retrieved based on the search keyword. Means for determining a feature amount corresponding to the search word, and searching for information based on the feature amount; integration for integrating search results obtained by the first and second search means And an information retrieval device.
【請求項2】 見出し語とこれに関連する連想語を対応
させて登録した連想語辞書を更に備え、 前記第1検索手段は、前記検索語と、該検索語で前記連
想語辞書を検索して得られた連想語とを検索キーワード
とすることを特徴とする請求項1に記載の情報検索装
置。
2. An associative word dictionary in which a headword and an associative word related thereto are registered in association with each other, wherein the first search means searches the associative word dictionary with the search word and the search word. 2. The information search device according to claim 1, wherein the associative word obtained by the search is used as a search keyword.
【請求項3】 前記連想語辞書には、各連想語と見出し
語との間に連想関係の強さを示す連想強度が登録されて
おり、 前記第1検索手段は、各連想語の連想強度に基づいて、
各検索された情報の検索適合度を得、 前記統合手段は、前記第1検索手段で得られた検索適合
度を参照して前記第2検索手段によってられた検索結果
との統合を行なうことを特徴とする請求項2に記載の情
報検索装置。
3. The associative word dictionary has registered therein an associative strength indicating the strength of an associative relationship between each associative word and a headword, and wherein the first search means includes an associative strength of each associative word. On the basis of the,
Obtaining a search relevance of each searched information, wherein the integration means refers to the search relevance obtained by the first search means and performs integration with the search result obtained by the second search means. The information search device according to claim 2, wherein
【請求項4】 前記検索語に関して反意概念を表す反意
連想語を獲得する獲得手段を更に備え、 前記第1検索手段は、前記獲得手段で獲得された反意連
想語によって画像が検索された場合、当該検索された画
像の検索適合度を低減することを特徴とする請求項3に
記載の情報検索装置。
4. An acquisition means for acquiring a dissociative associative word representing a disagreement concept with respect to the search word, wherein the first search means retrieves an image by the dissociative associative word acquired by the acquiring means. 4. The information retrieval apparatus according to claim 3, wherein, in the case of retrieving, the retrieval relevance of the retrieved image is reduced.
【請求項5】 前記検索語と連想語のペア毎に代表パタ
ーンを対応付ける代表パターン辞書を更に備え、 前記第2検索手段は、前記検索語と前記連想語の組み合
わせにより前記代表パターン辞書を検索して対応する代
表パターンを獲得し、該獲得された代表パターンの特徴
量に基づいて情報の検索を行なうことを特徴とする請求
項2に記載の情報検索装置。
5. A representative pattern dictionary for associating a representative pattern with each pair of the search word and the associative word, wherein the second search means searches the representative pattern dictionary by a combination of the search word and the associative word. 3. The information search apparatus according to claim 2, wherein a corresponding representative pattern is obtained by performing the search, and information is searched based on the feature amount of the obtained representative pattern.
【請求項6】 前記情報は、画像情報であり、前記特徴
量が画像情報を解析して得られる物理的な画像特徴量で
あることを特徴とする請求項1乃至5のいずれかに記載
の情報検索装置。
6. The information processing apparatus according to claim 1, wherein the information is image information, and the feature amount is a physical image feature amount obtained by analyzing the image information. Information retrieval device.
【請求項7】 前記特徴量は、画像の配色情報、構図情
報或いは形状情報の少なくとも一つを含むことを特徴と
する請求項6に記載の情報検索装置。
7. The information retrieval apparatus according to claim 6, wherein the feature amount includes at least one of color arrangement information, composition information, and shape information of the image.
【請求項8】 入力された検索語に基づいて情報を検索
する情報検索方法であって、 前記検索語に基づいて検索キーワードを決定し、該検索
キーワードに基づいて情報の検索を行なう第1検索工程
と、 前記検索語に対応するパターンの特徴量を決定し、該特
徴量に基づいて情報の検索を行なう第2検索工程と、 前記第1及び第2検索工程によって得られた検索結果を
統合する統合工程とを備えることを特徴とする情報検索
方法。
8. An information search method for searching for information based on an input search word, wherein a first search keyword is determined based on the search word, and information is searched based on the search keyword. Integrating a search result obtained by the first and second search steps; determining a feature amount of a pattern corresponding to the search word, and searching for information based on the feature amount; An information retrieval method, comprising:
【請求項9】 見出し語とこれに関連する連想語を対応
させて登録した連想語辞書を更に備え、 前記第1検索工程は、前記検索語と、該検索語で前記連
想語辞書を検索して得られた連想語とを検索キーワード
とすることを特徴とする請求項8に記載の情報検索方
法。
9. An associative word dictionary in which a headword and an associative word related thereto are registered in association with each other, wherein the first search step searches the associative word dictionary with the search word and the search word. 9. The information search method according to claim 8, wherein the associative word obtained by the search is used as a search keyword.
【請求項10】 前記連想語辞書には、各連想語と見出
し語との間に連想関係の強さを示す連想強度が登録され
ており、 前記第1検索工程は、各連想語の連想強度に基づいて、
各検索された情報の検索適合度を得、 前記統合工程は、前記第1検索工程で得られた検索適合
度を参照して前記第2検索工程によってられた検索結果
との統合を行なうことを特徴とする請求項9に記載の情
報検索方法。
10. The associative word dictionary has registered therein an associative strength indicating the strength of an associative relationship between each associative word and a headword. The first search step includes associative strength of each associative word. On the basis of the,
Obtaining a search relevance of each searched information; and integrating the search information with the search result obtained in the second search step by referring to the search relevance obtained in the first search step. The information search method according to claim 9, wherein
【請求項11】 前記検索語に関して反意概念を表す反
意連想語を獲得する獲得工程を更に備え、 前記第1検索工程は、前記獲得工程で獲得された反意連
想語によって画像が検索された場合、当該検索された画
像の検索適合度を低減することを特徴とする請求項10
に記載の情報検索方法。
11. The method according to claim 11, further comprising an acquisition step of acquiring an anonymous association word representing an anonymous concept with respect to the search word, wherein the first searching step includes searching for an image using the antonymous association word acquired in the acquiring step. 11. The method according to claim 10, wherein when the search is performed, the search relevance of the searched image is reduced.
Information search method described in.
【請求項12】 前記検索語と連想語のペア毎に代表パ
ターンを対応付ける代表パターン辞書を更に備え、 前記第2検索工程は、前記検索語と前記連想語の組み合
わせにより前記代表パターン辞書を検索して対応する代
表パターンを獲得し、該獲得された代表パターンの特徴
量に基づいて情報の検索を行なうことを特徴とする請求
項9に記載の情報検索方法。
12. A representative pattern dictionary for associating a representative pattern with each pair of the search word and the associative word, wherein the second search step searches the representative pattern dictionary by a combination of the search word and the associative word. 10. The information search method according to claim 9, wherein a corresponding representative pattern is obtained by performing the search, and information is searched based on the feature amount of the obtained representative pattern.
【請求項13】 前記情報は、画像情報であり、前記特
徴量が画像情報を解析して得られる物理的な画像特徴量
であることを特徴とする請求項8乃至12のいずれかに
記載の情報検索方法。
13. The information processing apparatus according to claim 8, wherein the information is image information, and the feature amount is a physical image feature amount obtained by analyzing the image information. Information retrieval method.
【請求項14】 前記特徴量は、画像の配色情報、構図
情報或いは形状情報の少なくとも一つを含むことを特徴
とする請求項13に記載の情報検索方法。
14. The information retrieval method according to claim 13, wherein the feature amount includes at least one of color arrangement information, composition information, and shape information of the image.
【請求項15】 コンピュータに、入力された検索語に
基づいて情報を検索させるための制御プログラムを格納
する記憶媒体であって、該制御プログラムが、 前記検索語に基づいて検索キーワードを決定し、該検索
キーワードに基づいて情報の検索を行なう第1検索工程
のコードと、 前記検索語に対応するパターンの特徴量を決定し、該特
徴量に基づいて情報の検索を行なう第2検索工程のコー
ドと、 前記第1及び第2検索工程によって得られた検索結果を
統合する統合工程のコードとを備えることを特徴とする
記憶媒体。
15. A storage medium for storing a control program for causing a computer to search for information based on an input search word, wherein the control program determines a search keyword based on the search word, A code for a first search step for searching for information based on the search keyword, and a code for a second search step for determining a feature amount of a pattern corresponding to the search word and searching for information based on the feature amount And a code for an integration step of integrating search results obtained in the first and second search steps.
JP27872298A 1998-09-30 1998-09-30 Information retrieval apparatus and method Expired - Fee Related JP4086377B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP27872298A JP4086377B2 (en) 1998-09-30 1998-09-30 Information retrieval apparatus and method
US09/409,056 US6493705B1 (en) 1998-09-30 1999-09-30 Information search apparatus and method, and computer readable memory
US10/234,185 US6856987B2 (en) 1998-09-30 2002-09-05 Information search apparatus and method, and computer readable memory
US10/962,398 US7054861B2 (en) 1998-09-30 2004-10-13 Information search apparatus and method, and computer readable memory
US11/329,182 US7664803B2 (en) 1998-09-30 2006-01-11 Information search apparatus and method, and computer readable memory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27872298A JP4086377B2 (en) 1998-09-30 1998-09-30 Information retrieval apparatus and method

Publications (2)

Publication Number Publication Date
JP2000112956A true JP2000112956A (en) 2000-04-21
JP4086377B2 JP4086377B2 (en) 2008-05-14

Family

ID=17601296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27872298A Expired - Fee Related JP4086377B2 (en) 1998-09-30 1998-09-30 Information retrieval apparatus and method

Country Status (1)

Country Link
JP (1) JP4086377B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175328A (en) * 2000-12-06 2002-06-21 Canon Inc Method and device for retrieving information and storage medium
JP2007151084A (en) * 2005-10-27 2007-06-14 Ricoh Co Ltd Image processing system
JP2009116531A (en) * 2007-11-05 2009-05-28 Sharp Corp Electronic apparatus, its control method, and computer program
JP4824820B2 (en) * 2006-10-17 2011-11-30 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Image management by vocabulary expression

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175328A (en) * 2000-12-06 2002-06-21 Canon Inc Method and device for retrieving information and storage medium
JP2007151084A (en) * 2005-10-27 2007-06-14 Ricoh Co Ltd Image processing system
JP4824820B2 (en) * 2006-10-17 2011-11-30 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Image management by vocabulary expression
JP2009116531A (en) * 2007-11-05 2009-05-28 Sharp Corp Electronic apparatus, its control method, and computer program

Also Published As

Publication number Publication date
JP4086377B2 (en) 2008-05-14

Similar Documents

Publication Publication Date Title
US6526400B1 (en) Information search apparatus and method
US6856987B2 (en) Information search apparatus and method, and computer readable memory
US6493692B1 (en) Information search apparatus and method, and computer readable memory
US7392233B2 (en) Image searching system, image searching method, and a recording medium storing an image searching program
US7194471B1 (en) Document classification system and method for classifying a document according to contents of the document
US6330576B1 (en) User-friendly information processing device and method and computer program product for retrieving and displaying objects
JP2004348591A (en) Document search method and device thereof
JPH07160731A (en) Method and device for picture retrieval
JP4065470B2 (en) Information retrieval apparatus and control method thereof
JP4054428B2 (en) Image search apparatus and method, and computer-readable memory
JP4086377B2 (en) Information retrieval apparatus and method
JP2007140897A (en) Image search device and method, and program
JPH1115834A (en) Picture processor and its controlling method
JP2004334341A (en) Document retrieval system, document retrieval method, and recording medium
JP3578651B2 (en) Document retrieval system, document retrieval method, and computer-readable recording medium recording program for executing the method
JP2018197927A (en) Information processing apparatus, information processing system, information processing method and program
JP2000112958A (en) Information retrieval device/method and computer readable memory
JP2002117071A (en) Method and device for information retrieval and storage medium
JP4289891B2 (en) Information search device, information search method and program
JP2000112961A (en) Information retrieval device/method and computer readable memory
JP2000112957A (en) Information retrieval device/method and computer readable memory
JP2000194704A (en) Device and method for retrieving information and computer readable memory
JP2005056438A (en) Information search apparatus and method, and computer-readable memory
JP2002175328A (en) Method and device for retrieving information and storage medium
JP2000112960A (en) Information retrieval device/method and computer readable memory

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040604

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20040604

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140228

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees