JP2000112959A - Information retrieval device/method - Google Patents
Information retrieval device/methodInfo
- Publication number
- JP2000112959A JP2000112959A JP10278725A JP27872598A JP2000112959A JP 2000112959 A JP2000112959 A JP 2000112959A JP 10278725 A JP10278725 A JP 10278725A JP 27872598 A JP27872598 A JP 27872598A JP 2000112959 A JP2000112959 A JP 2000112959A
- Authority
- JP
- Japan
- Prior art keywords
- search
- word
- information
- image
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、与えられた検索語
に基づいて情報を検索する情報検索装置及びその方法に
関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information retrieval apparatus and method for retrieving information based on a given retrieval word.
【0002】[0002]
【従来の技術】従来、マルチメディア情報、例えば画像
情報を検索する情報検索装置では、検索対象となる各画
像に対する一人または複数の人による主観評価から導き
出したデータ(キーワード)、または各画像から取り出
した物理的な画像特徴等を用いて検索を行っていた。2. Description of the Related Art Conventionally, in an information retrieval apparatus for retrieving multimedia information, for example, image information, data (keywords) derived from subjective evaluation by one or more persons for each image to be retrieved or extracted from each image Search has been performed using physical image features and the like.
【0003】例えば、人間が画像を見て受けた印象や印
象に結びつくキー情報を画像管理情報に付加し、検索に
利用する手法がある。キー情報には、例えば、「暖かい
感じ」「冷たい感じ」の様に、画像から受けた印象を表
す言葉や、「子猫」「海」「山」の様に、画像に描かれ
ているものを表す言葉をキーワードとして付加したもの
がある。また、画像に描かれている一部の画像特徴的な
要素を主観的に評価し、キー情報として付加する場合も
ある。例えば、「赤い」「青い」等の色に関する情報
や、「丸い」「三角」「尖った」等の形状に関する情
報、「ざらざらした感じ」「つるつるした感じ」等のテ
クスチャに関する情報を、言葉やアイコンを使って表現
し、キー情報として画像に付加し、検索に利用するもの
がある。[0003] For example, there is a method in which impressions received by a person as a result of viewing an image and key information associated with the impression are added to the image management information and used for retrieval. Key information may include words that express the impression received from the image, such as "warm feeling" or "cold feeling", or information drawn on the image, such as "kitten,""sea," or "mountain." Some words have words added as keywords. In some cases, some image characteristic elements drawn in an image are subjectively evaluated and added as key information. For example, information on colors such as "red" and "blue", information on shapes such as "round", "triangle", and "pointed", and information on textures such as "gritty feeling" Some are expressed using icons, added to images as key information, and used for search.
【0004】一方、画像から物理的な画像特徴量を抽出
し、画像検索に利用するシステムもある。画像特徴に
は、例えば画像に描かれている一部の色や全体の色調、
画像に描かれているものの形状、構図、テクスチャ、等
がある。画像特徴量は、例えば画像全体を色情報をもと
に領域分割したり、一定面積毎のブロックに分割するな
どして得られた分割領域・ブロックから抽出されたり、
画像全体から抽出されたりする。物理的な画像特徴に
は、例えば、色情報、画像の濃淡分布、テクスチャ、エ
ッジ、領域、面積、位置、周波数分布等がある。[0004] On the other hand, there is also a system that extracts a physical image feature amount from an image and uses it for image retrieval. Image features include, for example, some colors and overall tones depicted in the image,
There are shapes, compositions, textures, etc. of what is depicted in the image. The image feature amount is extracted from a divided region / block obtained by, for example, dividing the entire image into regions based on color information, dividing the image into blocks of a fixed area, or the like.
Or extracted from the entire image. Physical image features include, for example, color information, image density distribution, texture, edge, area, area, position, frequency distribution, and the like.
【0005】[0005]
【発明が解決しようとする課題】しかしながら上記従来
例では、入力した検索語に一致したキーワードを含む画
像を検索した場合に、検索者の検索要求にそぐわない画
像が得られてしまう場合があった。特に、「さわやか
な」画像といった抽象的な検索語で画像検索を行なった
場合、検索される画像が著しく限られてしまう。これを
解決するために、この「さわやか」という検索語から連
想されるキーワードへ展開して検索を行なうことも提案
されているが、このような手法を用いれば、さわやかで
ない画像が検索結果に混入してしまう可能性がある。However, in the above conventional example, when an image including a keyword that matches the input search word is searched, an image that does not meet the search request of the searcher may be obtained. In particular, when an image search is performed using an abstract search word such as a "fresh" image, the searched image is significantly limited. In order to solve this, it has been proposed to expand the search term "fresh" to a keyword associated with it and perform a search, but using such a method, non-fresh images are mixed in the search results. Could be done.
【0006】また、検索語の代わりに、検索画像を与
え、その特徴量を用いて検索を行なうことも提案されて
いるが、この場合には、検索者の意図を反映した検索画
像を用意する必要があり、検索画像の選択が困難である
等、操作性が悪い。It has also been proposed to provide a search image instead of a search word and perform a search using the feature amount. In this case, a search image reflecting the intention of the searcher is prepared. Operability is poor, for example, it is necessary to select a search image.
【0007】本発明は上記の問題に鑑みてなされたもの
であり、与えられた検索語に対して、目的とする情報を
精度良く取り出すことを可能とする情報検索方法及び装
置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an information retrieval method and apparatus capable of accurately extracting target information from a given retrieval word. Aim.
【0008】[0008]
【課題を解決するための手段】上記の目的を達成するた
めの本発明の一態様による情報検索装置はたとえば以下
の構成を備える。すなわち、入力された検索語に基づい
て情報を検索する情報検索装置であって、前記検索語に
基づいて検索キーワードを決定し、該検索キーワードに
基づいて情報の検索を行なう第1検索手段と、前記検索
語に対応する特徴量を決定し、該特徴量に基づいて情報
の検索を行なう第2検索手段と、前記第1検索手段と前
記第2検索手段による検索結果に割り当てる検索重みを
設定する設定手段と、前記第1及び第2検索手段によっ
て得られた検索結果を前記設定手段で設定された検索重
みに従って統合する統合手段とを備える。An information retrieval apparatus according to an embodiment of the present invention for achieving the above object has, for example, the following configuration. That is, an information search device that searches for information based on an input search word, a first search unit that determines a search keyword based on the search word, and searches for information based on the search keyword, A second search unit that determines a feature amount corresponding to the search word and searches for information based on the feature amount, and sets a search weight assigned to a search result by the first search unit and the second search unit. Setting means; and integrating means for integrating search results obtained by the first and second search means according to a search weight set by the setting means.
【0009】また、上記の目的を達成するための本発明
の他の態様による情報検索方法は、たとえば以下の工程
を備える。すなわち、入力された検索語に基づいて情報
を検索する情報検索方法であって、前記検索語に基づい
て検索キーワードを決定し、該検索キーワードに基づい
て情報の検索を行なう第1検索工程と、前記検索語に対
応する特徴量を決定し、該特徴量に基づいて情報の検索
を行なう第2検索工程と、前記第1検索工程と前記第2
検索工程による検索結果に割り当てる検索重みを設定す
る設定工程と、前記第1及び第2検索工程によって得ら
れた検索結果を前記設定工程で設定された検索重みに従
って統合する統合工程とを備える。An information search method according to another aspect of the present invention for achieving the above object includes, for example, the following steps. That is, an information search method for searching for information based on an input search word, wherein a first search step of determining a search keyword based on the search word and searching for information based on the search keyword, A second search step of determining a feature amount corresponding to the search word and searching for information based on the feature amount; the first search step;
A setting step of setting a search weight to be assigned to a search result in the search step; and an integrating step of integrating search results obtained in the first and second search steps according to the search weight set in the setting step.
【0010】[0010]
【発明の実施の形態】以下、添付の図面を参照して本発
明の好適な一実施形態を詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
【0011】図1は、本実施形態の画像検索装置を構成
するための情報処理装置の構成例を示す図である。FIG. 1 is a diagram showing an example of the configuration of an information processing device for configuring the image search device of the present embodiment.
【0012】図1において、11はマイクロプロセッサ
(以下、CPU)であり、制御プログラムに従って画像
情報検索のための演算、論理判断等を行なうと共に、ア
ドレスバスAB、コントロールバスCB、データバスD
Bを介して、それらのバスに接続された各構成要素を制
御する。アドレスバスABはCPU11の制御の対象と
する構成要素を指示するアドレス信号を転送する。コン
トロールバスCBはCPU11の制御の対象とする各構
成要素へのコントロール信号を転送する。データバスD
Bは各構成機器相互間のデータ転送を行なう。In FIG. 1, reference numeral 11 denotes a microprocessor (hereinafter referred to as a CPU), which performs an operation and a logic judgment for image information retrieval in accordance with a control program, and also executes an address bus AB, a control bus CB and a data bus D
B controls each component connected to those buses. The address bus AB transfers an address signal indicating a component to be controlled by the CPU 11. The control bus CB transfers a control signal to each component to be controlled by the CPU 11. Data bus D
B performs data transfer between the constituent devices.
【0013】12は読出し専用の固定メモリ(以下、R
OM)であり、当該装置の起動時にCPU11によって
実行されるブート処理プログラム等を格納する。また、
13は1ワード16ビットで構成される書込み可能なラ
ンダムアクセスメモリ(以下、RAM)であって、各構
成要素からの各種データの一時記憶に用いられる。特に
本実施形態では、RAM13は、図2において後述する
検索語保持部202、検索観点保持部203、検索重み
保持部204、決定重み保持部207、展開連想語保持
部209、展開感性パターン保持部213、検索結果保
持部216といった各種データ保持部を提供する。Reference numeral 12 denotes a read-only fixed memory (hereinafter referred to as R
OM), and stores a boot processing program executed by the CPU 11 when the apparatus is started. Also,
Reference numeral 13 denotes a writable random access memory (hereinafter referred to as a RAM) composed of 16 bits per word, which is used for temporarily storing various data from each component. In particular, in the present embodiment, the RAM 13 includes a search word holding unit 202, a search viewpoint holding unit 203, a search weight holding unit 204, a decision weight holding unit 207, a developed associative word holding unit 209, and a developed sentiment pattern holding unit described later with reference to FIG. 213, various data holding units such as a search result holding unit 216 are provided.
【0014】14は外部メモリ(DISK)であり、図
2において後述する概念判別辞書205及び連想語辞書
211を格納すると共に、イメージ語と感性パターンの
対応保持部215、画像内容語保持部219、画像保持
部218、感性パターン保持部220、画像特徴量保持
部222、画像特徴量及び感性パターンの対応保持部2
23といったデータ保持部を提供する。なお、外部メモ
リ14の記録媒体としては、ROM、フロッピーディス
ク、CD−ROM、メモリカード、光磁気ディスクなど
が用いられ得る。Reference numeral 14 denotes an external memory (DISK) which stores a concept discrimination dictionary 205 and an associative word dictionary 211, which will be described later with reference to FIG. 2, as well as an image word and sensitivity pattern correspondence holding unit 215, an image content word holding unit 219, Image holding unit 218, Kansei pattern holding unit 220, Image feature amount holding unit 222, Image feature amount and Kansei pattern correspondence holding unit 2
23 is provided. Note that as a recording medium of the external memory 14, a ROM, a floppy disk, a CD-ROM, a memory card, a magneto-optical disk, or the like can be used.
【0015】また、外部メモリ14は、図2等において
後述する検索要求入力処理201、重み判定処理20
6、連想語展開処理208、連想語による画像内容語検
索処理210、感性パターン展開処理212、感性パタ
ーン検索処理214、検索結果統合処理217、画像特
徴抽出処理221、感性パターン判定処理224の各処
理を実行するプログラムが格納される。The external memory 14 includes a search request input process 201 and a weight determination process 20 described later in FIG.
6, associative word expansion processing 208, image content word search processing 210 using associative words, kansei pattern expansion processing 212, kansei pattern search processing 214, search result integration processing 217, image feature extraction processing 221, and kansei pattern determination processing 224 Is stored.
【0016】15はキーボード(KB)であり、アルフ
ァベットキー、ひらがなキー、カタカナキー、句点等の
文字記号入力キーの他に、検索を指示するための検索キ
ー(一般的なキーボードのファンクションキーで代用し
ても良い)及びカーソル移動を指示するカーソル移動キ
ー等のような各種の機能キーを備えている。また、図示
していないが、マウス等のポインティングデバイスが接
続されてもよい。Reference numeral 15 denotes a keyboard (KB) which includes a character / character input key such as an alphabet key, a hiragana key, a katakana key, and a punctuation mark, and a search key for instructing a search (function keys of a general keyboard are used as substitutes). And various function keys such as a cursor movement key for instructing cursor movement. Although not shown, a pointing device such as a mouse may be connected.
【0017】16は表示用ビデオメモリ(以下、VRA
M)であり、表示すべきデータのパターンを格納する。
17はCRTコントローラ(以下、CRTC)であり、
VRAM16に蓄えられた内容をCRT18に表示する
役割を担う。18は陰極線管等を用いた表示装置(CR
T)であり、CRT18におけるドット構成の表示パタ
ーンおよびカーソルの表示がCRTC17で制御され
る。なお、表示装置としては、液晶等、各種表示器を用
いることができることはいうまでもない。19はネット
ワークインターフェースカード(NIC)であり、本画
像検索装置をEthernetなどのネットワークに接続する役
割を担う。Reference numeral 16 denotes a display video memory (hereinafter referred to as VRA).
M) and stores a pattern of data to be displayed.
Reference numeral 17 denotes a CRT controller (hereinafter, CRTC),
It plays a role of displaying the contents stored in the VRAM 16 on the CRT 18. Reference numeral 18 denotes a display device using a cathode ray tube or the like (CR
T), the display pattern of the dot configuration on the CRT 18 and the display of the cursor are controlled by the CRTC 17. It is needless to say that various displays such as liquid crystal can be used as the display device. Reference numeral 19 denotes a network interface card (NIC), which plays a role of connecting the image search device to a network such as Ethernet.
【0018】以上の各構成要素からなる本実施形態の画
像検索装置は、キーボード15からの各種入力、及びネ
ットワークコントローラから供給されるネットワーク経
由の各種入力に応じて動作する。キーボード15からの
入力、或いはネットワークコントローラ19からの入力
があると、インタラプト信号がCPU11に送られる。
このインタラプト信号を受けたCPU11は、外部メモ
リ14内に記憶してある各種の制御データを読み出し、
それら制御データに従って、各種の制御を実行する。な
お、本実施形態において規定する処理を実現するための
制御プログラムを格納した記録媒体をシステムあるいは
装置に供給し、そのシステムあるいは装置のコンピュー
タが、当該記録媒体に格納されたプログラムコードを読
み出し実行することによっても、本発明は達成される。The image retrieval apparatus according to the present embodiment comprising the above-described components operates according to various inputs from the keyboard 15 and various inputs via the network supplied from the network controller. When there is an input from the keyboard 15 or an input from the network controller 19, an interrupt signal is sent to the CPU 11.
Upon receiving the interrupt signal, the CPU 11 reads out various control data stored in the external memory 14 and
Various controls are executed according to the control data. Note that a recording medium storing a control program for realizing the processing specified in the present embodiment is supplied to a system or an apparatus, and a computer of the system or the apparatus reads out and executes the program code stored in the recording medium. Thus, the present invention is achieved.
【0019】図2は本実施形態の画像検索装置における
処理構成を図式化したブロック図である。FIG. 2 is a block diagram schematically illustrating a processing configuration in the image retrieval apparatus according to the present embodiment.
【0020】図2において、201は検索要求入力処理
であり、所望の検索対象に関する要求事項(ここでは、
検索語、検索観点、検索重みであり、詳細は後述する)
を入力する。202は検索語保持部であり、検索要求入
力処理201によって入力された検索語を記憶する。2
03は検索観点保持部であり、検索要求入力処理201
によって入力された検索観点を記憶する。204は検索
重み保持部であり、検索要求入力処理201によって入
力された検索重みを記憶する。In FIG. 2, reference numeral 201 denotes a search request input process, which is a request related to a desired search target (here,
(Search terms, search viewpoints, search weights, details will be described later.)
Enter Reference numeral 202 denotes a search term holding unit that stores the search term input by the search request input process 201. 2
Reference numeral 03 denotes a search viewpoint holding unit, and a search request input process 201
Is stored. A search weight holding unit 204 stores the search weight input by the search request input processing 201.
【0021】205は概念判別辞書であり、図8に示す
ように、検索対象となる概念に関係する検索観点、検索
対象となる概念とは反対の意味を持つ反意概念、概念を
検索する際の重み判定のための2種類の係数(連想重み
と感性パターン重み)を有する。なお、概念判別辞書2
05の詳細については、図8を参照して後述する。20
6は重み判定処理であり、検索語保持部202に記憶さ
れた検索語を検索する際に、連想語(連想語展開処理2
08によって得られる)と感性パターン(感性パターン
展開処理212によって得られる)のいずれを重視して
検索すべきかを示す重み(連想重み、感性パターン重
み)を与える。207は決定重み保持部であり、重み判
定処理206で決定された検索重みを記憶する。Reference numeral 205 denotes a concept discrimination dictionary. As shown in FIG. 8, a search viewpoint related to the concept to be searched, a dissenting concept having a meaning opposite to the concept to be searched, and a concept for searching for a concept. Has two types of coefficients (associative weight and sensibility pattern weight) for weight determination. Note that the concept discrimination dictionary 2
05 will be described later with reference to FIG. 20
Reference numeral 6 denotes a weight determination process, which is performed when searching for a search word stored in the search word holding unit 202.
08) or a sentiment pattern (obtained by the sentiment pattern development process 212) is given a weight (associative weight, sentiment pattern weight) indicating whether to search with emphasis. A determination weight holding unit 207 stores the search weight determined in the weight determination processing 206.
【0022】208は連想語展開処理であり、検索語保
持部202に記憶された検索語を連想語辞書211を参
照して連想語に展開するとともに、その検索語に対する
反意概念を概念判別辞書205から獲得し、連想語辞書
211を参照して、得られた反意概念を連想語に展開す
る。209は展開連想語保持部であり、連想語展開処理
208によって展開された連想語(反意概念の連想語を
含む)を格納する。210は連想語による画像内容語検
索処理(以下、画像内容語検索処理210という)であ
り、展開連想語保持部209を参照し、画像内容語保持
部219に格納された画像内容語のうち展開された連想
語と合致するものを検索する。211は連想語辞書であ
り、見出しとなる概念ごとに連想される語を連想観点と
対応させて格納してある(詳細は図9により後述す
る)。Reference numeral 208 denotes an associative word expansion process, which expands the search word stored in the search word holding unit 202 into an associative word with reference to the associative word dictionary 211, and converts a dissenting concept corresponding to the search word into a concept discrimination dictionary. With reference to the associative word dictionary 211 obtained from 205, the obtained opposite meaning concept is developed into an associative word. Reference numeral 209 denotes an associative word holding unit that stores the associative words (including the associative words of the negative concept) expanded by the associative word expansion processing 208. Reference numeral 210 denotes an image content word search process using an associative word (hereinafter, referred to as an image content word search process 210), which refers to the expanded associative word storage unit 209 and expands the image content words stored in the image content word storage unit 219. Search for a word that matches the associated word. Reference numeral 211 denotes an associative word dictionary, which stores words associated with each concept as a heading in association with an associative viewpoint (details will be described later with reference to FIG. 9).
【0023】212は感性パターン展開処理であり、検
索語保持部202に記憶された検索語をイメージ語−感
性パターン対応保持部215を参照して感性パターンに
展開すると共に、当該検索語の反意概念を概念判別辞書
205から得て、得られた反意概念を、イメージ語−感
性パターン対応保持部215を参照して、感性パターン
に展開する。Reference numeral 212 denotes a sentiment pattern developing process, which develops the search word stored in the search word holding unit 202 into a sentiment pattern by referring to the image word-kansei pattern correspondence holding unit 215, and performs the opposite of the search word. The concept is obtained from the concept discrimination dictionary 205, and the obtained antisense concept is developed into a sensitivity pattern with reference to the image word-sensitivity pattern correspondence holding unit 215.
【0024】213は展開感性パターン保持部であり、
感性パターン展開処理212で展開した感性パターンを
一時的に保存する。展開感性パターン保持部213にお
けるデータの格納については図11を参照して後述す
る。214は感性パターン検索処理であり、展開感性パ
ターン保持部213を参照して、感性パターン保持部2
20に格納されている感性パターンのうち展開された感
性パターンと類似するものを検索する。Reference numeral 213 denotes a development sensitivity pattern holding unit.
The sentiment patterns developed in the sentiment pattern development process 212 are temporarily stored. The storage of data in the development sensitivity pattern holding unit 213 will be described later with reference to FIG. Reference numeral 214 denotes a sentiment pattern search unit, which refers to the developed sentiment pattern holding unit 213 and
A search is made for a sentiment pattern stored in 20 that is similar to the developed sentiment pattern.
【0025】215はイメージ語−感性パターン対応保
持部であり、イメージ語とそのイメージ語に関連づけら
れた各連想語の組に対応する感性パターンIDを記憶す
ることにより、イメージ語と感性パターンの対応を格納
する。なお、イメージ語−感性パターン対応保持部21
5の詳細は図12を参照して後述する。Reference numeral 215 denotes an image word-kansei pattern correspondence holding unit which stores a sentiment pattern ID corresponding to a set of an image word and each associative word associated with the image word, so that the correspondence between the image word and the sentiment pattern is stored. Is stored. Note that the image word-sensitive pattern correspondence holding unit 21
Details of 5 will be described later with reference to FIG.
【0026】216は検索結果保持部であり、画像内容
語検索処理210と感性パターン検索処理214によっ
て検索された画像IDを格納する。217は検索結果統
合処理であり、検索結果保持部216に記憶された連想
語による画像内容語の検索結果と感性パターンの検索結
果とを、重み判定処理206によって得られ、決定重み
保持部207内に格納された決定重みに基づいて統合す
る。Reference numeral 216 denotes a search result holding unit which stores the image IDs searched by the image content word search processing 210 and the affective pattern search processing 214. A search result integration process 217 obtains the search result of the image content word and the search result of the sensibility pattern by the associative word stored in the search result storage unit 216 by the weight determination process 206. Are integrated based on the decision weights stored in.
【0027】218は画像保持部であり、検索対象とな
る画像情報を格納する。219は画像内容語保持部であ
り、画像保持部218に格納された画像の内容を描写す
べく付与されている概念を言語で記述し格納したもので
ある。220は感性パターン保持部であり、画像保持部
218に格納された各画像の画像情報と感性パターンと
の適合度を格納する。すなわち、感性パターン保持部2
20には、画像IDごとに各感性パターンとの適合度が
記憶されている。感性パターン保持部220のデータ内
容については、図13を参照して後述する。An image holding unit 218 stores image information to be searched. Reference numeral 219 denotes an image content word holding unit that describes and stores, in a language, a concept given to describe the content of the image stored in the image holding unit 218. Reference numeral 220 denotes a feeling pattern holding unit that stores the degree of matching between the image information of each image stored in the image holding unit 218 and the feeling pattern. That is, the sensitivity pattern holding unit 2
20 stores the degree of matching with each emotion pattern for each image ID. The data content of the affective pattern holding unit 220 will be described later with reference to FIG.
【0028】221は画像特徴抽出処理であり、画像保
持部218に格納された各画像情報から物理的な画像特
徴量を抽出する。物理的な画像特徴量は、色情報をもと
に分割された領域や、一定面積で分けられたブロック、
または画像全体から抽出される視覚的な特徴である。例
えば、画像特徴は、画像の色分布やヒストグラム、画像
の濃淡分布、テクスチャ、エッジ、周波数分布等の数値
化された情報である。なお、画像特徴量の詳細は図14
を参照して後述する。An image feature extraction process 221 extracts a physical image feature amount from each piece of image information stored in the image holding unit 218. Physical image features include areas divided based on color information, blocks divided by a certain area,
Or a visual feature extracted from the entire image. For example, the image feature is digitized information such as a color distribution and a histogram of the image, a density distribution of the image, a texture, an edge, and a frequency distribution. The details of the image feature amount are shown in FIG.
It will be described later with reference to FIG.
【0029】222は画像特徴量保持部であり、画像特
徴抽出処理221によって得られた各画像の画像特徴量
を格納する。また、223は画像特徴量−感性パターン
対応保持部であり、画像特徴量と感性パターンの対応を
とって記憶する。画像特徴量−感性パターン対応保持部
223には、感性パターンIDと各IDに対応した画像
特徴量データが記憶されている。なお、画像特徴量−感
性パターン対応保持部223のデータ構成については図
17を参照して後述する。Reference numeral 222 denotes an image feature storage, which stores the image feature of each image obtained by the image feature extraction processing 221. Reference numeral 223 denotes an image feature-feeling pattern correspondence holding unit, which stores the correspondence between the image feature quantity and the feeling pattern. The image feature amount-kansei pattern correspondence holding unit 223 stores a Kansei pattern ID and image feature amount data corresponding to each ID. Note that the data configuration of the image feature-sensitivity pattern correspondence holding unit 223 will be described later with reference to FIG.
【0030】224は感性パターン判定処理であり、画
像特徴量保持部222と画像特徴量−感性パターン対応
保持部223とを参照して、感性パターンから抽出した
画像特徴量と画像情報から抽出した画像特徴量とを比較
・照合して、その適合度を求め、上述の感性パターン保
持部220にその結果を登録する。Reference numeral 224 denotes a feeling pattern determination process, which refers to the image feature amount holding unit 222 and the image feature amount-sensitive pattern correspondence holding unit 223, and extracts the image feature amount extracted from the feeling pattern and the image extracted from the image information. The degree of matching is obtained by comparing / collating with the feature amount, and the result is registered in the above-described emotion pattern holding unit 220.
【0031】図3は検索要求入力処理201において入
力された検索要求語について、関連する検索観点を表示
した例を示す図である。検索語が例えばキーボード15
を操作することにより入力されると、図8のごとき概念
判別辞書205が検索され、検索語を見出し語として、
対応する検索観点が抽出される。図3においては、検索
要求語「渋い」に対して、「色調」「味」「雰囲気一
般」の3つの検索観点が存在し、ここでは、網掛け表示
されている「色調」が選択されていることを示してい
る。この状態でOKボタンを押下(クリック)すると、
検索観点「色調」が選択され、検索観点保持部203に
保持される。FIG. 3 is a diagram showing an example in which a search viewpoint related to the search request word input in the search request input processing 201 is displayed. If the search term is keyboard 15
Is operated, the concept discriminating dictionary 205 as shown in FIG. 8 is searched.
The corresponding search viewpoint is extracted. In FIG. 3, there are three search viewpoints “color tone”, “taste”, and “general atmosphere” with respect to the search request word “bitter”. In this case, the shaded “color tone” is selected. It indicates that When the OK button is pressed (clicked) in this state,
The search viewpoint “tone” is selected and stored in the search viewpoint storage unit 203.
【0032】なお、キーボード15上のカーソル移動キ
ーを押下することにより、網掛け表示部は「色調」から
「味」または「雰囲気一般」というように遷移するの
で、所望の検索観点を選択することができる。なお、検
索要求語である「渋い」は検索語保持部202に、選択
された検索観点は検索観点保持部203にそれぞれ保持
されることになる。By pressing the cursor movement key on the keyboard 15, the shaded display section changes from "color tone" to "taste" or "general atmosphere", so that a desired search viewpoint can be selected. Can be. The search request word “bitter” is stored in the search word storage unit 202, and the selected search viewpoint is stored in the search viewpoint storage unit 203.
【0033】図4は検索要求入力処理201における、
連想語による検索重みと、感性パターンによる検索重み
を指示するための、重み指定操作パネルの表示例を示す
図である。上述のように、本実施形態では、連想語によ
る検索と、検索語に基づくイメージ(感性パターン)の
特徴量による検索とを行ない、両検索結果を統合する
が、この統合処理においては両検索結果に重み付けが行
なわれる。重み指定操作パネルにおいて、これら、連想
語による検索重みと、感性パターンによる検索重みを指
定することができる。すなわち連想語による検索と感性
パターンによる検索のどちらを重視して検索するかを指
定することができる。FIG. 4 shows the search request input processing 201.
It is a figure which shows the example of a display of the weight designation | designated operation panel for designating the search weight by an association word, and the search weight by a feeling pattern. As described above, in the present embodiment, the search based on the associative word and the search based on the feature amount of the image (kansei pattern) based on the search word are performed to integrate the two search results. Is weighted. On the weight designation operation panel, it is possible to designate the search weight based on the association word and the search weight based on the emotion pattern. That is, it is possible to specify which of the search based on the associative word and the search based on the sensibility pattern is emphasized.
【0034】図4において、スライダーボタン41を左
方向にスライドさせると、連想語による検索を重視する
ような指示が行われ、右方向にスライドさせると感性パ
ターンによる検索を重視する指示が行われる。スライダ
ーボタン41で重みを指定した後、OKボタン43を押
下することで、重みの設定指示が行われる。なお、ボタ
ン42は重みを明示的に指定しない場合に押下する。ボ
タン42が選択された場合には、所定の重みの値(これ
は、概念判別辞書205の連想重み83と感性パターン
重み84から得られる)が用いられる。こうして設定さ
れた重みは、検索重み保持部204に格納される。な
お、重み指定操作パネルの各ボタン41〜43の押下
は、不図示のポインティングデバイスによるクリック操
作であっても良いことは明らかである。In FIG. 4, when the slider button 41 is slid to the left, an instruction is given to attach importance to the search by the associative word, and when the slider button 41 is slid to the right, an instruction is attached to attach importance to the search by the sensibility pattern. After the weight is designated by the slider button 41, the OK button 43 is pressed to issue a weight setting instruction. The button 42 is pressed when the weight is not explicitly specified. When the button 42 is selected, a predetermined weight value (obtained from the association weight 83 and the sensitivity pattern weight 84 of the concept discrimination dictionary 205) is used. The weight set in this way is stored in the search weight holding unit 204. It should be noted that pressing of each of the buttons 41 to 43 on the weight designation operation panel may be a click operation using a pointing device (not shown).
【0035】図5は、画像IDと画像ファイル格納パス
を対応づけた画像保持部218のデータ構成を示す図で
ある。図5において、51は画像IDを示し、当該画像
データベースにおいて、1つの画像ファイルにつき一意
に付与された識別番号である。52は画像IDに対応す
る画像ファイルの外部メモリ14における格納先を示す
ファイルパスであり、MS−DSのディレクトリとファ
イル名に相当する。FIG. 5 is a diagram showing a data configuration of the image holding unit 218 in which image IDs and image file storage paths are associated with each other. In FIG. 5, reference numeral 51 denotes an image ID, which is an identification number uniquely assigned to one image file in the image database. Reference numeral 52 denotes a file path indicating the storage location of the image file corresponding to the image ID in the external memory 14, which corresponds to the directory and file name of the MS-DS.
【0036】図示は省略するが、各画像ファイルは、周
知のように、ヘッダ部と画像データ部に分けられる。ヘ
ッダ部にはその画像ファイルからデータを読み取るとき
に必要な情報や、画像の内容を説明する付帯的な情報が
格納され、その画像フォーマット名を示す画像フォーマ
ット識別子、ファイルサイズ、画像の幅・高さ・深さ、
圧縮の有無、カラーパレットの情報、解像度、画像デー
タの格納位置へのオフセットなどの情報が格納される。
また、画像データ部は画像データを順次格納している部
分である。本実施形態においては、このような画像フォ
ーマットとしてMicrosoft社のBMPフォーマットを用
いるものとするが、GIFフォーマットあるいはJPE
G、Flash Pixといった、その他の圧縮フォーマットを
用いても同様の構成をなすことができる。Although not shown, each image file is divided into a header section and an image data section, as is well known. The header section stores information necessary for reading data from the image file and additional information describing the content of the image, an image format identifier indicating the image format name, a file size, and a width and height of the image. Sa depth
Information such as the presence / absence of compression, color palette information, resolution, and offset to the storage position of image data is stored.
The image data section is a section that stores image data sequentially. In the present embodiment, the BMP format of Microsoft Corporation is used as such an image format.
The same configuration can be achieved by using other compression formats such as G and Flash Pix.
【0037】図6は、画像IDと画像内容語とを対応づ
けた画像内容語保持部219のデータ構成例を示す図で
ある。図6において、61は画像IDであり、図5の画
像ID51と対応する。62は画像内容語であり、画像
ID61で表される各画像を描写するための語を格納す
る。画像内容語は画像に描写されている画像特徴を言葉
にしたキーワードであり、文字コード(例えばunicod
e)で格納される。キーワードは1つの画像について複
数個格納してもよく、画像内容語保持部219は画像I
D61をキーとする画像内容語62のリストで構成され
る。FIG. 6 is a diagram showing an example of the data configuration of the image content word holding unit 219 in which image IDs are associated with image content words. 6, reference numeral 61 denotes an image ID, which corresponds to the image ID 51 in FIG. Reference numeral 62 denotes an image content word, which stores a word for describing each image represented by the image ID 61. An image content word is a keyword that expresses image features described in an image as words, and a character code (for example, unicod
Stored in e). A plurality of keywords may be stored for one image, and the image content word holding unit 219 stores the image I
It is composed of a list of image content words 62 using D61 as a key.
【0038】図7は図6に示す画像内容語保持部のデー
タを、画像内容語をキーとして画像IDのリストで格納
したテーブルを示す図である。図7において、画像内容
語71の各語をキーワードとして含むすべての画像ID
が画像ID72に格納される。FIG. 7 is a diagram showing a table in which the data of the image content word holding unit shown in FIG. 6 is stored in a list of image IDs using the image content words as keys. In FIG. 7, all image IDs including each of the image content words 71 as a keyword
Is stored in the image ID 72.
【0039】図8は概念判別辞書205のデータ構成例
を示した図である。概念判別辞書205は、検索要求と
なる検索語に関する情報を提供するものであり、検率語
に対応する見出し語80、見出し語に関係する検索観点
81、検索観点毎の、見出し語と反対の意味をもつ反意
概念82、見出し語を検索する際の連想語の重み83、
見出し語を検索する際の感性パターンの重み84とを対
応させて格納したテーブルである。FIG. 8 is a diagram showing an example of the data configuration of the concept discrimination dictionary 205. The concept discrimination dictionary 205 provides information on a search term that is a search request, and includes a headword 80 corresponding to an evaluative word, a search viewpoint 81 related to the headword, and a search word opposite to the headword for each search viewpoint. A disagreeable concept 82 having a meaning, an associative word weight 83 when searching for a headword,
It is a table in which a sentence pattern weight 84 at the time of searching for a headword is stored in correspondence.
【0040】図9は連想語辞書211のデータ構成例を
示す図である。連想語辞書211は見出し語に対する連
想語の一組を一意に番号付ける連想ID90と、連想の
起点となる見出し語91、見出し語91から連想される
連想語92、連想語92の連想に関係する連想観点9
3、見出し語91と連想語92との間の連想の強さを示
す連想強度94とから構成される。FIG. 9 is a diagram showing an example of the data structure of the associative word dictionary 211. The associative word dictionary 211 relates to an associative ID 90 for uniquely numbering a set of associative words for the headword, an associative word 92 serving as a starting point of the associative word, an associative word 92 associated with the associative word 91, and the association of the associative word 92. Associative viewpoint 9
3. An association strength 94 indicating the strength of association between the headword 91 and the association word 92.
【0041】なお、本例では、連想強度94は0〜10
の絶対値をとり、符号が連想語の適用状態をあらわす。
すなわち、連想強度が正数である場合は、連想強度数値
が大きいほど連想関係による結びつきが強い(共起性が
高い)ことを示し、逆に連想強度が負数である場合は、
連想強度が大きいほど連想関係が成り立たないことを示
す。例えば、図9において、連想ID=126533の
連想データにおいて、見出し語「素朴」に対応する連想
語「民芸品」は「6」の強さで連想が可能な言葉である
が、連想ID=126536の連想データ「シャンデリ
ア」は連想強度が負数であるので「9」の強さで連想で
きない言葉である。In this example, the association strength 94 is 0 to 10
The sign indicates the application state of the associative word.
That is, if the association strength is a positive number, the larger the association strength value, the stronger the association by the association (higher co-occurrence). Conversely, if the association strength is a negative number,
It indicates that the associative relationship does not hold as the associative strength increases. For example, in FIG. 9, in the association data of association ID = 126533, the association word “folk art” corresponding to the headword “simple” is a word that can be associated with a strength of “6”, but the association ID = 126536. The associative data "chandelier" is a word that cannot be associated with a strength of "9" because the associative strength is a negative number.
【0042】図10は、検索結果保持部216における
データ保持形態を説明する図である。上述したように、
検索結果保持部216は、連想語による画像内容語検索
処理210と感性パターン検索処理214によって検索
された画像IDを格納するものである。FIG. 10 is a view for explaining a data holding mode in the search result holding section 216. As mentioned above,
The search result holding unit 216 stores the image IDs searched by the image content word search process 210 using the associative word and the emotion pattern search process 214.
【0043】図10において、100は検索された画像
IDを格納し、101は、画像内容語検索処理217で
一致した、連想強度が正数である連想語の数を格納す
る。また、連想語IDリスト102は、一致した連想語
の連想語辞書211における連想語ID90(図9)を
最大20個まで格納する。連想語一致数101がゼロで
ある場合は、連想語IDリスト102にはヌルコードが
埋められる。103は、画像ID100に対する連想語
による連想一致度を格納する。連想語一致数101がゼ
ロである場合は、連想一致度103にもゼロが格納され
る。In FIG. 10, reference numeral 100 stores the searched image ID, and reference numeral 101 stores the number of associative words having a positive associative strength matched in the image content word search processing 217. The associative word ID list 102 stores up to 20 associative word IDs 90 (FIG. 9) in the associative word dictionary 211 of the associated associative words. If the associative word match count 101 is zero, the associative word ID list 102 is filled with null codes. Reference numeral 103 stores the association degree of the image ID 100 by the association word. If the associative word match count 101 is zero, zero is also stored in the associative match degree 103.
【0044】104は、感性パターン検索処理223で
検索された類似度の最も高い感性パターンの数を格納す
る。105は感性パターンIDリストであり、一致した
感性パターンの感性パターンIDを最大20個まで格納
する。感性パターン一致数104がゼロである場合は、
感性パターンIDリスト105にはヌルコードが埋めら
れる。106は画像ID100に対する感性パターン検
索による感性パターン一致度を格納する。感性パターン
一致数104がゼロである場合は、感性パターン一致度
106にはゼロが格納される。107には、連想一致度
103と感性パターン一致度106とをパラメータとし
て求めた、検索要求に対する画像ID100の統合一致
度(検索結果統合処理217による)が格納される。Reference numeral 104 stores the number of emotion patterns having the highest similarity searched in the emotion pattern search processing 223. A sentiment pattern ID list 105 stores up to 20 sentiment pattern IDs of the matched sentiment patterns. When the number of emotion pattern matches 104 is zero,
A null code is embedded in the sensitivity pattern ID list 105. Reference numeral 106 denotes a sentence pattern matching degree obtained by a sentiment pattern search for the image ID 100. When the number of emotion pattern matches 104 is zero, zero is stored in the emotion pattern matching degree 106. In 107, the integrated matching degree of the image ID 100 in response to the search request (by the search result integrating process 217) obtained by using the associative matching degree 103 and the sentiment pattern matching degree 106 as parameters is stored.
【0045】図11は図2の展開感性パターン保持部2
13のデータ構成例を説明する図である。図11におい
て、110は、この感性パターンの展開元であるイメー
ジ語で、検索語保持部202に格納されているのと同じ
イメージ語が格納されている。本例では、「さわやか
な」という文字列が格納されており、文字列はNULL
コードで終了する。111は、イメージ語110をイメ
ージ語−感性パターン対応保持部215を参照して展開
して得られた感性パターンの数である。たとえば、イメ
ージ語−感性パターン対応保持部215の内容が図12
のようであった場合、「さわやかな」というイメージ語
から展開された感性パターンの数は7となる。112
は、「さわやかな」というイメージ語を実際に展開した
データの格納先の領域を示すアドレスである。図11に
示した例では、この格納先アドレス112は、同図の1
15で示されるデータにリンクしている。FIG. 11 shows the developed sensitivity pattern holding unit 2 shown in FIG.
13 is a diagram for explaining a data configuration example of No. 13. FIG. In FIG. 11, reference numeral 110 denotes an image word from which the sentiment pattern is developed, and the same image word as that stored in the search word holding unit 202 is stored. In this example, a character string “fresh” is stored, and the character string is NULL.
End with code. Reference numeral 111 denotes the number of kansei patterns obtained by developing the image word 110 with reference to the image word-kansei pattern correspondence holding unit 215. For example, the contents of the image word-sensitive pattern correspondence holding unit 215 are as shown in FIG.
In this case, the number of emotional patterns developed from the image word “refreshing” is seven. 112
Is an address indicating a storage destination area of data in which an image word “refreshing” is actually developed. In the example shown in FIG. 11, this storage destination address 112 is
Linking to the data indicated by 15.
【0046】データ115においては、「さわやかな」
から実際に展開された展開データ、すなわち連想語と感
性パターンの組が、感性パターン数111に示される個
数分格納されている。本例では、データ115として、
連想語と感性パターンの組が7組格納されることにな
る。たとえば、114は、「さわやかな」というイメー
ジ語の連想語で、本例では、「森林」という文字列が格
納されており、文字列はNULLコードで終了する。そ
して、113は、イメージ語「さわやかな」と「さわや
かな」の連想語「森林」に対応した感性パターンIDで
あり、本例では、5が格納されている。他の連想語と感
性パターンの組についても同様である。In the data 115, "fresh"
, The expanded data actually developed, that is, the sets of the associative words and the sensibility patterns are stored by the number indicated by the number of sensibility patterns 111. In this example, as the data 115,
Seven sets of association words and sentiment patterns are stored. For example, 114 is an associative word of an image word “fresh”. In this example, a character string “forest” is stored, and the character string ends with a NULL code. Reference numeral 113 denotes a feeling pattern ID corresponding to the associative word “forest” between the image words “fresh” and “fresh”. In this example, 5 is stored. The same applies to other pairs of associative words and sensitivity patterns.
【0047】図12は図2におけるイメージ語−感性パ
ターン対応保持部215のデータ構成例を示す図であ
る。図12において、120は、この感性パターンの展
開元となるイメージ語である。図では、「さわやかな」
「トロピカルな」等の文字列が格納されており、文字列
はNULLコードで終了する。121は、120の各イ
メージ語から展開された連想語である。本例では、「さ
わやかな」に対して「森林」「高原」「青空」などの連
想語が記憶されており、文字列はNULLコードで終了
する。この121の部分に文字列が格納されていない場
合、即ちNULLコードのみの場合は、この感性パター
ンが、「さわやかな」というイメージ語全てに適応で
き、特に連想語が指定されていないことを表している。FIG. 12 is a diagram showing an example of the data structure of the image word-sensitive pattern correspondence holding unit 215 in FIG. In FIG. 12, reference numeral 120 denotes an image word serving as a development source of the sensibility pattern. In the figure, "Refreshing"
A character string such as "tropical" is stored, and the character string ends with a NULL code. Reference numeral 121 denotes an associative word developed from each of the 120 image words. In this example, an associative word such as "forest", "plateau", and "blue sky" is stored for "fresh", and the character string ends with a NULL code. When a character string is not stored in the portion 121, that is, when only a NULL code is used, this sensibility pattern can be applied to all the image words “refreshing”, and particularly indicates that no association word is specified. ing.
【0048】122は、120のイメージ語と121の
連想語に対応した感性パターンIDである。本例では、
イメージ語「さわやかな」とその連想語「森林」に対す
る感性パターンIDとして、005,006が格納され
ている。また、「さわやかな」に対する反意概念として
「さわやかでない」に対する感性パターンも記憶されて
いる。本例では、「さわやかでない」には、特に連想語
はなく、感性パターンIDとして001と010が登録
されている。Reference numeral 122 denotes a feeling pattern ID corresponding to 120 image words and 121 associative words. In this example,
005, 006 are stored as sensitivity pattern IDs for the image word “fresh” and its associated word “forest”. In addition, a feeling pattern for “not refreshing” is also stored as an opposite concept to “fresh”. In this example, “not refreshing” does not have an associated word, and 001 and 010 are registered as sensibility pattern IDs.
【0049】図13は図2における感性パターン保持部
220のデータ構成を示す図である。図13において、
131は、登録する画像を識別するための画像IDであ
る。画像ID131は、画像保持部218に記憶されて
いる番号と同じものが使用され、このシステムにおいて
画像を一意に定義付けている。132には、感性パター
ンIDが格納されている。本実施形態では、それぞれの
画像について、画像特徴量−感性パターン対応保持部2
23に記憶されているすべての感性パターンに対する適
合度が求められるため、全ての感性パターンID(1〜
m)が格納されている。133は、各画像と各感性パタ
ーンとの適合度を示す数値である。適合度は0から1ま
での数で、0はこの画像が感性パターンにまったく適合
しなかったことを示しており、1に近いほど適合性が高
いことを示している。例えば、本実施形態では、画像I
D001の画像に対して、感性パターン1との適合度は
0.10、感性パターン2との適合度は0である。FIG. 13 is a diagram showing a data structure of the affective pattern holding unit 220 in FIG. In FIG.
Reference numeral 131 denotes an image ID for identifying an image to be registered. As the image ID 131, the same number as the number stored in the image holding unit 218 is used, and uniquely defines an image in this system. 132 stores a sensitivity pattern ID. In the present embodiment, for each image, the image feature amount-kansei pattern correspondence holding unit 2
Since the degree of conformity to all the emotion patterns stored in the memory pattern 23 is calculated, all the emotion pattern IDs (1 to
m) is stored. 133 is a numerical value indicating the degree of conformity between each image and each emotion pattern. The degree of conformity is a number from 0 to 1, where 0 indicates that the image did not conform to the emotional pattern at all, and closer to 1 indicates higher suitability. For example, in the present embodiment, the image I
For the image of D001, the degree of conformity with Kansei pattern 1 is 0.10, and the degree of conformity with Kansei pattern 2 is 0.
【0050】図14は画像特徴量抽出処理によって一枚
の画像から画像特徴量を抽出した際に得られるデータ例
を示す図である。図14において、画像特徴をX1,X
2,X3,…,Xn、画像特徴量を抽出する領域・ブロッ
クをB1,B2,…,Bm、各領域・ブロックから抽出さ
れた特徴量をx11〜xmnで表している。すなわち、各領
域・ブロック毎に、X1〜Xnの物理的画像特徴に関する
特徴量が得られる。FIG. 14 is a diagram showing an example of data obtained when an image feature is extracted from one image by the image feature extraction process. In FIG. 14, the image features are X1, X
2, X3,..., Xn, regions / blocks for extracting image feature amounts are represented by B1, B2,..., Bm, and feature amounts extracted from each region / block are represented by x11 to xmn. In other words, feature amounts relating to physical image features of X1 to Xn are obtained for each area / block.
【0051】図15は、特に色彩的画像特徴量を抽出し
た場合の例を示す図である。これは、画像の領域或いは
ブロックごとに代表的な色を抽出したものである。図1
5によれば、物理的画像特徴は「代表色」と「特徴量」
で表され、領域或いはブロックB1,B2,…,Bnから
抽出された代表色はC1(R1,G1,B1)、C2(R2,
G2,B2),…,Cn(Rn,Gn,Bn)で、それぞれの
特徴量はc1〜cnである。FIG. 15 is a diagram showing an example in the case of extracting color image feature values. This is a representative color extracted for each region or block of the image. FIG.
According to 5, the physical image features are “representative color” and “feature amount”.
, And the representative colors extracted from the areas or blocks B1, B2,..., Bn are C1 (R1, G1, B1), C2 (R2,
G2, B2),..., Cn (Rn, Gn, Bn), and the respective characteristic amounts are c1 to cn.
【0052】図16は図2における画像特徴量保持部2
22の記憶例を示す図である。図16において、161
は、登録する画像を識別するための画像IDである。画
像ID161は、画像保持部218に記憶されているI
D番号と同じものが使用されている。162は、画像特
徴量を抽出したブロックまたは領域を示す番号で、本例
では各領域或いはブロックの番号をB1,B2,…,Bm
で表している。163は、162に示す各領域或いはブ
ロック(B1,B2,…,Bm)から抽出された画像特徴
を表す情報(本例では代表色を用いる)である。本例
は、色彩的画像特徴を抽出した場合の例で、例えば、色
彩を表す情報C11(R11,G11,B11),…,Cn1(R
n1,Gn1,Bn1)が格納されている。164は、各領域
或いはブロックから抽出された画像特徴の特徴量を示し
ている。本例では、C11(R11,G11,B11),…,C
n1(Rn1,Gn1,Bn1)の特徴量としてc11,…,Cn1
が格納されている。FIG. 16 shows the image feature amount holding unit 2 in FIG.
22 is a diagram illustrating a storage example of No. 22. FIG. In FIG.
Is an image ID for identifying an image to be registered. The image ID 161 is the I ID stored in the image holding unit 218.
The same as the D number is used. Reference numeral 162 denotes a number indicating a block or area from which the image feature amount has been extracted. In this example, the number of each area or block is represented by B1, B2,.
It is represented by Reference numeral 163 denotes information (in this example, a representative color is used) representing an image feature extracted from each area or block (B1, B2,..., Bm) shown in 162. This example is an example in which a color image feature is extracted. For example, information C11 (R11, G11, B11),..., Cn1 (R
n1, Gn1, Bn1) are stored. Reference numeral 164 denotes a feature amount of an image feature extracted from each area or block. In this example, C11 (R11, G11, B11),.
.., Cn1 as features of n1 (Rn1, Gn1, Bn1)
Is stored.
【0053】図17は図2における画像特徴量−感性パ
ターン対応保持部223のデータ格納例を示す図であ
る。図17において、171は感性パターンIDで、感
性パターンを一意に識別する番号である。172は、各
感性パターンIDに対応付けられた画像特徴量データで
ある。本実施形態では、感性パターンを色彩的特徴量で
表現しており、各感性パターンIDに対する色成分(R
GBやHVCなどの色空間における値)の組み合わせが
記憶されている。本例では、色成分としてRGB色空間
における値が登録されいてる。RGB値は、0〜255
までの整数である。各パターンに対応付けられた色の数
は、最大m個である。FIG. 17 is a diagram showing an example of data storage in the image feature amount-sensitive pattern correspondence holding unit 223 in FIG. In FIG. 17, reference numeral 171 denotes a feeling pattern ID, which is a number for uniquely identifying a feeling pattern. 172 is image feature amount data associated with each emotion pattern ID. In the present embodiment, the sensibility pattern is represented by a chromatic feature amount, and the color component (R
A combination of values in a color space such as GB or HVC is stored. In this example, values in the RGB color space are registered as color components. RGB value is 0 to 255
Is an integer up to. The maximum number of colors associated with each pattern is m.
【0054】感性パターン判定処理224は、以上の画
像特徴量保持部222と画像特徴量−感性パターン対応
保持部223を用いて、画像保持部218に登録されて
いる各画像データ毎に、各感性パターンとの適合度を求
め、感性パターン保持部220に登録する(図22のス
テップS87で後述する)。The sensibility pattern determination process 224 uses the image feature amount holding unit 222 and the image feature amount-kansei pattern correspondence holding unit 223 to perform each kansei operation for each image data registered in the image holding unit 218. The degree of matching with the pattern is obtained and registered in the affective pattern holding unit 220 (described later in step S87 of FIG. 22).
【0055】以上のような構成を供えた本実施形態の画
像検索装置における処理について以下に説明する。The processing in the image retrieval apparatus of the present embodiment having the above configuration will be described below.
【0056】図18は本実施形態の画像検索処理の動作
を説明したフローチャートである。図18において、ス
テップS1は、図2における検索要求処理201を実行
する処理モジュールであり、検索要求の入力を行う。な
お、処理の詳細は、図19を用いて後述する。FIG. 18 is a flowchart for explaining the operation of the image search processing according to this embodiment. In FIG. 18, step S1 is a processing module that executes the search request processing 201 in FIG. 2, and inputs a search request. The details of the processing will be described later with reference to FIG.
【0057】ステップS2は、図2の重み判定処理20
6を実行する処理モジュールであり、ステップS1にお
ける検索要求入力処理によって検索重み保持部204に
格納された検索重みを参照し、もし重みが指定されてい
れば、その値を決定重み保持部207に格納する。もし
検索重み保持部204に重みが指定されていなければ、
概念判別辞書205(図8)を参照し、検索語保持部2
02に格納された検索語を見出し語80から検索し、対
応する連想重み83、感性パターン重み84を読み出
し、決定重み保持部207に格納する。また、見出し語
80に、検索語保持部202に一致する語が存在しない
場合は、連想重み、感性パターン重みの既定値として
(ともに5)を決定重み保持部207に格納するものと
する。Step S2 is a weight judgment process 20 shown in FIG.
6, which refers to the search weight stored in the search weight storage unit 204 by the search request input process in step S1, and if the weight is specified, the value is stored in the determination weight storage unit 207. Store. If no weight is specified in the search weight holding unit 204,
Referring to the concept discrimination dictionary 205 (FIG. 8), the search term holding unit 2
The search term stored in the search term 02 is searched from the headword 80, the corresponding associative weight 83 and the affective pattern weight 84 are read out, and stored in the decision weight holding unit 207. If there is no word that matches the search word holding unit 202 in the headword 80, 5 (both are 5) are stored in the determination weight holding unit 207 as default values of the association weight and the sensitivity pattern weight.
【0058】ステップS3は決定重み保持部207を参
照し、連想重みが0であるかどうか判定する。もし連想
重みが0であるならば、連想語による検索は不要である
ので、ステップS5の処理へ分岐し、0でなければステ
ップS4の処理を行う。ステップS4は図2における連
想語展開処理208、連想語による画像内容語検索処理
210を行う処理モジュールであり、その処理の詳細は
図20を参照して後述する。In step S3, it is determined whether or not the associative weight is 0 with reference to the decision weight holding unit 207. If the associative weight is 0, the search by the associative word is unnecessary, so the process branches to step S5. If not, the process of step S4 is performed. Step S4 is a processing module that performs an associative word expansion process 208 and an image content word search process 210 using an associative word in FIG. 2, and details of the process will be described later with reference to FIG.
【0059】ステップS5では、決定重み保持部207
を参照し、感性パターン重みが0であるかどうかを判定
する。もし、感性パターン重みが0であるならば、感性
パターンによる検索は不要であるので、ステップS7の
処理へ分岐し、そうでなければステップS6の処理を行
う。ステップS6は図2における感性パターン展開処理
212、感性パターン検索処理214を行う処理モジュ
ールであり、図21により後述する。In step S5, the decision weight holding unit 207
To determine whether or not the sentiment pattern weight is 0. If the sentiment pattern weight is 0, the search by the sentiment pattern is unnecessary, and the process branches to step S7. Otherwise, the process of step S6 is performed. Step S6 is a processing module that performs the affective pattern development process 212 and the affective pattern search process 214 in FIG. 2, which will be described later with reference to FIG.
【0060】ステップS7は図2における検索結果統合
処理217を行うための処理モジュールであり、その処
理の詳細は、図22により後述する。Step S7 is a processing module for performing the search result integration processing 217 in FIG. 2, and the details of the processing will be described later with reference to FIG.
【0061】ステップS8はステップS7によって得ら
れた検索結果として検索結果保持部216に格納されて
いる画像IDに対応する画像ファイルを画像保持部21
8より取り出して表示する。なお、ステップS8による
検索結果の表示は、同種の検索装置において広く行われ
ている公知の処理である。In step S8, the image file corresponding to the image ID stored in the search result holding unit 216 as the search result obtained in step S7 is stored in the image holding unit 21.
Take out from 8 and display. The display of the search result in step S8 is a known process widely performed in the same type of search device.
【0062】図19は、検索要求入力処理201(図1
8のステップS1)の詳細を示すフローチャートであ
る。ステップS21において検索要求となる検索語を入
力する。検索語入力はKB15から入力された文字コー
ドをRAM13上の検索語保持部202に格納すること
により行われる。FIG. 19 shows a search request input process 201 (FIG. 1).
8 is a flowchart illustrating details of step S1) of FIG. In step S21, a search word serving as a search request is input. Search term input is performed by storing the character code input from the KB 15 in the search term holding unit 202 on the RAM 13.
【0063】次にステップS22において、検索語保持
部202に格納された検索語を検索要求として、この検
索要求に関連する検索観点を概念判別辞書205から取
り出す。検索語保持部202の検索語と一致する見出し
語80(図8)に対する検索観点81をすべて取り出
す。例えば、検索語が「渋い」である場合、検索観点と
して「色調」,「味」,「雰囲気一般」の3つを得るこ
とができる。Next, in step S 22, the search terms stored in the search term holding unit 202 are used as a search request, and a search viewpoint related to the search request is extracted from the concept determination dictionary 205. All search viewpoints 81 for the headword 80 (FIG. 8) that matches the search word in the search word holding unit 202 are extracted. For example, when the search word is "cool", three search viewpoints "color", "taste", and "general atmosphere" can be obtained.
【0064】次に、ステップS23において、上記ステ
ップS22の検索観点抽出により検索観点が見つかった
かどうか判定し、検索観点が見つかった場合はステップ
S24の処理へ、見つからなければステップS26の処
理へ分岐する。Next, in step S23, it is determined whether or not a search viewpoint has been found by the search viewpoint extraction in step S22. If a search viewpoint has been found, the process branches to step S24. If not, the process branches to step S26. .
【0065】ステップS22において検索観点が見つか
ったならば、ステップS24において図3に示すように
検索観点を当該検索語とともに表示する。ステップS2
5では、表示された検索観点から、図3で説明したユー
ザインターフェースを用いて、所望の検索観点を選択す
る。こうして選択指示された検索観点は、検索観点保持
部203に格納される。If a search viewpoint is found in step S22, the search viewpoint is displayed together with the search word in step S24 as shown in FIG. Step S2
In step 5, a desired search viewpoint is selected from the displayed search viewpoint using the user interface described with reference to FIG. The search viewpoint selected and instructed in this manner is stored in the search viewpoint holding unit 203.
【0066】ステップS26は検索要求に対する検索処
理方法に関し、連想語による検索と感性パターンによる
検索のいずれを重視して検索を行うかを指示する検索重
みを入力する。本実施形態では、図4に示すごときユー
ザインターフェースを用いて重みの設定を行なう。ユー
ザは、図4に示すスライダーバーを操作し、スライダー
の左右のバーの長さ(ボタン41の位置)で連想語を重
視する割合、感性パターンを重視する割合(所望の検索
重み)を指定する。なお、重みを指定しない場合は、図
4の重みの既定値の使用を指定する。Step S26 relates to a search processing method for the search request, and inputs a search weight for designating which of the search based on the associative word and the search based on the sentiment pattern is to be emphasized. In the present embodiment, the weight is set using a user interface as shown in FIG. The user operates the slider bar shown in FIG. 4 to specify the ratio of emphasizing the association word and the ratio of emphasizing the sensitivity pattern (desired search weight) based on the length of the left and right bars of the slider (the position of the button 41). . When the weight is not specified, the use of the default value of the weight in FIG. 4 is specified.
【0067】ステップS27において、ステップS26
で重みの指定があったかどうか判定する。そして、重み
の既定値を使用する旨が指示された場合は本処理を終了
する。一方、検索重みが指定されていればステップS2
8へ進み、ステップS26で指定された連想語による検
索の重み、感性パターンによる検索の重みを検索重み保
持部204に格納して、本処理を終了する。In step S27, step S26
It is determined whether or not a weight has been specified. Then, when it is instructed to use the default value of the weight, the present process is terminated. On the other hand, if the search weight has been designated, step S2
Then, the process proceeds to step S8, where the search weight based on the associative word specified in step S26 and the search weight based on the affective pattern are stored in the search weight holding unit 204, and the process ends.
【0068】図20は、連想語展開処理208及び連想
語による画像内容語検索処理210(図18のステップ
S4)の詳細を示すフローチャートである。FIG. 20 is a flowchart showing details of the associative word expansion process 208 and the image content word search process 210 (step S4 in FIG. 18) using the associative words.
【0069】図20において、ステップS41は検索語
保持部202に格納されている検索語で連想語辞書21
1を検索し連想語データを得る。すなわち、検索語と一
致する連想語辞書211の見出し語91(図9)を検索
し、登録されている連想語データを抽出する。見出し語
91内に検索語に一致する語が存在すれば、その連想I
Dをすべて展開連想語保持部209に格納する。In FIG. 20, a step S41 is a search word stored in the search word holding unit 202 and the associative word dictionary 21
1 to obtain associative word data. That is, a search is made for a headword 91 (FIG. 9) in the associative word dictionary 211 that matches the search word, and registered associative word data is extracted. If a word that matches the search word exists in the headword 91, its association I
D are all stored in the expanded associative word holding unit 209.
【0070】次にステップS42において、概念判別辞
書205を検索し、検索語202と一致する見出し語が
存在すれば、その見出し語に対応する検索観点81(図
8)を取り出す。そして、取り出された検索観点と、上
述のステップS25で検索観点保持部203に格納され
た検索観点とを比較し、両者が一致していれば、この見
出し語に対応する反意概念82を取り出す。検索観点が
一致しなければ、引き続き検索語と見出し語の一致する
データの検索を行う。こうして、抽出したすべての検索
観点について上記のチェックを終えると、ステップS4
3へ進む。Next, in step S42, the concept discrimination dictionary 205 is searched, and if there is a headword that matches the search word 202, the search viewpoint 81 (FIG. 8) corresponding to the headword is extracted. Then, the retrieved search viewpoint is compared with the search viewpoint stored in the search viewpoint holding unit 203 in step S25 described above, and if both match, the dissenting concept 82 corresponding to the headword is extracted. . If the search viewpoints do not match, the search for data in which the search word matches the headword is continued. When the above check is completed for all the extracted search viewpoints in this way, step S4
Proceed to 3.
【0071】ステップS43では、ステップS42で見
つかった反意概念と一致する見出し語を持つ連想語を連
想語辞書211から検索する。反意概念に一致する見出
し語が存在すれば、その連想IDを反意概念であること
を示す状態符号を付与して、展開連想語保持部209に
格納する。In step S43, an associative word having a headword that matches the antisense concept found in step S42 is searched from the associative word dictionary 211. If there is a headword that matches the negative meaning, the associative ID is assigned a status code indicating that the word is a negative meaning, and stored in the expanded associated word holding unit 209.
【0072】次に、ステップS44で展開連想語保持部
209に格納された連想IDから連想語を取り出し、連
想語と一致する画像内容語を画像内容語保持部219か
ら検索し、結果を検索結果保持部216に格納する。Next, in step S44, an associative word is extracted from the associative ID stored in the expanded associative word holding unit 209, and an image content word that matches the associative word is searched from the image content word holding unit 219, and the result is retrieved. It is stored in the holding unit 216.
【0073】ここでは、まず、展開連想語保持部209
に格納されている連想IDを取り出し、連想語辞書21
1を参照して、対応する連想データを抽出する。そし
て、抽出した連想データの連想強度94を取り出し、R
AM13上のワークメモリASCF(不図示)にセット
する。ここで、もし、展開連想語保持部209より取り
出した連想IDに反意概念の状態符号が付与されていた
ら、連想強度の符号を反転して負数となるようにする。
ただし、連想強度がすでに負数であったら、その連想デ
ータは破棄して次の連想データをチェックする。Here, first, the expanded associative word holding unit 209
Is extracted from the associative word dictionary 21
1, the corresponding associative data is extracted. Then, the association strength 94 of the extracted association data is extracted, and R
It is set in a work memory ASCF (not shown) on the AM 13. Here, if the associative ID extracted from the expanded associative word holding unit 209 is provided with a state code of a disagreeable concept, the sign of the associative strength is inverted to be a negative number.
However, if the association strength is already a negative number, the associative data is discarded and the next associative data is checked.
【0074】次に連想IDに対応する連想観点を取り出
し、検索観点保持部203に格納された検索観点と比較
し、一致すれば所定値αをRAM13上に確保されたワ
ークメモリVPF(不図示)にセットし、一致しなけれ
ばα×0.1の値をワークメモリVPFにセットする。Next, the associative viewpoint corresponding to the associative ID is taken out, compared with the search viewpoint stored in the search viewpoint holding unit 203, and if they match, a predetermined value α is stored in the work memory VPF (not shown) secured in the RAM 13. And if they do not match, a value of α × 0.1 is set in the work memory VPF.
【0075】次に連想IDに対応する連想語と一致する
画像内容語を画像内容語保持部219から検索し、見つ
かれば、その画像内容語に対応する画像IDを画像ID
72(図7)より獲得し、検索結果保持部216の検索
された画像ID100(図10)にセットする。そし
て、連想語一致数101に1をセットし、連想語ID1
02に検索対象となっている連想IDをセットする。そ
して、連想一致度103に、連想語一致によるスコアの
所定値βにワークメモリASCFの値とVPFの値を乗
じた値を連想一致度として格納する。すでに同じ画像I
Dが格納されている場合は、連想語一致数101の値を
+1し、連想語ID102に新たな連想語IDを加え、
格納済の連想一致度103の値に、求めた連想一致度を
加えて新しい連想一致度として値を更新する。Next, an image content word matching the association word corresponding to the association ID is searched from the image content word holding unit 219, and if found, the image ID corresponding to the image content word is assigned to the image ID.
72 (FIG. 7) and set in the searched image ID 100 (FIG. 10) of the search result holding unit 216. Then, 1 is set to the associative word match count 101 and the associative word ID1
02 is set to the associative ID to be searched. Then, a value obtained by multiplying the value of the work memory ASCF by the value of the VPF to the predetermined value β of the score by associative word matching is stored in the associative matching degree 103 as the associative matching degree. Image I already
If D is stored, +1 is added to the value of the number 101 of association words, and a new association word ID is added to the association word ID 102;
The value of the stored associative match 103 is added to the obtained associative match to update the value as a new associative match.
【0076】図21は、感性パターン展開処理212、
感性パターン検索処理214及び検索結果統合処理21
7の詳細を示すフローチャートである。FIG. 21 shows a sentiment pattern development process 212,
Kansei pattern search processing 214 and search result integration processing 21
7 is a flowchart showing details of a seventh example.
【0077】上述のように、検索要求入力処理201
で、利用者から画像を検索するための検索要求が入力さ
れる。検索要求には、1つまたは複数の検索語、検索範
囲、等が含まれる。本実施形態で入力される検索語は、
「さわやかな」感じ、「あたたかい」感じ、等の画像の
印象を表す抽象的なイメージ語である。入力された検索
指示語は、検索語保持部202に格納される。ここで
は、「さわやかな」というイメージ語が格納されている
ものとして説明する。As described above, the search request input processing 201
The user inputs a search request for searching for an image. The search request includes one or more search words, a search range, and the like. The search term input in this embodiment is
It is an abstract image word that expresses the impression of an image such as a "fresh" feeling, a "warm" feeling, and the like. The input search instruction word is stored in the search word holding unit 202. Here, the description will be made assuming that the image word “refreshing” is stored.
【0078】ステップS61及びステップS62は、感
性パターン展開処理212で実行される処理である。ス
テップS61では、イメージ語−感性パターン対応保持
部215を参照して、検索語保持部202に保持されて
いるイメージ語を感性パターンに展開する。本実施形態
では、検索語保持部202にイメージ語「さわやかな」
が、また展開連想語保持部209には「さわやかな」か
ら展開された連想語「森林」「高原」「青空」、etcが
保持されており、215を参照してそれぞれに対応する
感性パターンIDに展開する。例えば、イメージ語「さ
わやかな」−連想語「森林」に対する感性パターンID
として、005,006を、また、イメージ語「さわや
かな」−連想語「高原」に対する感性パターンIDとし
て007を取得する。Steps S61 and S62 are processes executed in the sentiment pattern development process 212. In step S61, the image word held in the search word holding unit 202 is developed into a sentiment pattern with reference to the image word / kansei pattern correspondence holding unit 215. In the present embodiment, the image word “refreshing” is stored in the search word holding unit 202.
However, the associative words “forest”, “plateau”, “blue sky”, etc. developed from “refreshing” are stored in the expanded associative word holding unit 209. Expand to For example, a sensitivity pattern ID for an image word “fresh” -associative word “forest”
005 and 006, and 007 as the affective pattern ID for the image word “fresh” -associative word “Kogen”.
【0079】次にステップS62に進み、ステップS6
1で展開された感性パターンIDとイメージ語・連想語
の組を展開感性パターン保持部213に格納する。展開
感性パターン保持部213におけるデータの格納につい
ては、図11により上述したとおりである。Then, the process proceeds to a step S62, wherein a step S6 is executed.
The set of the sentiment pattern ID and the image word / association word developed in step 1 is stored in the developed sentiment pattern holding unit 213. The storage of data in the development sensitivity pattern holding unit 213 is as described above with reference to FIG.
【0080】次にステップS63に進む。ステップS6
3及びステップS64は、感性パターン検索処理214
で実行される処理である。まず、ステップS63におい
て、感性パターン保持部220を参照して、展開感性パ
ターン保持部213に格納されている感性パターンID
に対する適合度が0より大きい画像の画像IDを全て取
得する。この処理は、展開感性パターン保持部213に
保持されているすべての感性パターンについて行う。な
お、感性パターン検索処理214では、検索語及び反意
概念の各々から展開された感性パターンIDに対する適
合度が0より大きい画像IDを取得する。Next, the process proceeds to a step S63. Step S6
3 and step S64 are the emotion pattern search processing 214
This is the process executed by First, in step S63, the emotion pattern ID stored in the developed emotion pattern holding unit 213 is referred to with reference to the emotion pattern holding unit 220.
All image IDs of images having a degree of conformity to 0 greater than 0 are acquired. This process is performed for all the emotion patterns held in the developed emotion pattern holding unit 213. In the affective pattern search process 214, an image ID having a degree of conformity to the affective pattern ID developed from each of the search term and the negative concept that is greater than 0 is acquired.
【0081】次にステップS64において、ステップS
63で取得した感性パターンIDと、画像ID、及びそ
の適合度の組を検索結果保持部216に格納する。Next, in step S64, step S
The set of the sentiment pattern ID, the image ID, and the matching degree acquired in 63 are stored in the search result holding unit 216.
【0082】次に、ステップS65に進む。ステップS
65〜S69の処理は、検索結果統合処理217によっ
て実行される処理を示している。すなわち、検索結果保
持部216に保持されている、連想語による画像内容語
検索結果と感性パターン検索結果とを参照し、決定重み
保持部207に保持されている重みをもとに、両検索結
果を一つの検索結果として統合する。なお、感性パター
ン検索結果に関し、検索語に対する反意概念に基づく感
性パターンがある場合には、当該画像を統合結果から除
外する。或いは、そのような反意概念の感性パターンを
含む画像の感性パターン一致度を、統合処理時において
低下させてもよい。Next, the process proceeds to a step S65. Step S
The processing from 65 to S69 indicates the processing executed by the search result integration processing 217. That is, referring to the image content word search result by the associative word and the sentiment pattern search result held in the search result holding unit 216, based on the weight held in the decision weight holding unit 207, the two search results As one search result. If there is a sentiment pattern based on the opposite meaning to the search term in the sentiment pattern search result, the image is excluded from the integrated result. Alternatively, the degree of coincidence of the affective pattern of the image including the affective pattern of the opposite concept may be reduced during the integration processing.
【0083】統合処理は、各連想語毎に両検索結果の共
通要素をとる(検索結果のアンドをとる)方法や、各検
索に対する重みから統合適合度を求め、適合度が上位の
ものから適切な検索結果とする方法などがある。本実施
形態では、統合適合度を求める方法を例に統合処理につ
いて説明する。In the integration processing, a method of taking a common element of both search results for each associative word (an AND of the search results) and a weight of each search are used to determine an integrated fitness. Search results. In the present embodiment, the integration processing will be described by taking a method of obtaining the integration suitability as an example.
【0084】検索結果保持部216に記憶されている、
たとえば連想語「森林」と一致した画像の連想適合度を
A、連想語「森林」に対応した感性パターンID005
に適合した画像の感性適合度をB、決定重み保持部20
7に保持されたそれぞれの検索の重みをw1、w2(w1
+w2=1)としたとき、統合適合度は、 統合適合度=w1×A+w2×B または、統合適合度=(w1×A^2+w2×B^2)^1/2 で求めることができる。ただし、X^YはXのY乗を表す。
統合適合度を全ての連想語の全感性パターンについて求
める。一つの画像IDが複数の感性パターンIDに対し
て0より大きい適合度を持つ場合は、一つの画像に対し
て複数の統合適合度が得られるが、この場合は最も大き
い適合度を検索結果として採用する(ステップS6
5)。The search result storage unit 216 stores
For example, the associative fitness of an image that matches the associative word “forest” is A, and the sensitivity pattern ID 005 corresponding to the associative word “forest” is
Is the sensitivity adaptation degree of the image conforming to
7 are weighted by w1, w2 (w1
When + w2 = 1), the integrated fitness can be obtained as follows: integrated fitness = w1 × A + w2 × B or integrated fitness = (w1 × A ^ 2 + w2 × B ^ 2) ^ 1/2. Here, X ^ Y represents X to the power of Y.
The integrated relevance is obtained for all kansei patterns of all associative words. If one image ID has a degree of fitness greater than 0 for a plurality of emotional pattern IDs, a plurality of integrated degrees of fitness are obtained for one image. In this case, the largest degree of fitness is used as a search result. Adopt (Step S6
5).
【0085】この処理を、どちらかの検索結果が0より
も大きい全ての画像について行い、統合適合度が閾値よ
りも高い画像を統合した検索結果とする(ステップS6
6、S67、S68)。This processing is performed for all the images in which one of the search results is larger than 0, and the images having the integrated suitability higher than the threshold value are made the integrated search results (step S6).
6, S67, S68).
【0086】ステップS69において画像IDとその適
合度の組を検索結果保持部216に格納することにより
検索処理を終了する。In step S 69, the set of the image ID and its matching degree is stored in the search result holding unit 216, thereby ending the search processing.
【0087】図22は、画像登録時に行われる検索の前
処理の一例を示すフローチャートである。この処理は、
DISK14に格納されている処理プログラムに従って
制御される。FIG. 22 is a flowchart showing an example of pre-processing of a search performed at the time of image registration. This process
It is controlled according to a processing program stored in the disk 14.
【0088】まず、ステップS81で、ユーザから登録
する画像が指示される。登録する画像は、DISK14
や図示外の外部記憶装置、画像入力装置、またはこの画
像処理装置に接続された画像データベース・サーバ等に
格納されている画像の中から指定される。本実施形態で
は、検索の対象となる画像があらかじめ記憶されてお
り、この中から画像が選択されるものとする。First, in step S81, an image to be registered is designated by the user. The image to be registered is DISK14
And an image stored in an external storage device, an image input device, or an image database server connected to the image processing device. In the present embodiment, images to be searched are stored in advance, and an image is selected from the images.
【0089】次にステップS82に進む。ステップS8
2では、指定された画像ファイル名に対応した画像I
D、および登録するために必要となる各種画像情報を取
得し、画像特徴抽出処理221に与える。画像IDは、
画像を管理するために、画像ファイル名に対応付けられ
て記憶されているIDで、画像ファイル名から画像保持
部218のデータを検索して取得する。画像の各種情報
とは、例えばこの画像のファイルフォーマットがビット
マップ形式の場合は、画像の幅及び高さのピクセル値、
1ピクセル当たりのビット数、画像のサイズ(バイト単
位)、ビットマップイメージが実際に格納されている領
域のアドレスなどである。これらの情報は、画像ファイ
ルのヘッダ部分に格納されているので、ヘッダ部を参照
することにより取得できる。画像のファイルフォーマッ
トがビットマップ形式ではなく、JFIFやFlash Pix
の場合も、同様にファイルのヘッダ部から必要な情報を
得ることができる。また、画像保持部218にこれらの
情報を格納しておき、登録時に参照することにより情報
を取得してもよい。Next, the process proceeds to a step S82. Step S8
2, the image I corresponding to the specified image file name
D and various kinds of image information necessary for registration are obtained and given to the image feature extraction processing 221. The image ID is
In order to manage the image, the data in the image holding unit 218 is searched for and acquired from the image file name using the ID stored in association with the image file name. The various information of the image is, for example, when the file format of the image is a bitmap format, pixel values of the width and height of the image,
The information includes the number of bits per pixel, the size of an image (in units of bytes), the address of an area where a bitmap image is actually stored, and the like. Since these pieces of information are stored in the header of the image file, they can be obtained by referring to the header. The image file format is not bitmap, but JFIF or Flash Pix
In the case of (1), necessary information can be similarly obtained from the header of the file. Alternatively, these pieces of information may be stored in the image holding unit 218, and the information may be acquired by referring to the information at the time of registration.
【0090】次に、ステップS83に進む。ステップS
83は、画像特徴量抽出処理221で行う処理で、指定
された画像IDに対する画像情報を解析し、物理的な画
像特徴量を抽出するステップである。上述の図15は、
本実施形態における画像特徴量の例で、画像の領域また
はブロックごとに代表的な色を抽出したものである。代
表色は、与えられた画像の各種情報を用いて、画像の実
際のビットイメージを1ピクセルずつ解析し、各領域或
いはブロックで使用されている色成分(RGBやHVC
などの色空間における値)の平均値や最も出現頻度の高
い色成分を求め、代表色とする手法などが用いられる。Next, the process proceeds to a step S83. Step S
Reference numeral 83 denotes a process performed in the image feature amount extraction process 221 which is a step of analyzing image information corresponding to a designated image ID and extracting a physical image feature amount. In FIG. 15 described above,
In the example of the image feature amount in the present embodiment, a representative color is extracted for each area or block of the image. The representative color is obtained by analyzing an actual bit image of an image one pixel at a time using various types of information of a given image, and calculating color components (RGB, HVC, etc.) used in each area or block.
For example, a method of obtaining the average value of the values in a color space (eg, color space) and the color component having the highest frequency of appearance and using the color component as a representative color is used.
【0091】次に、ステップS84に進む。このステッ
プS84では、ステップS83で抽出された画像特徴量
c1〜cnとこの画像の画像IDとを対応づけて、画像特
徴量保持部222に記憶する。この場合のデータの格納
形態は、図16で上述したとおりである。Next, the process proceeds to a step S84. In step S84, the image feature amounts c1 to cn extracted in step S83 are associated with the image ID of the image and stored in the image feature amount holding unit 222. The data storage form in this case is as described above with reference to FIG.
【0092】次に、ステップS85に進み、画像特徴量
−感性パターン対応保持部223を参照して、画像特徴
量−感性パターン対応保持部223に記憶されているす
べての感性パターンIDとその感性パターンに対応づけ
られた画像特徴量を取得する。本実施形態では、図17
で説明した様に各感性パターンに色彩的特徴量が対応付
けられている。Then, the process proceeds to step S85, where all the feeling pattern IDs stored in the image feature quantity-kansei pattern correspondence holding section 223 and the kansei patterns thereof are referred to by referring to the image feature quantity-kansei pattern correspondence holding section 223. The image feature amount associated with is acquired. In the present embodiment, FIG.
As described above, the color feature amount is associated with each sensibility pattern.
【0093】次に、ステップS86に進み、ステップS
85で取得した感性パターンと、この画像に対する画像
特徴量との適合度を求める。これは、感性パターン判定
処理224で行われる処理で、ステップS85で取得し
た感性パターンそれぞれについて、感性パターンに対応
付けられた色彩的特徴量とステップS83で抽出された
画像特徴量とを比較・照合し、その適合度を求める。適
合度は、画像特徴量−感性パターン対応保持部223に
記憶されているすべての感性パターンについて求める。
適合度を算出するには、余弦測度を用いたベクトル演算
や統計処理などの手法が用いられる。Then, the process proceeds to a step S86, wherein a step S86 is executed.
The matching degree between the sensitivity pattern acquired in step 85 and the image feature amount for this image is obtained. This is a process performed in the affective pattern determination process 224. For each of the affective patterns acquired in step S85, the color feature amount associated with the affective pattern is compared with the image feature amount extracted in step S83. And determine its fitness. The matching degree is obtained for all the emotion patterns stored in the image feature amount-sensibility pattern correspondence holding unit 223.
In order to calculate the degree of conformity, a technique such as a vector operation using a cosine measure or a statistical process is used.
【0094】次に、ステップS87に進む。ステップS
87では、ステップS86で求められたすべての感性パ
ターンと画像の適合度を、この画像の画像IDに対応づ
けて感性パターン保持部220に記憶する。感性パター
ン保持部220における画像の記憶例は図13で上述し
たとおりである。Next, the process proceeds to a step S87. Step S
At 87, the suitability of all the sensibility patterns and images obtained in step S86 is stored in the sensibility pattern holding unit 220 in association with the image ID of this image. An example of storing an image in the affective pattern holding unit 220 is as described above with reference to FIG.
【0095】以上の処理を、登録するすべての画像に対
して行う。The above processing is performed for all the images to be registered.
【0096】以上説明したように、本実施形態によれ
ば、検索語に関連づけられた連想語に基づいて、マルチ
メディア情報そのものの特徴量データを用いた検索と、
マルチメディア情報に付与された内容語を用いた検索を
行ない、両検索の結果から最終的な検索結果を得ること
が可能となる。このため、目的とする所望の画像情報を
精度良く取り出すことが可能になる。As described above, according to the present embodiment, a search using the feature data of the multimedia information itself based on the associative word associated with the search word,
A search is performed using the content word added to the multimedia information, and a final search result can be obtained from the results of both searches. For this reason, it is possible to accurately extract desired desired image information.
【0097】また、本実施形態によれば、画像に付与さ
れたキーワードによる検索と、画像そのものの特徴量デ
ータによる検索とを統合して検索結果を得る際に、両検
索の重みの比率を検索語に応じて変えることが可能とな
るので、目的とする所望の情報を更に精度よく取り出す
ことが可能になる。例えば、検索要求としてキーワード
「おめでたい」が与えられた場合、キーワード「おめで
たい」は言語的な要因が強く、画像特徴量とは関連をつ
けにくい。従って、画像特徴量を重視した検索を行なえ
ば、検索要求にそぐわない画像が提示される可能性が高
い。また例えば、検索要求としてキーワード「派手な」
が与えられた場合、キーワード「派手な」は画像特徴量
的な要因が強いため、画像に付与された内容語を重視し
て検索を行うと入力したキーワードの示す検索要求とは
そぐわない画像を提示してしまうことがある。或いは、
実際に「派手な」画像が検索結果からもれてしまうこと
がある。これに対して、本実施形態によれば、図4のご
ときユーザインターフェースを介して、検索語として
「おめでたい」を設定した際には連想語を重視するよう
に重みを設定し、「派手な」を設定した際には感性パタ
ーンを重視するように重みを設定すれば、いずれの検索
語に対しても精度良く検索を行なえることになる。もち
ろん、概念判別辞書205の連想重み83、感性パター
ン重み84を、適切に設定しておくことにより、図4の
ユーザインターフェースで「重みの規定値を使用」すべ
く指示するだけで、適切な検索を行なえるようになる。Further, according to the present embodiment, when a search based on a keyword assigned to an image and a search based on feature amount data of the image itself are integrated to obtain a search result, the weight ratio of the two searches is determined. Since the information can be changed according to words, desired desired information can be extracted with higher accuracy. For example, when the keyword "congratulations" is given as a search request, the keyword "congratulations" has a strong linguistic factor and is hardly associated with the image feature amount. Therefore, if a search is performed with emphasis on the image feature amount, there is a high possibility that an image that does not meet the search request will be presented. Also, for example, as a search request, the keyword “flashy”
Is given, the keyword “flashy” has a strong image feature amount, so if the search is performed with emphasis on the content words attached to the image, an image that does not match the search request indicated by the entered keyword is presented May be done. Or,
Actually, "flashy" images may leak from search results. On the other hand, according to the present embodiment, when “congratulations” is set as a search word via the user interface as shown in FIG. 4, the weight is set so as to emphasize the association word, and “flashy” is set. If the weight is set so that the sensitivity pattern is emphasized when is set, the search can be performed with high accuracy for any of the search words. Of course, by appropriately setting the association weight 83 and the sensibility pattern weight 84 of the concept determination dictionary 205, an appropriate search can be performed by simply instructing the user interface of FIG. Can be done.
【0098】以上の実施形態において、検索対象となる
蓄積情報として画像情報を用いて説明したが、画像情報
以外のマルチメディア情報(たとえば、オーディオ情
報)についても、情報特徴量抽出を行い、特徴量と感性
パターンとを対応づけることによって、同様に扱うこと
ができる。In the above embodiment, the description has been made using the image information as the storage information to be searched. For multimedia information (for example, audio information) other than the image information, the information feature is extracted and the feature is extracted. By associating with the sensibility pattern, it can be handled similarly.
【0099】また、以上の説明において、検索対象とな
る画像保持部218、画像内容語保持部219、感性パ
ターン保持部220は単一の装置を構成するDISK1
4に配置するものとして説明したが、これらの構成要件
を異なる装置に分散配置し、NIC19を介してネット
ワーク上で検索処理を行うようにすることも可能であ
る。In the above description, the image holding unit 218, the image content word holding unit 219, and the sensibility pattern holding unit 220 to be searched are the DISK 1 constituting a single device.
4, it is also possible to distribute these components to different devices and perform a search process on the network via the NIC 19.
【0100】なお、本発明は、複数の機器(例えばホス
トコンピュータ,インタフェイス機器,リーダ,プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機,ファクシミリ装置
など)に適用してもよい。The present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but can be applied to a single device (for example, a copier, a facsimile). Device).
【0101】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。An object of the present invention is to provide a system or an apparatus with a storage medium storing a program code of software for realizing the functions of the above-described embodiments, and to provide a computer (or CPU) of the system or the apparatus.
And MPU) read and execute the program code stored in the storage medium.
【0102】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
【0103】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。Examples of a storage medium for supplying the program code include a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, and CD.
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
【0104】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。The functions of the above-described embodiments are implemented when the computer executes the readout program codes, and the OS (Operating System) running on the computer is executed based on the instructions of the program codes. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.
【0105】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0106】[0106]
【発明の効果】以上説明したように、本発明によれば、
検索語に基づいて、検索対象の情報の特徴量データを用
いた検索と、検索対象の情報に付与された内容語を用い
た検索を行なって検索結果を得るので、与えられた検索
語に対して、目的とする情報を精度良く取り出すことが
可能となる。As described above, according to the present invention,
Based on the search term, a search using the feature data of the information to be searched and a search using the content word given to the information to be searched are performed to obtain a search result. As a result, it is possible to accurately extract desired information.
【0107】また、本発明によれば、検索対象の情報に
付与されたキーワードによる検索と、検索対象の情報そ
のものの特徴量データによる検索とを統合して検索結果
を得る際に、両検索の重みの比率を検索語に応じて変え
ることが可能となり、目的とする所望の情報を更に精度
よく取り出すことが可能になる。Further, according to the present invention, when a search by a keyword assigned to information to be searched and a search by feature amount data of the information to be searched are integrated to obtain a search result, both searches are performed. The ratio of the weight can be changed according to the search word, and the desired desired information can be extracted with higher accuracy.
【0108】[0108]
【図1】本実施形態の画像検索装置を構成するための情
報処理装置の構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an information processing apparatus for configuring an image search device according to an embodiment;
【図2】本実施形態の画像検索装置における処理構成を
図式化したブロック図である。FIG. 2 is a block diagram schematically illustrating a processing configuration in the image search device according to the embodiment;
【図3】検索要求入力処理201において入力された検
索要求語について、関連する検索観点を表示した例を示
す図である。FIG. 3 is a diagram illustrating an example in which a related search viewpoint is displayed for a search request word input in a search request input process 201;
【図4】検索要求入力処理201における、連想語によ
る検索重みと、感性パターンによる検索重みを指示する
ための、重み指定操作パネルの表示例を示す図である。FIG. 4 is a diagram showing a display example of a weight designation operation panel for designating a search weight based on an associative word and a search weight based on a feeling pattern in a search request input process 201;
【図5】画像IDと画像ファイル格納パスを対応づけた
画像保持部218のデータ構成を示す図である。FIG. 5 is a diagram illustrating a data configuration of an image holding unit 218 in which an image ID is associated with an image file storage path.
【図6】画像IDと画像内容語とを対応づけた画像内容
語保持部219のデータ構成例を示す図である。FIG. 6 is a diagram illustrating a data configuration example of an image content word holding unit 219 in which an image ID is associated with an image content word.
【図7】図6に示す画像内容語保持部のデータを、画像
内容語をキーとして画像IDのリストで格納したテーブ
ルを示す図である。7 is a diagram showing a table in which data of an image content word holding unit shown in FIG. 6 is stored in a list of image IDs using image content words as keys.
【図8】概念判別辞書205のデータ構成例を示した図
である。FIG. 8 is a diagram showing a data configuration example of a concept determination dictionary 205.
【図9】連想語辞書211のデータ構成例を示す図であ
る。FIG. 9 is a diagram showing a data configuration example of an associative word dictionary 211.
【図10】検索結果保持部216におけるデータ保持形
態を説明する図である。FIG. 10 is a diagram illustrating a data holding mode in a search result holding unit.
【図11】図2の展開感性パターン保持部213のデー
タ構成例を説明する図である。11 is a diagram illustrating an example of a data configuration of a development sensitivity pattern holding unit 213 in FIG.
【図12】図2におけるイメージ語−感性パターン対応
保持部215のデータ構成例を示す図である。12 is a diagram showing a data configuration example of an image word-kansei pattern correspondence holding unit 215 in FIG.
【図13】図2における感性パターン保持部220のデ
ータ構成を示す図である。FIG. 13 is a diagram illustrating a data configuration of a feeling pattern holding unit 220 in FIG. 2;
【図14】画像特徴量抽出処理によって一枚の画像から
画像特徴量を抽出した際に得られるデータ例を示す図で
ある。FIG. 14 is a diagram illustrating an example of data obtained when an image feature amount is extracted from one image by an image feature amount extraction process.
【図15】本実施形態における画像特徴量の例で、画像
の領域またはブロックごとに代表的な色を抽出したもの
である。FIG. 15 is an example of an image feature amount according to the present embodiment, in which representative colors are extracted for each area or block of an image.
【図16】図2における画像特徴量保持部222の記憶
例を示す図である。FIG. 16 is a diagram illustrating a storage example of an image feature amount holding unit 222 in FIG. 2;
【図17】図2における画像特徴量−感性パターンの対
応保持部223のデータ格納例を示す図である。17 is a diagram illustrating an example of data storage in an image feature amount-kansei pattern correspondence holding unit 223 in FIG. 2;
【図18】本発明の動作を説明したフローチャートであ
る。FIG. 18 is a flowchart illustrating the operation of the present invention.
【図19】検索要求入力処理201(図18のステップ
S1)の詳細を示すフローチャートである。FIG. 19 is a flowchart showing details of a search request input process 201 (step S1 in FIG. 18).
【図20】連想語展開処理208及び連想語による画像
内容語検索処理210(図18のステップS4)の詳細
を示すフローチャートである。20 is a flowchart showing details of an associative word expansion process 208 and an image content word search process 210 using an associative word (step S4 in FIG. 18).
【図21】感性パターン展開処理212、感性パターン
検索処理214及び検索結果統合処理217の詳細を示
すフローチャートである。FIG. 21 is a flowchart illustrating details of a sensitivity pattern development process 212, a sensitivity pattern search process 214, and a search result integration process 217.
【図22】画像登録時に行われる検索の前処理の一例を
示すフローチャートである。FIG. 22 is a flowchart illustrating an example of pre-processing of search performed at the time of image registration.
フロントページの続き Fターム(参考) 5B050 EA06 EA08 EA09 GA08 5B075 ND06 ND16 NK02 NK07 NK08 NK31 NK46 PP03 PP13 PP28 PQ02 QM08 QM10 QS15 QS20 UU40 Continued on the front page F term (reference) 5B050 EA06 EA08 EA09 GA08 5B075 ND06 ND16 NK02 NK07 NK08 NK31 NK46 PP03 PP13 PP28 PQ02 QM08 QM10 QS15 QS20 UU40
Claims (17)
する情報検索装置であって、 前記検索語に基づいて検索キーワードを決定し、該検索
キーワードに基づいて情報の検索を行なう第1検索手段
と、 前記検索語に対応する特徴量を決定し、該特徴量に基づ
いて情報の検索を行なう第2検索手段と、 前記第1検索手段と前記第2検索手段による検索結果に
割り当てる検索重みを設定する設定手段と、 前記第1及び第2検索手段によって得られた検索結果を
前記設定手段で設定された検索重みに従って統合する統
合手段とを備えることを特徴とする情報検索装置。1. An information retrieval apparatus for retrieving information based on an input search term, wherein a first search is performed in which a search keyword is determined based on the search term, and information is retrieved based on the search keyword. Means, a feature value corresponding to the search term, a second search means for searching for information based on the feature value, and a search weight assigned to a search result by the first search means and the second search means An information search apparatus comprising: a setting unit configured to set the search result; and an integrating unit configured to integrate search results obtained by the first and second search units in accordance with a search weight set by the setting unit.
検索結果に対応する第1重みと、前記第2の検索手段の
検索結果に対応する第2重みを含み、 前記統合手段は、前記第1検索手段の検索結果である各
情報の検索一致度に前記第1重みを作用させ、前記第2
検索手段の検索結果である各情報の検索一致度に前記第
2重みを作用させて総合的な検索一致度を求め、該総合
的な検索一致度に基づいて検索の統合結果を得ることを
特徴とする請求項1に記載の情報検索装置。2. The search weight includes a first weight corresponding to a search result of the first search means, and a second weight corresponding to a search result of the second search means. The first weight is applied to the search matching degree of each piece of information that is the search result of the first search means,
The second weight is applied to the search agreement of each piece of information, which is the search result of the search means, to obtain a comprehensive search agreement, and an integrated search result is obtained based on the overall search agreement. The information retrieval device according to claim 1, wherein
度の大きい順に所定数の情報を選択し、これらを検索の
統合結果とすることを特徴とする請求項2に記載の情報
検索装置。3. The information search apparatus according to claim 2, wherein the integration unit selects a predetermined number of pieces of information in descending order of the overall search matching degree, and uses them as search integration results. .
手段の各検索結果に対して、所望の重み比率をユーザが
設定可能とすることを特徴とする請求項1に記載の情報
検索装置。4. The information search method according to claim 1, wherein the setting means enables a user to set a desired weight ratio for each search result of the first and second search means. apparatus.
索手段に対する重みを登録した重み辞書を備え、 前記設定手段は、前記重み辞書を参照して重みの設定を
行なうことを特徴とする請求項1に記載の情報検索装
置。5. A weight dictionary in which weights for the first and second search means are registered with respect to the search word, and wherein the setting means sets weights by referring to the weight dictionary. Item 2. The information retrieval device according to item 1.
する連想語を派生して、該検索語と派生した連想語とを
検索キーワードとし、 前記検索重み辞書は、各検索語について、検索語と連想
語を結びつける連想の観点毎に重みを登録し、 前記設定手段は、検索語と、ユーザによって指定された
連想の観点とから前記検索重み辞書を参照して重みの設
定を行なうことを特徴とする請求項5に記載の情報検索
装置。6. The first search means derives an associative word related to the search word, and uses the search word and the derived associative word as search keywords. The search weight dictionary includes: Registering a weight for each association viewpoint that associates a search word with an association word; and the setting unit sets the weight by referring to the search weight dictionary from the search word and the association viewpoint specified by the user. The information retrieval device according to claim 5, wherein:
あり、前記特徴量が画像情報を解析して得られる物理的
な画像特徴量であることを特徴とする請求項1乃至6の
いずれかに記載の情報検索装置。7. The multimedia information according to claim 1, wherein the multimedia information is image information, and the feature amount is a physical image feature amount obtained by analyzing the image information. Described information retrieval device.
報或いは形状情報の少なくとも一つを含むことを特徴と
する請求項7に記載の情報検索装置。8. The information retrieval apparatus according to claim 7, wherein the feature amount includes at least one of color arrangement information, composition information, and shape information of the image.
する情報検索方法であって、 前記検索語に基づいて検索キーワードを決定し、該検索
キーワードに基づいて情報の検索を行なう第1検索工程
と、 前記検索語に対応する特徴量を決定し、該特徴量に基づ
いて情報の検索を行なう第2検索工程と、 前記第1検索工程と前記第2検索工程による検索結果に
割り当てる検索重みを設定する設定工程と、 前記第1及び第2検索工程によって得られた検索結果を
前記設定工程で設定された検索重みに従って統合する統
合工程とを備えることを特徴とする情報検索方法。9. An information search method for searching for information based on an input search term, wherein a first search term is determined based on the search term and information is searched based on the search keyword. A second search step of determining a feature amount corresponding to the search word and searching for information based on the feature amount; and a search weight assigned to search results obtained by the first search step and the second search step. And an integration step of integrating the search results obtained in the first and second search steps according to the search weight set in the setting step.
の検索結果に対応する第1重みと、前記第2の検索工程
の検索結果に対応する第2重みを含み、 前記統合工程は、前記第1検索工程の検索結果である各
情報の検索一致度に前記第1重みを作用させ、前記第2
検索工程の検索結果である各情報の検索一致度に前記第
2重みを作用させて総合的な検索一致度を求め、該総合
的な検索一致度に基づいて検索の統合結果を得ることを
特徴とする請求項9に記載の情報検索方法。10. The search weight includes a first weight corresponding to a search result of the first search step, and a second weight corresponding to a search result of the second search step. The first weight is applied to the search matching degree of each piece of information as the search result of the first search step,
The second weight is applied to the search agreement of each piece of information, which is the search result of the search step, to obtain a comprehensive search agreement, and an integrated search result is obtained based on the overall search agreement. The information search method according to claim 9, wherein
致度の大きい順に所定数の情報を選択し、これらを検索
の統合結果とすることを特徴とする請求項10に記載の
情報検索方法。11. The information search method according to claim 10, wherein in the integration step, a predetermined number of pieces of information are selected in descending order of the overall search matching degree, and these are used as search integration results. .
索工程の各検索結果に対して、所望の重み比率をユーザ
が設定可能とすることを特徴とする請求項9に記載の情
報検索方法。12. The information search according to claim 9, wherein the setting step enables a user to set a desired weight ratio for each search result of the first and second search steps. Method.
検索工程に対する重みを登録した重み辞書を備え、 前記設定工程は、前記重み辞書を参照して重みの設定を
行なうことを特徴とする請求項9に記載の情報検索方
法。13. The method according to claim 1, wherein the first and second search terms are related to the search term.
The information search method according to claim 9, further comprising a weight dictionary in which weights for the search step are registered, wherein the setting step sets weights with reference to the weight dictionary.
連する連想語を派生して、該検索語と派生した連想語と
を検索キーワードとし、 前記検索重み辞書は、各検索語について、検索語と連想
語を結びつける連想の観点毎に重みを登録し、 前記設定工程は、検索語と、ユーザによって指定された
連想の観点とから前記検索重み辞書を参照して重みの設
定を行なうことを特徴とする請求項13に記載の情報検
索方法。14. The first search step derives an associative word related to the search word, and uses the search word and the derived associative word as search keywords. The search weight dictionary includes: Registering a weight for each association viewpoint that associates a search word and an association word; and setting the weight by referring to the search weight dictionary from the search word and the association viewpoint specified by the user. 14. The information retrieval method according to claim 13, wherein:
であり、前記特徴量が画像情報を解析して得られる物理
的な画像特徴量であることを特徴とする請求項9乃至1
4のいずれかに記載の情報検索方法。15. The multimedia information is image information, and the feature amount is a physical image feature amount obtained by analyzing the image information.
4. The information search method according to any one of 4.
情報或いは形状情報の少なくとも一つを含むことを特徴
とする請求項15に記載の情報検索方法。16. The information search method according to claim 15, wherein the feature amount includes at least one of color arrangement information, composition information, and shape information of the image.
基づいて情報を検索させるための制御プログラムを格納
する記憶媒体であって、該制御プログラムが、 前記検索語に基づいて検索キーワードを決定し、該検索
キーワードに基づいて情報の検索を行なう第1検索工程
のコードと、 前記検索語に対応する特徴量を決定し、該特徴量に基づ
いて情報の検索を行なう第2検索工程のコードと、 前記第1検索工程と前記第2検索工程による検索結果に
割り当てる検索重みを設定する設定工程のコードと、 前記第1及び第2検索工程によって得られた検索結果を
前記設定工程で設定された検索重みに従って統合する統
合工程のコードとを備えることを特徴とする記憶媒体。17. A storage medium for storing a control program for causing a computer to search for information based on an input search word, wherein the control program determines a search keyword based on the search word, A code for a first search step for searching for information based on the search keyword; a code for a second search step for determining a feature amount corresponding to the search word and searching for information based on the feature amount; A code of a setting step for setting a search weight to be assigned to the search results of the first search step and the second search step; and a search result obtained in the first and second search steps, the search being set in the setting step. A code for an integration step of integrating according to the weight.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27872598A JP4065470B2 (en) | 1998-09-30 | 1998-09-30 | Information retrieval apparatus and control method thereof |
EP99307708A EP0990998A3 (en) | 1998-09-30 | 1999-09-29 | Information search apparatus and method |
US09/409,090 US6526400B1 (en) | 1998-09-30 | 1999-09-30 | Information search apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27872598A JP4065470B2 (en) | 1998-09-30 | 1998-09-30 | Information retrieval apparatus and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000112959A true JP2000112959A (en) | 2000-04-21 |
JP4065470B2 JP4065470B2 (en) | 2008-03-26 |
Family
ID=17601339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27872598A Expired - Fee Related JP4065470B2 (en) | 1998-09-30 | 1998-09-30 | Information retrieval apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4065470B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7349895B2 (en) | 2000-10-30 | 2008-03-25 | Microsoft Corporation | Semi-automatic annotation of multimedia objects |
JP2008171299A (en) * | 2007-01-15 | 2008-07-24 | Fujifilm Corp | Content retrieval device, content registeration device, and method |
US7499916B2 (en) | 2000-10-30 | 2009-03-03 | Microsoft Corporation | Image retrieval systems and methods with semantic and feature based relevance feedback |
JP2010049300A (en) * | 2008-08-19 | 2010-03-04 | Olympus Imaging Corp | Image retrieval system, image retrieval method, and program for image retrieval |
US7970763B2 (en) * | 2006-02-21 | 2011-06-28 | Microsoft Corporation | Searching and indexing of photos based on ink annotations |
WO2013021888A1 (en) * | 2011-08-05 | 2013-02-14 | 楽天株式会社 | Color determination device, color determination system, color determination method, information recording medium, and program |
WO2013021889A1 (en) * | 2011-08-05 | 2013-02-14 | 楽天株式会社 | Color name determination device, color name determination method, information recording medium, and program |
JP2013145587A (en) * | 2013-03-22 | 2013-07-25 | Olympus Imaging Corp | Image search system |
KR20140123000A (en) | 2013-04-11 | 2014-10-21 | 더 보잉 컴파니 | Identifying contextual results within associative memories |
-
1998
- 1998-09-30 JP JP27872598A patent/JP4065470B2/en not_active Expired - Fee Related
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7627556B2 (en) * | 2000-10-30 | 2009-12-01 | Microsoft Corporation | Semi-automatic annotation of multimedia objects |
US7349895B2 (en) | 2000-10-30 | 2008-03-25 | Microsoft Corporation | Semi-automatic annotation of multimedia objects |
US7499916B2 (en) | 2000-10-30 | 2009-03-03 | Microsoft Corporation | Image retrieval systems and methods with semantic and feature based relevance feedback |
US7529732B2 (en) | 2000-10-30 | 2009-05-05 | Microsoft Corporation | Image retrieval systems and methods with semantic and feature based relevance feedback |
US7970763B2 (en) * | 2006-02-21 | 2011-06-28 | Microsoft Corporation | Searching and indexing of photos based on ink annotations |
JP2008171299A (en) * | 2007-01-15 | 2008-07-24 | Fujifilm Corp | Content retrieval device, content registeration device, and method |
JP2010049300A (en) * | 2008-08-19 | 2010-03-04 | Olympus Imaging Corp | Image retrieval system, image retrieval method, and program for image retrieval |
WO2013021888A1 (en) * | 2011-08-05 | 2013-02-14 | 楽天株式会社 | Color determination device, color determination system, color determination method, information recording medium, and program |
WO2013021889A1 (en) * | 2011-08-05 | 2013-02-14 | 楽天株式会社 | Color name determination device, color name determination method, information recording medium, and program |
JP5259893B1 (en) * | 2011-08-05 | 2013-08-07 | 楽天株式会社 | Color determination device, color determination system, color determination method, information recording medium, and program |
JP5259894B1 (en) * | 2011-08-05 | 2013-08-07 | 楽天株式会社 | Color name determination device, color name determination method, information recording medium, and program |
JP2013145587A (en) * | 2013-03-22 | 2013-07-25 | Olympus Imaging Corp | Image search system |
KR20140123000A (en) | 2013-04-11 | 2014-10-21 | 더 보잉 컴파니 | Identifying contextual results within associative memories |
JP2014206974A (en) * | 2013-04-11 | 2014-10-30 | ザ・ボーイング・カンパニーTheBoeing Company | Identifying contextual results within associative memories |
KR102168807B1 (en) | 2013-04-11 | 2020-10-23 | 더 보잉 컴파니 | Identifying contextual results within associative memories |
Also Published As
Publication number | Publication date |
---|---|
JP4065470B2 (en) | 2008-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6526400B1 (en) | Information search apparatus and method | |
US6856987B2 (en) | Information search apparatus and method, and computer readable memory | |
US6493692B1 (en) | Information search apparatus and method, and computer readable memory | |
US7392233B2 (en) | Image searching system, image searching method, and a recording medium storing an image searching program | |
US6330576B1 (en) | User-friendly information processing device and method and computer program product for retrieving and displaying objects | |
JPH07160731A (en) | Method and device for picture retrieval | |
JP2004348591A (en) | Document search method and device thereof | |
JP4065470B2 (en) | Information retrieval apparatus and control method thereof | |
JP4054428B2 (en) | Image search apparatus and method, and computer-readable memory | |
JP2012008874A (en) | Image selection device, method and program | |
JP4086377B2 (en) | Information retrieval apparatus and method | |
JPH1115834A (en) | Picture processor and its controlling method | |
JP2007140897A (en) | Image search device and method, and program | |
JP2004334341A (en) | Document retrieval system, document retrieval method, and recording medium | |
JP3578651B2 (en) | Document retrieval system, document retrieval method, and computer-readable recording medium recording program for executing the method | |
JP2000112958A (en) | Information retrieval device/method and computer readable memory | |
JP4289891B2 (en) | Information search device, information search method and program | |
JP2002117071A (en) | Method and device for information retrieval and storage medium | |
JP2000112961A (en) | Information retrieval device/method and computer readable memory | |
JP2002175328A (en) | Method and device for retrieving information and storage medium | |
JP2000112957A (en) | Information retrieval device/method and computer readable memory | |
JP2000194704A (en) | Device and method for retrieving information and computer readable memory | |
JP2005056438A (en) | Information search apparatus and method, and computer-readable memory | |
JP2002175317A (en) | Method and device for retrieving information and storage medium | |
JPH10326279A (en) | Processor and method for information processing and recording medium for information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040604 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20040604 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070921 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080105 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110111 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120111 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130111 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140111 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |