JP3649264B2 - Image search device, image search method, keyword extraction device, and keyword extraction method - Google Patents

Image search device, image search method, keyword extraction device, and keyword extraction method Download PDF

Info

Publication number
JP3649264B2
JP3649264B2 JP18943397A JP18943397A JP3649264B2 JP 3649264 B2 JP3649264 B2 JP 3649264B2 JP 18943397 A JP18943397 A JP 18943397A JP 18943397 A JP18943397 A JP 18943397A JP 3649264 B2 JP3649264 B2 JP 3649264B2
Authority
JP
Japan
Prior art keywords
image
keyword
image data
feature amount
image feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18943397A
Other languages
Japanese (ja)
Other versions
JPH1139317A (en
Inventor
秀行 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP18943397A priority Critical patent/JP3649264B2/en
Publication of JPH1139317A publication Critical patent/JPH1139317A/en
Application granted granted Critical
Publication of JP3649264B2 publication Critical patent/JP3649264B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像検索装置、画像検索方法、キーワード抽出装置およびキーワード抽出方法に関し、特に、画像データをキーワードにより、簡単かつ確実に、検索することができるようにした、画像検索装置、画像検索方法、キーワード抽出装置およびキーワード抽出方法に関する。
【0002】
【従来の技術】
従来、画像を検索する方法として、パターンマッチングによる方法と、キーワードを利用する方法とが知られている。
【0003】
パターンマッチングによる方法においては、画像データが、画素単位でマッチングするか否かが判定される。
【0004】
これに対して、キーワードを用いる方法においては、各画像毎に、適当なキーワードをユーザが入力し、画像を検索するとき、画像を入力するのではなく、キーワードを入力し、そのキーワードが対応されている画像を検索するようにしている。
【0005】
【発明が解決しようとする課題】
しかしながら、パターンマッチングによる方法は、検索に時間がかかる課題がある。
【0006】
これに対して、キーワードを用いる方法は、検索は迅速に行うことができるが、そのデータベースを管理する管理者が、各画像毎にキーワードを設定する操作が必要となり、データベースを作成し、維持するのに大きな労力が必要となる。また、検索は、管理者が使用したキーワードを用いて行う必要があるため、自由な用語を用いて検索を行うことができない課題があった。
【0007】
さらにまた、管理者が設定するキーワードが適切でないと、所望の画像を検索することができなくなってしまい、キーワードの設定操作が、検索の精度に大きく影響する課題があった。
【0008】
本発明はこのような状況に鑑みてなされたものであり、簡単かつ確実に、所望の画像を検索することができるようにするものである。
【0009】
【課題を解決するための手段】
請求項1に記載の画像検索装置は、画像特徴量とキーワードとの関係を記憶する記憶手段と、記憶手段に記憶されている画像特徴量とキーワードとの関係を参照して、入力されたキーワードを、対応する画像特徴量に変換するキーワード変換手段と、データベースに記憶されている画像データを、複数の領域に分割する分割手段と、複数の領域について、各領域の画像データを画像特徴量に変換する画像変換手段と、各領域の画像データの画像特徴量と、キーワード変換手段により変換された画像特徴量とを比較する比較手段と、比較手段の比較結果に対応して、データベースから画像データを検索する検索手段とを備えることを特徴とする。
【0011】
画像特徴量またはキーワードには優先度を設定し、その優先度に対応して検索を行わせるようにすることができる。
【0012】
画像特徴量が、色情報と形状情報とを含む場合、所定のモードが設定されたとき、色情報と形状情報のうちの一方だけで検索を行うようにすることできる。
【0013】
1つのキーワードには、複数の画像特徴量を対応させたり、また、1つの画像特徴量には、複数のキーワードを対応させることができる。
【0014】
請求項5に記載の画像検索方法は、画像特徴量とキーワードとの関係を記憶する記憶手段に記憶されている画像特徴量とキーワードとの関係を参照して、入力されたキーワードを、対応する画像特徴量に変換するキーワード変換ステップと、データベースに記憶されている画像データを、複数の領域に分割する分割ステップと、複数の領域について、各領域の画像データを画像特徴量に変換する画像変換ステップと、各領域の画像データの画像特徴量と、キーワード変換ステップで変換された画像特徴量とを比較する比較ステップと、比較ステップでの比較結果に対応して、データベースから画像データを検索する検索ステップとを含むことを特徴とする。
【0015】
請求項6に記載の画像検索装置は、画像データを色を基準にして複数の領域に分割する分割手段と、複数の領域について、各領域の画像データの形状情報を抽出する形状情報抽出手段と、複数の領域について、各領域の画像データの色情報を抽出する色情報抽出手段と、各領域の画像データの形状情報と、入力された形状情報とを比較する形状情報比較手段と、各領域の画像データの色情報と、入力された色情報とを比較する色情報比較手段と、形状情報比較手段と色情報比較手段による比較結果に対応して、データベースから画像データを検索する検索手段とを備えることを特徴とする。
【0016】
この分割手段には、画像の解像度を低下させた後、同一の色の領域毎に分割を行わせるようにすることができる。
【0017】
請求項8に記載の画像検索方法は、画像データを色を基準にして複数の領域に分割する分割ステップと、複数の領域について、各領域の画像データの形状情報を抽出する形状情報抽出ステップと、複数の領域について、各領域の画像データの色情報を抽出する色情報抽出ステップと、各領域の画像データの形状情報と、入力された形状情報とを比較する形状情報比較ステップと、各領域の画像データの色情報と、入力された色情報とを比較する色情報比較ステップと、形状情報比較ステップと色情報比較ステップによる比較結果に対応して、データベースから画像データを検索する検索ステップとを含むことを特徴とする。
【0018】
請求項9に記載のキーワード抽出装置は、キーワードと画像特徴量との対応関係を表すテーブルを記憶するテーブル記憶手段と、入力された画像データを複数の領域に分割する分割手段と、複数の領域について、各領域の画像データを画像特徴量に変換する画像変換手段と、テーブルを参照して、各領域の画像データの画像特徴量に対応するキーワードを検索する検索手段とを備えることを特徴とする。
【0019】
キーワードが対応する関連キーワードを選択する、キーワード選択手段をさらに設けることができる。
【0020】
請求項11に記載のキーワード抽出方法は、入力された画像データを複数の領域に分割する分割ステップと、複数の領域について、各領域の画像データを画像特徴量に変換する画像変換ステップと、キーワードと画像特徴量との対応関係を表すテーブルを記憶している記憶手段に記憶されているテーブルを参照して、各領域の画像データの画像特徴量に対応するキーワードを検索する検索ステップとを含むことを特徴とする。
【0021】
請求項1に記載の画像検索装置および請求項5に記載の画像検索方法においては、データベースに記憶されている画像データが画像特徴量に変換される。また、画像特徴量とキーワードとの関係が記憶されており、この記憶されている関係を参照して、入力されたキーワードが、対応する画像特徴量に変換される。画像データから変換された画像特徴量と、キーワードから変換された画像特徴量とが比較され、その比較結果に対応して、データベースから画像データが検索される。
【0022】
請求項6に記載の画像検索装置および請求項8に記載の画像検索方法においては、画像が複数の領域に分割され、分割された画像の形状情報と色情報が抽出される。そして、抽出された形状情報と色情報に対応して、データベースから画像データが検索される。
【0023】
請求項9に記載のキーワード抽出装置および請求項11に記載のキーワード抽出方法においては、キーワードと画像特徴量との対応関係を表すテーブルが記憶されており、このテーブルを参照して、画像特徴量が対応するキーワードに変換され、変換されたキーワードが出力される。
【0024】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。
【0025】
請求項1に記載の画像検索装置は、画像特徴量とキーワードとの関係を記憶する記憶手段(例えば、図2の画像特徴データベース24)と、記憶手段に記憶されている画像特徴量とキーワードとの関係を参照して、入力されたキーワードを、対応する画像特徴量に変換するキーワード変換手段(例えば、図5のステップS2)と、データベースに記憶されている画像データを複数の領域に分割する分割手段(例えば、図12のステップS61)と複数の領域について、各領域の画像データを画像特徴量に変換する画像変換手段(例えば、図5のステップS6)と、画像変換手段により変換された各領域の画像データの画像特徴量と、キーワード変換手段により変換された画像特徴量とを比較する比較手段(例えば、図5のステップS8)と、比較手段の比較結果に対応して、データベースから画像データを検索する検索手段(例えば、図5のステップS10)とを備えることを特徴とする。
【0027】
請求項6に記載の画像検索装置は、画像データを色を基準にして複数の領域に分割する分割手段(例えば、図12のステップS61)と、分割手段により分割された複数の領域について、各領域の画像データの形状情報を抽出する形状情報抽出手段(例えば、図12のステップS64)と、分割手段により分割された複数の領域について、各領域の画像データの色情報を抽出する色情報抽出手段(例えば、図12のステップS63)と、形状情報抽出手段により抽出された各領域の画像データの形状情報と、入力された形状情報とを比較する形状情報比較手段(例えば、図15のステップS83)と、色情報抽出手段により抽出された各領域の画像データの色情報と、入力された色情報とを比較する色情報比較手段(例えば、図15のステップS84)と、形状情報比較手段と色情報比較手段による比較結果に対応して、データベースから画像データを検索する検索手段(例えば、図5のステップS10)とを備えることを特徴とする。
【0028】
請求項9に記載のキーワード抽出装置は、キーワードと画像特徴量との対応関係を表すテーブルを記憶するテーブル記憶手段(例えば、図2の画像特徴データベース24)と、入力された画像データを複数の領域に分割する分割手段(例えば、図12のステップS61)と、複数の領域について、各領域の画像データを画像特徴量に変換する画像変換手段(例えば、図5のステップS6)と、テーブルを参照して、各領域の画像データの画像特徴量を対応するキーワードに変換する変換手段(例えば、図19のステップS112)と、変換手段により変換されたキーワードを出力する出力手段(例えば、図19のステップS119)とを備えることを特徴とする。
【0029】
図1は、本発明の画像検索装置の構成例を表している。キーボード1は、文字を入力するとき、ユーザにより操作される。タブレット2は、ペン2Aで、その上を操作することで、例えば、検索すべき画像が入力される。再生装置3は、固体メモリ、ディスク、テープなどの記録媒体に記録されている画像データを再生する。ディスプレイ4は、画像を表示する。インタフェース5は、これらのキーボード1乃至ディスプレイ4と、制御回路10の間のインタフェース処理を行う。制御回路10は、例えば、マイクロコンピュータなどにより構成され、各部を制御する。
【0030】
キーワード画像特徴量変換装置6は、キーワードを画像特徴量に変換したり、あるいは逆に、画像特徴量をキーワードに変換する処理を行う。画像データ画像特徴量変換装置7は、画像データを画像特徴量に変換する処理を行う。特徴量マッチング装置8は、キーワード画像特徴量変換装置6、または画像データ画像特徴量変換装置7より供給された画像特徴量を、画像データベース9より読み出された画像特徴量と比較する処理を行う。画像データベース9は、複数の画像の画像データをデータベースとして記憶している。
【0031】
なお、これらのキーワード画像特徴量変換装置6乃至画像データベース9は、ハードウェアにより構成することもできるが、ソフトウェアプログラムにより構成することもできる。
【0032】
図2は、キーワード画像特徴量変換装置6の構成例を表している。関連キーワード出力装置21は、関連キーワードデータベース23に接続されており、キーワードが入力されたとき、それに関連する関連キーワードを検索し、出力するようになされている。関連キーワードデータベース23には、所定のキーワードに対応する関連キーワードがデータベースとして登録されている。文字画像変換装置22は、画像特徴データベース24に接続されており、キーワードが入力されると、画像特徴データベース24を参照して、そのキーワードに対応する画像特徴量を出力するかまたはその逆に、画像特徴量が入力されると、対応するキーワードを検索し、出力するようになされている。画像特徴データベース24には、キーワードと画像特徴量の対応関係を表す変換テーブルが記憶されている。
【0033】
図3は、画像データ画像特徴量変換装置7の構成例を表している。領域分割装置31は、入力された画像データを複数の領域に分割し、各領域の画像データを色情報抽出装置32と形状情報抽出装置33に出力している。色情報抽出装置32と形状情報抽出装置33は、領域分割装置31より入力された各領域毎の画像データから色情報よりなる画像特徴または形状情報よりなる画像特徴量を抽出し、出力するようになされている。
【0034】
図4は、特徴量マッチング装置8の構成例を表している。形状情報比較装置41は、キーワード画像特徴量変換装置6、または画像データ画像特徴量変換装置7が出力した形状情報と、画像データベース9より読み出された形状情報とを比較し、その比較結果(形状類似度)を類似度統合部43に出力するようになされている。また、色情報比較装置42は、キーワード画像特徴量変換装置6、または画像データ画像特徴量変換装置7が出力する色情報と、画像データベース9より読み出された色情報とを比較し、その比較結果(色類似度)を、類似度統合部43に出力している。類似度統合部43は、形状情報比較装置41より供給される形状類似度と、色情報比較装置42より供給される色類似度とを統合して、総合類似度とし、判定部44に出力している。判定部44は、総合類似度の値から、2つの画像の類似度を判定し、判定結果を制御回路10に出力するようになされている。
【0035】
次に、図5のフローチャートを参照して、画像検索処理について説明する。いま、この処理で、所定のキーワードを入力して、そのキーワードに対応する画像を検索するものとする。
【0036】
最初に、ステップS1において、ユーザは、キーボード1を操作し、所定のキーワード(例えば「自然」)を入力する。制御回路10は、インタフェース5を介して、このキーワードの入力を受けたとき、ステップS2において、このキーワードをキーワード画像特徴量変換装置6に供給し、キーワード画像特徴量変換処理を実行させる。この処理の詳細は、図6のフローチャートに示されている。
【0037】
すなわち、キーワード画像特徴量変換装置6は、ステップS21において、関連キーワード出力処理を実行する。この関連キーワード出力処理の詳細は、図7のフローチャートに示されている。
【0038】
最初に、ステップS41において、関連キーワード出力装置21は、制御回路10からキーワードが供給されてきたとき、このキーワードを初期キーワードに設定する。いまの場合、「自然」のキーワードが初期キーワードとして設定される。
【0039】
次に、ステップS42に進み、関連キーワード出力装置21は、ステップS41で設定した初期キーワードを親キーワードとして設定する。ステップS43においては、親キーワードに対して子キーワードが検索される。すなわち、関連キーワード出力装置21は、関連キーワードデータベース23を参照して、「自然」を親キーワードとする子キーワードを検索する。これにより、例えば、図8に示すように、「自然」の親キーワード(初期キーワード)に対して、「海」、「山」、および「空」の3つの第1ランクの子キーワード(関連キーワード)が検索される。
【0040】
次にステップS44において、関連キーワード出力装置21は、子キーワードが第3ランクに達したか否かを判定する。いまの場合、第1ランクの子キーワードが検索されただけであるので、NOの判定が行われ、ステップS45に進む。ステップS45においては、子キーワードが、親キーワードにシフトされる。いまの場合、例えば「海」の子キーワードが、親キーワードに設定される。
【0041】
次に、ステップS43に戻り、「海」の親キーワードに対する子キーワードが、関連キーワードデータベース23から検索される。これにより、例えば、図8に示すように、「山」、「川」、および「魚」の子キーワードが検索される。
【0042】
ステップS45においては、他のキーワード「山」と「空」も、それぞれ親キーワードに設定される。その結果、ステップS43においては、「山」の親キーワードに対する子キーワードと、「空」の親キーワードに対応する子キーワードが検索される。図8の表示例においては、「山」の親キーワードに対して、「森」、「川」、および「自然」の子キーワードが検索され、「空」の親キーワードに対して、「青」、「海」、および「地球」の子キーワードが検索されている。以上により、第2ランクの子キーワードが検索されたことになる。
【0043】
次に、ステップS44に進み、子キーワードが第3ランクに達したか否かが判定される。いまの場合、まだ達していないので、再び、ステップS45とステップS43の処理が実行され、図8に示すように、第2ランクのキーワードを親キーワードとする第3ランクの子キーワードが検索される。このようにして、第3ランクまでの検索が行われると、合計40個(=1+3+9+27)のキーワード(但し、中には同一のキーワードもある)が検索される。
【0044】
ステップS44において、第3ランクまでの子キーワードが検索されたと判定された場合、ステップS46に進み、関連キーワードに重み付けを行い、関連度を算出する処理が実行される。
【0045】
ここでは、初期キーワードは関連度が8とされ、第1ランクの関連キーワードは関連度が4とされ、第2ランクのキーワードは関連度が2とされ、第3ランクのキーワードは関連度が1とされる。そして、同一のキーワードが複数のランクで重複して現れている場合、また、同一のランクにおいて、同一のキーワードが重複して現れている場合には、それぞれの関連度の値が加算されて、そのキーワードの関連度とされる。
【0046】
例えば、図8の例においては、初期キーワードから第2ランクまでの間において、「自然」のキーワードは、初期キーワードと第2ランクに1回ずつ現れる。従って、「自然」の関連度は10(=8+2)とされる。
【0047】
「海」のキーワードは、第1ランクにおいて1回出現し、第2ランクにおいても1回出現している。そこで、この「海」の関連度は、6(=4+2)とされる。「川」のキーワードは、第2ランクにおいて2回出現しているので、その関連度は4(=2+2)とされる。
【0048】
「地球」のキーワードは、第2ランクにおいて1回出現するだけなので、その関連度は2とされる。
【0049】
以上のようにして、出現したすべてのキーワードに対する関連度の算出が行われたとき、ステップS47において、関連キーワード出力装置21は、関連度の高い順に5個のキーワードを選択する。そして、ステップS48において、選択した関連キーワードを出力する。
【0050】
以上のようにして、図6のステップS21の関連キーワード出力処理が完了したとき、関連キーワード出力装置21は、ステップS22で、ステップS21で選択した5個の関連キーワードを文字画像変換装置22に出力する。文字画像変換装置22は、関連キーワード出力装置21から5個の間連キーワードの供給を受けたとき、ステップS23において、画像特徴データベース24を参照して、文字画像変換処理を実行する。
【0051】
画像特徴データベース24には、例えば、図9に示すように、キーワードと画像特徴量が対応付けて、変換テーブルとして記憶されている。画像特徴量は、色情報と形状情報に区分されている。
【0052】
図10と図11は、画像特徴データベースのキーワードと画像特徴量の対応関係の例を表している。図10は、「山」のキーワードに、色情報として「緑」が、また、形状情報として「三角形」が、それぞれ対応されている。
【0053】
図11の例においては、「海」のキーワードに対して、「青」の色情報と、「四角形」の形状情報が対応されている。
【0054】
文字画像変換装置22は、関連キーワード出力装置21から供給された5個の間連キーワードに対応する画像特徴量(形状情報と色情報)を画像特徴データベース24から検索し、ステップS24で、その検索の結果得られた画像特徴量を、入力された関連キーワードに対応する画像特徴量として出力する。
【0055】
以上のようにして、図5のステップS2のキーワード画像特徴量変換処理が行われたとき、ステップS3において、文字画像変換装置22が検索した画像特徴量が、特徴量マッチング装置8に供給される。
【0056】
一方、画像検索が指令されたとき、以上のステップS1乃至S3の処理と並行して、ステップS4乃至S7の処理が実行される。ステップS4においては、制御回路10は、画像データベース9を制御し、そこに記憶されている画像データの読み出しを指令する。画像データベース9は、この指令に対応して、ステップS5において画像データを読み出し、これを画像データ画像特徴量変換装置7に供給する。画像データ画像特徴量変換装置7は、画像データの供給を受けたとき、ステップS6において、画像データ画像特徴量変換処理を実行する。この画像データ画像特徴量変換処理の詳細は、図12に示されている。
【0057】
最初にステップS61において、画像データ画像特徴量変換装置7は、画像データベース9からの画像データの供給を受けると、ステップS61において、領域分割処理を実行する。すなわち、領域分割装置31は、入力された画像データを複数の領域に分割する処理を行う。図13は、この領域分割処理の例を表している。いま、例えば、画像データベース9から、木々で覆われ、緑色の山の左上に、赤い太陽が、空色の空の中に浮かんでいる画像が供給されたものとする。この画像においてはまた、山の下に茶色の大地が展開しており、その上に青色の川が流れている。
【0058】
領域分割装置31は、この画像を、同一の色が同一の領域に属するように、複数の領域に分割する。すなわち、この例の場合、赤色の領域(太陽)、空色の領域(空)、緑色の領域(山)、茶色の領域(大地)、および青色の領域(川)の5個の領域に分割される。
【0059】
図12に戻って、ステップS61で領域分割処理により得られた各領域毎の画像データは、ステップS62で、色情報抽出装置32と形状情報抽出装置33に供給される。色情報抽出装置32と形状情報抽出装置33は、それぞれ、ステップS63またはステップS64において、それぞれ色情報抽出処理、または形状情報抽出処理を実行する。
【0060】
図13の表示例の場合、色情報抽出装置32は、入力された各領域の画像データの代表色を特定する処理を実行する。図13の表示例の場合、例えば、太陽の領域の代表色は赤、空の領域の代表色は空色、山の領域の代表色は緑色、大地の領域の代表色は茶色、川の領域の代表色は青色として特定される。
【0061】
なお、色情報抽出装置32における領域内の代表色の特定処理には、ステップS61の領域分割処理において基準とした色を、そのまま用いるようにすることもできる。
【0062】
一方、形状情報抽出装置33は、各領域の画像データの形状的特徴を抽出する。例えば、図13の表示例の場合、太陽の領域の形状は円、山の領域の形状は三角形とされる。しかしながら、川の領域の形状、大地の領域の形状、あるいは空の領域の形状は、単純な形状として認識することは困難である。そこで、形状抽出装置33は、各領域画像の重心位置と面積を計算し、面積が等しい代表的な、予め用意されている所定の形状と重ね合わせを行い、最も重なり部分の大きい形状を、その領域の画像データの形状として抽出する。
【0063】
図14は、川の領域を、予め用意されている同一面積の6個の代表的な形状(三角形、正四角形、円、五角形、長方形、十字形)と重ね合わせを行った様子を表している。川の形状は、このようにして、予め用意された代表形状と比較され、最も重なり部分の大きい形状として認識される。
【0064】
以上のようにして、各領域毎の色情報と形状情報の抽出処理が完了したとき、ステップS65において、抽出した色情報と形状情報が、画像データ画像特徴量変換装置7から出力される。
【0065】
以上のようにして、図5のステップS6の画像データ画像特徴量変換処理が終了したとき、ステップS7において、制御回路10は、画像データ画像特徴量変換装置7が出力した色情報と形状情報を、特徴量マッチング装置8に転送する。
【0066】
特徴量マッチング装置8は、以上のようにして、キーワード画像特徴量変換装置6と画像データ画像特徴量変換装置7から、画像特徴量の供給を受けると、ステップS8において、特徴量マッチング処理を実行する。この処理の詳細は、図15に示されている。
【0067】
特徴量マッチング装置8は、ステップS81で、キーワード画像特徴量変換装置6が出力した画像特徴量を取得し、ステップS82で、画像データ画像特徴量変換装置7が出力した画像特徴量を取得する。そして、これらの画像特徴量は、形状情報比較装置41と、色情報比較装置42に、それぞれ供給される。形状情報比較装置41と色情報比較装置42は、それぞれ2つの形状情報と色情報の供給を受けると、ステップS83またはステップS84において、形状情報比較処理または色情報比較処理を実行する。
【0068】
形状情報比較装置41は、代表形状の組み合わせに対応する形状類似度の対応表を有しており、この対応表に従って、形状情報の類似の判定処理を行う。図16は、このような対応表の例を表している。図16は、円、三角形、および四角形の代表形状が比較される場合における、形状類似度を表している。円と円、三角形と三角形、または、四角形と四角形といったように、同一の代表形状が比較されるとき、形状類似度は10とされる。例えば、円と三角形の形状類似度は4とされ、円と四角形の形状類似度は5とされる。また、三角形と四角形の形状類似度は5とされる。このような対応表は、多くの代表図形を組み合わせた場合における形状類似度の判定を複数の人に判定させることにより、実験的に求めることができる。
【0069】
この例では、形状類似度は10段階で判定され、その値が大きいほど、2つの形状が類似していることになる。
【0070】
一方、色情報比較装置42は、図17に示すような色情報のダイアグラムを有しており、2つの色情報のダイアグラム上の距離から、色類似度を決定する。2つの色情報の距離が小さいほど、色類似度が大きい値(最大10)に設定され、距離が大きいほど、色類似度の値は小さい値(最小値0)に設定される。
【0071】
以上のようにして、ステップS83とステップS84において、形状情報比較処理と色情報比較処理が行われた結果、形状類似度と色類似度が得られると、それらがステップS85またはステップS86で、形状情報比較装置41または色情報比較装置42から、類似度統合部43に出力される。
【0072】
類似度統合部43は、形状情報比較装置41と色情報比較装置42から、それぞれ形状類似度と色類似度の供給を受けると、ステップS87で、類似度統合処理を行い、総合類似度を演算する。そして、ステップS88において、総合類似度が判定部44に出力される。この総合類似度は、最大値が100とされ、最小値が0とされる。2つの画像が類似しているほど、総合類似度の値は大きくなる。
【0073】
判定部44は、ステップS89において、総合類似度が、それまで得られた総合類似度の中の最大値より大きいか否かを判定する。最大値より大きくなければ、ステップS90に進み、すべての検索対象についてマッチング処理を行ったか否かを判定し、まだマッチング処理を行っていない画像特徴量が存在する場合には、ステップS82に戻り、次の検索対象とされる画像データベース9からの画像の画像特徴量が選択される。そして、その画像特徴量とキーワードが対応する画像特徴量とのマッチング処理が、上述した場合と同様に実行される。
【0074】
ステップS89において、得られた総合類似度が、それまでの総合類似度より大きいと判定された場合、ステップS91に進み、それまで記憶していた最大総合類似度を、新たに得られた最大総合類似度で更新する。
【0075】
以上のようにして、ステップS90において、すべての検索対象についてマッチング処理が行われたと判定された場合、ステップS92に進み、判定部44は、最大総合類似度に対応する画像特徴量を出力する。
【0076】
以上のようにして、図5のステップS8の特徴量マッチング処理が完了した場合、特徴量マッチング装置8から、最大総合類似度を有する画像特徴量が出力される。制御回路10は、この画像特徴量の供給を受けると、ステップS9において、これを画像データベース9に供給する。画像データベース9は、画像特徴量の供給を受けると、ステップS10で、その供給を受けた画像特徴量を有する画像データを検索する。そして、ステップS11において、検索の結果得られた画像データが制御回路10に出力される。制御回路10は、このようにして、画像データベース9から供給を受けた画像データを、インタフェース5を介してディスプレイ4に出力し、表示させる。
【0077】
図18は、以上のキーワードからの画像検索処理を概念的に表している。すなわち、以上の例においては、「自然」のキーワードが入力され、このキーワードが、「森」、「山」、「海」、「川」のような関連キーワードに変換され、これらの関連キーワードが、さらに画像特徴量に変換される。例えば、「森」のキーワードは、「三角形」の形状情報と「緑」の色情報に変換される。「山」のキーワードは、「四角形」の形状情報と「緑」の色情報に変換される。「海」のキーワードは、「四角形」の形状情報と「青」の色情報に変換され、「川」のキーワードは、「長方形」の形状情報と「青」の色情報に変換される。
【0078】
一方、画像データベース9中の画像データが読み出され、複数の領域に分割され、各分割領域毎に画像特徴量が抽出される。そして、この画像特徴量とキーワードを変換して得られた画像特徴量とが比較され、両者がマッチングする画像データが検索される。
【0079】
画像特徴データベース24には、予め実験などにより作成したキーワードと画像特徴量との対応関係を表すテーブルを記録しておき、関連キーワードデータベース23にも、予め実験などにより求めた、自由で自然な関連キーワードのテーブルを記録しておくようにすれば、ユーザは、新たにキーワードや画像特徴量を作成する必要がない。従って、画像検索装置を購入した後、画像データベース9に検索対象となる画像データを記録する処理を行うだけで、直ちに検索処理を開始することが可能となる。その結果、管理者が、新たなキーワードや画像特徴量を規定する手間がいらず、自由で、自然に近いキーワードを用いて、迅速に、かつ正確に、所望の画像を検索することが可能となる。
【0080】
この画像検索装置においては、以上のようにして、キーワードから所定の画像データを検索することができるだけでなく、画像データを入力して、それに対応するキーワードを検索することもできる。図19は、その場合の処理(画像認識処理)例を表している。最初にステップS111において、ユーザは、画像データを入力する。この入力は、例えば、タブレット2上で、ペン2Aを操作して行ったり、再生装置3で所定の記録媒体再生することで行われる。制御回路10は、ステップS111で入力された画像データの供給を受けたとき、これを画像データ画像特徴量変換装置7に供給する。画像データ画像特徴量変換装置7は、ステップS112において、画像データ画像特徴量変換処理を実行する。この処理の詳細は、図12に示した通りである。すなわち、画像データ画像特徴量変換装置7は、入力された画像データを複数の領域に分割し、各領域毎の色情報と形状情報を画像特徴量として抽出する。
【0081】
ステップS112で、画像特徴量が抽出されたとき、ステップS113において、制御回路10は、画像データ画像特徴量変換装置7が出力する画像特徴量をキーワード画像特徴量変換装置6に転送する。キーワード画像特徴量変換装置6は、ステップS114で文字画像変換処理を実行する。
【0082】
すなわち、文字画像変換装置22は、画像データ画像特徴量変換装置7より出力された画像特徴量の入力を受けたとき、画像特徴データベース24を参照して、対応するキーワードを検索する。検索されたキーワードは、ステップS115において、文字画像変換装置22から関連キーワード出力装置21に転送される。関連キーワード出力装置21は、ステップS116において、関連キーワードデータベース23を参照して、入力されたキーワードに対応する関連キーワードを検索する。この場合においても、図8を参照して上述した場合と同様に、1つのキーワードに対して、第3ランクまでの関連キーワードが検索される。その結果、初期キーワードとあわせて、40個の関連キーワードが、ステップS117で得られることになる。
【0083】
関連キーワード出力装置21は、このようにして、関連キーワードが得られたとき、ステップS118でキーワード選択処理を実行する。すなわち、上述した場合と同様に、関連度を演算し、関連度が最も大きいキーワードを、例えば5個選択する。そして、ステップS119において、選択した5個のキーワードを出力する。
【0084】
制御回路10は、キーワード画像特徴量変換装置6から5個のキーワードが出力されたとき、これをインタフェース5を介してディスプレイ4に出力し、表示させる。
【0085】
図20は、以上の画像認識処理(キーワード抽出処理)を模式的に表している。同図に示すように、1枚の画像データが入力されると、この画像データが複数の領域の画像データに分割され、各領域毎に画像特徴量が抽出される。そして、各画像特徴量が、対応するキーワードに変換される。変換されたキーワードのうち、最も関連度の高いキーワードが5個選択される。この図20の表示例においては、「自然」、「山」、「川」のキーワードが、入力された画像データに対応して抽出されている。
【0086】
なお、1枚の画像を複数の領域に分割する際、上記実施の形態においては、画像を表現する色の数を少なくして(代表色でまとめることで)分割を行うようにしているが、色だけでなく、解像度を低下するようにしても良い。この処理を行うことにより、画像の色が、自動的に代表色によって表現されることになる。これにより、また、認識が困難な複雑な形状を大まかな形状にまとめることができるため、形状抽出処理を簡単に行うことが可能になる。
【0087】
分割した領域には、優先度を付け、優先度の高い領域から順番に検索を行うようにすることもできる。例えば、1枚の画像の中央部に位置する領域が存在する場合、その領域の画像全体の面積に占める割合が20%以上であるとき、その領域の画像が重要度の高い画像である、すなわち、優先度の高い領域であると規定する。逆に、中央部にはなく、占める面積が小さい領域の画像は、重要度の低い画像とする。このように、分割領域の位置に対応して優先度を決定するようにしても良い。
【0088】
また、画像のうち、背景画像と、それ以外の画像(前景画像)とを識別し、背景画像以外の画像(前景画像)を優先度の高い画像とするようにしても良い。
【0089】
各領域の画像が、背景画像であるのか、それ以外の画像(前景画像)であるのかは、例えば、1枚の画像の外枠の長さの占める割合から判断することができる。
【0090】
例えば、図21の表示例においては、青い空の背景画像に、前景画像として、山の画像が配置されている。山の頂上部分は白い雪で覆われており、裾野の部分は茶色の土で覆われている。この1枚の画像が、空の領域、山頂の領域、および裾野の領域の3つに分割されたとする。画面は、L1,L2,L3,L4の外枠で構成されている。空の領域は、画面の外枠のうち、L7,L2,L3,L4,L5を含んでいる。これに対して、裾野の領域は、外枠のうち、L6を含んでおり、山頂の領域は外枠を含んでない。従って、空の領域の外枠長さの占める割合は、(L7+L2+L3+L4+L5)/(L1+L2+L3+L4)となる。これに対して、裾野の領域の外枠の占める割合は、(L6)/(L1+L2+L3+L4)となり、山頂の領域の外枠の占める割合は0となる。前者の割合が、後2者の割合より大きい。従って、前者の空の領域の方が、後2者の裾野の領域と山頂の領域より、背景画像である確率が高い。そこで、空の領域を背景画像として判定することができる。
【0091】
このように、背景画像と、それ以外の画像とを識別することができる場合、背景画像の領域と、それ以外の画像の領域とに分割することで、色で判別した場合には、複数の領域に分割されてしまうのを1つの領域とすることができる。すなわち、上述したように、色で領域を分割すると、図21の表示例は、青色の空の領域、白い雪の山頂の領域、茶色の土の裾野の領域の3つの領域に分割される。しかしながら、背景画像領域と、それ以外の領域に分割するようにすれば、白い雪の山頂の領域と茶色の土の裾野の領域で構成される山の領域(前景画像)を1つの領域とすることができる。すなわち、これにより、「雪を冠した山」を1つの領域とすることができることになる。
【0092】
以上においては、1つのキーワードに対して1つの画像特徴量を対応させるようにしたが、複数の画像特徴量を対応させるようにしても良い。また、逆に、1つの画像特徴量に対して、複数のキーワードを対応させるようにしても良い。このような場合、また、複数の画像特徴量またはキーワードに対して優先度を付与するようにすることができる。さらに、画像特徴量のうち、色情報だけ、あるいは形状情報だけに優先度を設定することもできる。また、所定の検索モードが指令された場合には、色情報と形状情報のうち、一方だけを用いて検索処理を行うようにすることもできる。このようにすることで、より柔軟な検索処理が可能となる。
【0093】
なお、上記したような処理を行うプログラムをユーザに伝送する伝送媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0094】
【発明の効果】
以上の如く、請求項1に記載の画像検索装置および請求項5に記載の画像検索方法によれば、データベースに記憶されている画像データを画像特徴量に変換し、入力されたキーワードを、予め記憶されている画像特徴量とキーワードとの関係を参照して画像特徴量に変換し、それぞれの画像特徴量を比較して、比較結果に対応して、データベースから画像データを検索するようにしたので、自由で、自然に近いキーワードを用いて、所望の画像データを、迅速かつ正確に、検索することが可能となる。
【0095】
請求項6に記載の画像検索装置および請求項8に記載の画像検索方法によれば、画像を色を基準にして複数の領域に分割し、分割した画像の形状情報と色情報を抽出し、抽出した形状情報と色情報に基づいて、データベースから所定の画像データを検索するようにしたので、迅速かつ確実に、所望の画像データを検索することが可能となる。
【0096】
請求項9に記載のキーワード抽出装置および請求項11に記載のキーワード抽出方法によれば、キーワードと画像特徴量との対応関係を表すテーブルを参照して、画像特徴量を対応するキーワードに変換するようにしたので、画像データを入力して、それに対応するキーワードを検索することができる。
【図面の簡単な説明】
【図1】本発明を適用した画像検索装置の構成例を示すブロック図である。
【図2】図1のキーワード画像特徴量変換装置の構成例を示すブロック図である。
【図3】図1の画像データ画像特徴量変換装置の構成例を示すブロック図である。
【図4】図1の特徴量マッチング装置の構成例を示すブロック図である。
【図5】図1の画像検索装置における画像検索処理を説明するフローチャートである。
【図6】図5のステップS2のキーワード画像特徴量変換処理を説明するフローチャートである。
【図7】図6のステップS21の関連キーワード出力処理を説明するフローチャートである。
【図8】関連キーワードを説明する図である。
【図9】キーワードと画像特徴量の関係を説明する図である。
【図10】キーワードと画像特徴量の関係を説明する図である。
【図11】キーワードと画像特徴量の関係を説明する図である。
【図12】図5のステップS6の画像データ画像特徴量変換処理の詳細を説明するフローチャートである。
【図13】領域分割を説明する図である。
【図14】形状情報抽出処理を説明する図である。
【図15】図5のステップS8の特徴量マッチング処理の詳細を説明するフローチャートである。
【図16】形状類似度の判定を説明する図である。
【図17】色類似度を説明する図である。
【図18】類似画像検索処理を説明する図である。
【図19】画像認識処理を説明するフローチャートである。
【図20】画像認識処理を説明する図である。
【図21】背景画像を説明する図である。
【符号の説明】
1 キーボード
2 タブレット
3 再生装置
4 ディスプレイ
5 インタフェース
6 キーワード画像特徴量変換装置
7 画像データ画像特徴量変換装置
8 特徴量マッチング装置
9 画像データベース
10 制御回路
21 関連キーワード出力装置
22 文字画像変換装置
23 関連キーワードデータベース
24 画像特徴データベース
31 領域分割装置
32 色情報抽出装置
33 形状情報抽出装置
41 形状情報比較装置
42 色情報比較装置
43 類似度統合部
44 判定部
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image search apparatus., Image search method, keyword extraction device, and keyword extraction methodIn particular, an image search apparatus capable of easily and reliably searching image data by using a keyword, Image search method, keyword extraction device, and keyword extraction methodAbout.
[0002]
[Prior art]
Conventionally, as a method for searching for an image, a method using pattern matching and a method using a keyword are known.
[0003]
In the method based on pattern matching, it is determined whether image data matches on a pixel basis.
[0004]
On the other hand, in the method using a keyword, when a user inputs an appropriate keyword for each image and searches for an image, the keyword is input instead of inputting the image, and the keyword is corresponded. I am trying to search for images.
[0005]
[Problems to be solved by the invention]
However, the pattern matching method has a problem that it takes time to search.
[0006]
On the other hand, in the method using the keyword, the search can be performed quickly, but the administrator who manages the database needs to set the keyword for each image, and creates and maintains the database. It takes a lot of effort. In addition, since the search needs to be performed using the keywords used by the administrator, there is a problem that the search cannot be performed using free terms.
[0007]
Furthermore, if the keyword set by the administrator is not appropriate, it is impossible to search for a desired image, and there is a problem that the keyword setting operation greatly affects the search accuracy.
[0008]
The present invention has been made in view of such a situation, and makes it possible to search for a desired image easily and reliably.
[0009]
[Means for Solving the Problems]
  The image search apparatus according to claim 1, wherein the keyword inputted by referring to the storage means for storing the relationship between the image feature quantity and the keyword, and the relationship between the image feature quantity and the keyword stored in the storage means. Is converted into a corresponding image feature amount, a keyword conversion means, and image data stored in the database,Dividing means for dividing into a plurality of areas, and the image data of each area for the plurality of areasImage conversion means for converting to image features;Of the image data of each areaComparing means for comparing the image feature quantity with the image feature quantity converted by the keyword converting means, and search means for searching for image data from the database corresponding to the comparison result of the comparing means .
[0011]
Priorities can be set for image feature quantities or keywords, and search can be performed in accordance with the priorities.
[0012]
When the image feature amount includes color information and shape information,PredeterminedWhen a mode is set, search should be performed using only one of color information and shape information.Butit can.
[0013]
A single keyword can be associated with a plurality of image feature amounts, and a single image feature amount can be associated with a plurality of keywords.
[0014]
  Claim 5Described inImage search methodIs a memory that stores the relationship between image features and keywordsTo the meansWith reference to the relationship between the stored image feature quantity and the keyword, a keyword conversion step for converting the input keyword into a corresponding image feature quantity, and image data stored in the database,A division step for dividing the image into a plurality of areas, and for each of the plurality of areas, the image data of each area isAn image conversion step for converting into image features;Of the image data of each areaA comparison step for comparing the image feature quantity with the image feature quantity converted in the keyword conversion step, and a search step for retrieving image data from the database in correspondence with the comparison result in the comparison step.includingIt is characterized by that.
[0015]
  Claim 6The image search device described in the above, a dividing unit that divides the image data into a plurality of regions based on colors,For multiple areas, the image data of each areaShape information extraction means for extracting shape information;For multiple areas, the image data of each areaColor information extracting means for extracting color information;Of the image data of each areaShape information comparison means for comparing the shape information with the input shape information;Of the image data of each areaColor information comparing means for comparing the color information with the input color information; and search means for searching for image data from the database in correspondence with the comparison results by the shape information comparing means and the color information comparing means. Features.
[0016]
The dividing unit can reduce the resolution of the image and then perform division for each region of the same color.
[0017]
  Claim 8Described inImage search methodA division step of dividing the image data into a plurality of regions based on the color;For multiple areas, the image data of each areaA shape information extraction step for extracting shape information;For multiple areas, the image data of each areaA color information extraction step for extracting color information;Of the image data of each areaA shape information comparison step for comparing the shape information with the input shape information;Of the image data of each areaA color information comparison step for comparing the color information with the input color information; a search step for retrieving image data from the database in accordance with the comparison results of the shape information comparison step and the color information comparison step;includingIt is characterized by that.
[0018]
  Claim 9Described inKeyword extractorIncludes a table storage means for storing a table representing a correspondence relationship between the keyword and the image feature amount;A dividing unit that divides input image data into a plurality of regions; an image converting unit that converts image data of each region into an image feature amount for the plurality of regions;Browse the tableFor image feature amount of image data of each areaCorresponding keywordSearch means to search forIt is characterized by providing.
[0019]
A keyword selection means for selecting a related keyword corresponding to the keyword can be further provided.
[0020]
  Claim 11Described inKeyword extraction methodIsA table that represents the correspondence between a keyword and an image feature amount, a division step that divides input image data into a plurality of regions, an image conversion step that converts image data of each region into an image feature amount, for a plurality of regions Is stored in the storage meansBrowse the tableFor image feature amount of image data of each areaCorresponding keywordAnd a search step for searchingIt is characterized by that.
[0021]
  The image search device according to claim 1 andClaim 5Described inImage search methodIn, image data stored in the database is converted into image feature values. Further, the relationship between the image feature amount and the keyword is stored, and the input keyword is converted into the corresponding image feature amount with reference to the stored relationship. The image feature amount converted from the image data is compared with the image feature amount converted from the keyword, and the image data is retrieved from the database corresponding to the comparison result.
[0022]
  Claim 6The image search device described inClaim 8DescribedImage search methodIn, the image is divided into a plurality of regions, and shape information and color information of the divided image are extracted. Then, image data is retrieved from the database in correspondence with the extracted shape information and color information.
[0023]
  Claim 9Described inKeyword extractorandClaim 11Described inKeyword extraction methodStores a table showing the correspondence between keywords and image feature values, and the image feature values correspond with reference to this table.Converted to keywordsConvertedKeyword outputIs done.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but in order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, in parentheses after each means, The features of the present invention will be described with the corresponding embodiment (however, an example) added. However, of course, this description does not mean that each means is limited to the description.
[0025]
  The image search apparatus according to claim 1 includes a storage unit (for example, the image feature database 24 in FIG. 2) that stores a relationship between an image feature amount and a keyword, and an image feature amount and a keyword that are stored in the storage unit. The keyword conversion means (for example, step S2 in FIG. 5) for converting the input keyword into the corresponding image feature amount, and the image data stored in the database are referred toDividing means for dividing into a plurality of regions (for example, step S61 in FIG. 12),For multiple areas, the image data of each areaImage conversion means (for example, step S6 in FIG. 5) for converting into image feature amounts and converted by the image conversion meansOf the image data of each areaComparison means for comparing the image feature quantity with the image feature quantity converted by the keyword conversion means (for example, step S8 in FIG. 5), and search for retrieving image data from the database corresponding to the comparison result of the comparison means Means (for example, step S10 in FIG. 5).
[0027]
  Claim 6The image search device described in 1 is divided by a dividing unit (for example, step S61 in FIG. 12) that divides the image data into a plurality of regions based on the color, and the dividing unit.For multiple areas,Shape information extraction means (for example, step S64 in FIG. 12) for extracting the shape information of the image data and the division meansFor multiple areas,Extracted by color information extracting means (for example, step S63 in FIG. 12) for extracting color information of image data and shape information extracting means.Of the image data of each areaShape information comparing means (for example, step S83 in FIG. 15) that compares the shape information with the input shape information, and color information extracting means.Of the image data of each areaCorresponding to the comparison result by the color information comparison means (for example, step S84 in FIG. 15) for comparing the color information with the input color information, the shape information comparison means and the color information comparison means, the image data is obtained from the database. Search means (for example, step S10 in FIG. 5) for searching is provided.
[0028]
  Claim 9Described inKeyword extractorIncludes a table storage unit (for example, the image feature database 24 in FIG. 2) for storing a table representing a correspondence relationship between the keyword and the image feature amount;A dividing unit (for example, step S61 in FIG. 12) that divides input image data into a plurality of regions, and an image converting unit (for example, FIG. 5) that converts image data in each region into image feature amounts for the plurality of regions. Step S6),Browse the tableOf the image data of each areaCorresponding image featuresConvert to keywordConversion means (for example, step S112 in FIG. 19) to be converted and converted by the conversion meansOutput keywordsOutput means (for example, step S119 in FIG. 19).
[0029]
FIG. 1 shows a configuration example of an image search apparatus according to the present invention. The keyboard 1 is operated by the user when inputting characters. By operating the tablet 2 with the pen 2A, for example, an image to be searched is input. The playback device 3 plays back image data recorded on a recording medium such as a solid-state memory, a disk, or a tape. The display 4 displays an image. The interface 5 performs interface processing between the keyboard 1 to the display 4 and the control circuit 10. The control circuit 10 is configured by, for example, a microcomputer and controls each unit.
[0030]
The keyword image feature amount conversion device 6 performs processing for converting a keyword into an image feature amount, or conversely, converting an image feature amount into a keyword. The image data image feature amount conversion device 7 performs processing for converting image data into image feature amounts. The feature amount matching device 8 performs processing for comparing the image feature amount supplied from the keyword image feature amount conversion device 6 or the image data image feature amount conversion device 7 with the image feature amount read from the image database 9. . The image database 9 stores image data of a plurality of images as a database.
[0031]
Note that the keyword image feature quantity conversion device 6 to the image database 9 can be configured by hardware, but can also be configured by a software program.
[0032]
FIG. 2 shows a configuration example of the keyword image feature amount conversion device 6. The related keyword output device 21 is connected to the related keyword database 23. When a keyword is input, the related keyword output device 21 searches for and outputs a related keyword related to the keyword. In the related keyword database 23, related keywords corresponding to predetermined keywords are registered as a database. The character image conversion device 22 is connected to the image feature database 24. When a keyword is input, the character image conversion device 22 refers to the image feature database 24 and outputs an image feature amount corresponding to the keyword, or vice versa. When an image feature amount is input, a corresponding keyword is searched and output. The image feature database 24 stores a conversion table representing the correspondence between keywords and image feature amounts.
[0033]
FIG. 3 shows a configuration example of the image data image feature amount conversion device 7. The region dividing device 31 divides input image data into a plurality of regions, and outputs the image data of each region to the color information extracting device 32 and the shape information extracting device 33. The color information extraction device 32 and the shape information extraction device 33 extract an image feature consisting of color information or an image feature amount consisting of shape information from the image data for each region input from the region dividing device 31, and output it. Has been made.
[0034]
FIG. 4 illustrates a configuration example of the feature amount matching apparatus 8. The shape information comparison device 41 compares the shape information output from the keyword image feature amount conversion device 6 or the image data image feature amount conversion device 7 with the shape information read from the image database 9, and the comparison result ( (Shape similarity) is output to the similarity integration unit 43. Further, the color information comparison device 42 compares the color information output from the keyword image feature amount conversion device 6 or the image data image feature amount conversion device 7 with the color information read from the image database 9 and compares the color information. The result (color similarity) is output to the similarity integration unit 43. The similarity integration unit 43 integrates the shape similarity supplied from the shape information comparison device 41 and the color similarity supplied from the color information comparison device 42 to obtain an overall similarity and outputs the total similarity to the determination unit 44. ing. The determination unit 44 determines the similarity between two images from the value of the overall similarity, and outputs the determination result to the control circuit 10.
[0035]
Next, image search processing will be described with reference to the flowchart of FIG. Now, in this process, it is assumed that a predetermined keyword is input and an image corresponding to the keyword is searched.
[0036]
First, in step S1, the user operates the keyboard 1 and inputs a predetermined keyword (for example, “natural”). When receiving the input of the keyword via the interface 5, the control circuit 10 supplies the keyword to the keyword image feature amount conversion device 6 in step S2, and executes the keyword image feature amount conversion process. The details of this processing are shown in the flowchart of FIG.
[0037]
That is, the keyword image feature quantity conversion device 6 executes related keyword output processing in step S21. Details of the related keyword output processing are shown in the flowchart of FIG.
[0038]
First, in step S41, when a keyword is supplied from the control circuit 10, the related keyword output device 21 sets this keyword as an initial keyword. In this case, the keyword “nature” is set as the initial keyword.
[0039]
In step S42, the related keyword output device 21 sets the initial keyword set in step S41 as a parent keyword. In step S43, a child keyword is searched for the parent keyword. That is, the related keyword output device 21 refers to the related keyword database 23 and searches for a child keyword having “nature” as a parent keyword. Accordingly, for example, as shown in FIG. 8, three first-ranked child keywords (related keywords) of “sea”, “mountain”, and “sky” with respect to the parent keyword (initial keyword) of “nature” ) Is searched.
[0040]
Next, in step S44, the related keyword output device 21 determines whether or not the child keyword has reached the third rank. In this case, since only the first rank child keyword has been searched, a NO determination is made, and the process proceeds to step S45. In step S45, the child keyword is shifted to the parent keyword. In this case, for example, the child keyword “sea” is set as the parent keyword.
[0041]
Next, returning to step S 43, the child keyword for the parent keyword “sea” is searched from the related keyword database 23. Thereby, for example, as shown in FIG. 8, child keywords of “mountain”, “river”, and “fish” are searched.
[0042]
In step S45, the other keywords “mountain” and “sky” are also set as parent keywords. As a result, in step S43, the child keyword corresponding to the parent keyword “mountain” and the child keyword corresponding to the parent keyword “empty” are searched. In the display example of FIG. 8, child keywords “forest”, “river”, and “nature” are searched for the parent keyword “mountain”, and “blue” is searched for the parent keyword “sky”. , "Sea", and "Earth" child keywords are being searched. Thus, the second rank child keyword is searched.
[0043]
Next, proceeding to step S44, it is determined whether or not the child keyword has reached the third rank. In this case, since it has not yet reached, the processing of step S45 and step S43 is executed again, and as shown in FIG. 8, the third rank child keyword having the second rank keyword as the parent keyword is searched. . In this way, when the search up to the third rank is performed, a total of 40 (= 1 + 3 + 9 + 27) keywords (however, there are some same keywords) are searched.
[0044]
If it is determined in step S44 that child keywords up to the third rank have been searched, the process proceeds to step S46, where the related keywords are weighted and the degree of relevance is calculated.
[0045]
Here, the initial keyword has a relevance level of 8, the first rank related keyword has a relevance level of 4, the second rank keyword has a relevance level of 2, and the third rank keyword has a relevance level of 1. It is said. And when the same keyword appears in multiple ranks, or when the same keyword appears in duplicate in the same rank, each relevance value is added, The degree of relevance of the keyword.
[0046]
For example, in the example of FIG. 8, between the initial keyword and the second rank, the keyword “natural” appears once for the initial keyword and the second rank. Therefore, the relevance level of “natural” is 10 (= 8 + 2).
[0047]
The keyword “sea” appears once in the first rank and once in the second rank. Therefore, the degree of association of this “sea” is 6 (= 4 + 2). Since the keyword “river” appears twice in the second rank, the degree of association is 4 (= 2 + 2).
[0048]
Since the keyword “Earth” appears only once in the second rank, the degree of association is set to 2.
[0049]
As described above, when the relevance level is calculated for all the appearing keywords, the related keyword output device 21 selects five keywords in descending order of relevance level in step S47. In step S48, the selected related keyword is output.
[0050]
As described above, when the related keyword output process in step S21 of FIG. 6 is completed, the related keyword output device 21 outputs the five related keywords selected in step S21 to the character image conversion device 22 in step S22. To do. When the character image conversion device 22 receives five consecutive keywords from the related keyword output device 21, the character image conversion device 22 performs character image conversion processing with reference to the image feature database 24 in step S23.
[0051]
In the image feature database 24, for example, as shown in FIG. 9, a keyword and an image feature amount are associated with each other and stored as a conversion table. The image feature amount is divided into color information and shape information.
[0052]
10 and 11 show examples of the correspondence between the keyword of the image feature database and the image feature amount. In FIG. 10, “green” is associated with the keyword “mountain”, and “triangle” is associated with the shape information.
[0053]
In the example of FIG. 11, “blue” color information and “square” shape information are associated with the keyword “sea”.
[0054]
The character image conversion device 22 searches the image feature database 24 for image feature amounts (shape information and color information) corresponding to the five consecutive keywords supplied from the related keyword output device 21, and the search is performed in step S24. The image feature amount obtained as a result of is output as an image feature amount corresponding to the input related keyword.
[0055]
As described above, when the keyword image feature value conversion process in step S2 of FIG. 5 is performed, the image feature value searched by the character image conversion device 22 in step S3 is supplied to the feature value matching device 8. .
[0056]
On the other hand, when an image search is instructed, the processes of steps S4 to S7 are executed in parallel with the processes of steps S1 to S3. In step S4, the control circuit 10 controls the image database 9 and instructs reading of the image data stored therein. In response to this command, the image database 9 reads the image data in step S5 and supplies it to the image data image feature amount conversion device 7. When receiving the supply of image data, the image data image feature amount conversion device 7 executes an image data image feature amount conversion process in step S6. Details of this image data image feature amount conversion processing are shown in FIG.
[0057]
First, in step S61, when the image data image feature value conversion apparatus 7 receives the supply of image data from the image database 9, in step S61, the image data image feature value conversion device 7 executes region division processing. That is, the area dividing device 31 performs a process of dividing the input image data into a plurality of areas. FIG. 13 shows an example of this area division processing. Now, for example, it is assumed that an image is supplied from the image database 9 and is covered with trees, and the red sun floats in the sky blue sky at the upper left of the green mountain. In this image, a brown earth is spreading under the mountain, and a blue river flows over it.
[0058]
The area dividing device 31 divides this image into a plurality of areas so that the same color belongs to the same area. That is, in this example, the area is divided into five areas: a red area (sun), a sky blue area (sky), a green area (mountain), a brown area (ground), and a blue area (river). The
[0059]
Returning to FIG. 12, the image data for each region obtained by the region dividing process in step S61 is supplied to the color information extracting device 32 and the shape information extracting device 33 in step S62. The color information extraction device 32 and the shape information extraction device 33 respectively perform color information extraction processing or shape information extraction processing in step S63 or step S64, respectively.
[0060]
In the case of the display example of FIG. 13, the color information extraction device 32 executes processing for specifying the representative color of the input image data of each region. In the case of the display example of FIG. 13, for example, the representative color of the sun region is red, the representative color of the sky region is sky blue, the representative color of the mountain region is green, the representative color of the earth region is brown, and the representative color of the river region The representative color is specified as blue.
[0061]
It should be noted that the color used as a reference in the region division processing in step S61 can be used as it is in the processing for specifying the representative color in the region in the color information extraction device 32.
[0062]
On the other hand, the shape information extraction device 33 extracts the shape feature of the image data of each region. For example, in the display example of FIG. 13, the shape of the sun region is a circle, and the shape of the mountain region is a triangle. However, it is difficult to recognize the shape of the river region, the shape of the ground region, or the shape of the sky region as a simple shape. Therefore, the shape extraction device 33 calculates the center of gravity position and area of each region image, superimposes it with a typical predetermined shape having the same area, and obtains the shape with the largest overlapping portion as its shape. Extracted as the shape of the image data of the region.
[0063]
FIG. 14 shows a state in which the river region is overlaid with six typical shapes (triangle, regular square, circle, pentagon, rectangle, cross) prepared in advance. . In this way, the shape of the river is compared with the representative shape prepared in advance, and is recognized as the shape having the largest overlapping portion.
[0064]
As described above, when the extraction process of color information and shape information for each region is completed, the extracted color information and shape information are output from the image data image feature amount conversion device 7 in step S65.
[0065]
As described above, when the image data image feature value conversion processing in step S6 in FIG. 5 is completed, in step S7, the control circuit 10 displays the color information and shape information output from the image data image feature value conversion device 7. And transferred to the feature amount matching device 8.
[0066]
When the feature amount matching device 8 receives supply of image feature amounts from the keyword image feature amount conversion device 6 and the image data image feature amount conversion device 7 as described above, the feature amount matching device 8 executes feature amount matching processing in step S8. To do. Details of this processing are shown in FIG.
[0067]
The feature amount matching device 8 acquires the image feature amount output from the keyword image feature amount conversion device 6 in step S81, and acquires the image feature amount output from the image data image feature amount conversion device 7 in step S82. These image feature amounts are supplied to the shape information comparison device 41 and the color information comparison device 42, respectively. When the shape information comparison device 41 and the color information comparison device 42 are supplied with two pieces of shape information and color information, respectively, the shape information comparison processing or the color information comparison processing is executed in step S83 or step S84.
[0068]
The shape information comparison device 41 has a correspondence table of shape similarities corresponding to combinations of representative shapes, and performs a shape information similarity determination process according to this correspondence table. FIG. 16 shows an example of such a correspondence table. FIG. 16 shows the shape similarity when the representative shapes of a circle, a triangle, and a quadrangle are compared. When the same representative shape is compared, such as a circle and a circle, a triangle and a triangle, or a quadrangle and a quadrangle, the shape similarity is 10. For example, the shape similarity between a circle and a triangle is 4, and the shape similarity between a circle and a rectangle is 5. The shape similarity between the triangle and the quadrangle is 5. Such a correspondence table can be obtained experimentally by allowing a plurality of people to determine the shape similarity when many representative figures are combined.
[0069]
In this example, the shape similarity is determined in 10 stages, and the larger the value is, the more similar the two shapes are.
[0070]
On the other hand, the color information comparison device 42 has a diagram of color information as shown in FIG. 17, and determines the color similarity from the distance on the diagram of the two color information. The smaller the distance between the two color information, the larger the color similarity is set (maximum 10), and the larger the distance is, the smaller the color similarity value is set (minimum value 0).
[0071]
As described above, when the shape information comparison process and the color information comparison process are performed in step S83 and step S84, and the shape similarity and the color similarity are obtained, they are obtained in step S85 or step S86. The information is output from the information comparison device 41 or the color information comparison device 42 to the similarity integration unit 43.
[0072]
When the similarity integration unit 43 receives supply of the shape similarity and the color similarity from the shape information comparison device 41 and the color information comparison device 42, respectively, the similarity integration processing is performed in step S87 to calculate the overall similarity. To do. In step S88, the overall similarity is output to the determination unit 44. This total similarity has a maximum value of 100 and a minimum value of 0. The more similar the two images, the greater the value of the overall similarity.
[0073]
In step S89, the determination unit 44 determines whether or not the overall similarity is greater than the maximum value of the overall similarities obtained so far. If it is not larger than the maximum value, the process proceeds to step S90, where it is determined whether or not matching processing has been performed for all search targets. If there is an image feature amount that has not yet undergone matching processing, the process returns to step S82. The image feature quantity of the image from the image database 9 to be searched next is selected. Then, the matching process between the image feature quantity and the image feature quantity corresponding to the keyword is executed in the same manner as described above.
[0074]
If it is determined in step S89 that the obtained overall similarity is greater than the previous overall similarity, the process proceeds to step S91, and the maximum overall similarity stored up to that point is determined as the newly obtained maximum overall similarity. Update with similarity.
[0075]
As described above, when it is determined in step S90 that matching processing has been performed for all search targets, the process proceeds to step S92, and the determination unit 44 outputs an image feature amount corresponding to the maximum total similarity.
[0076]
As described above, when the feature amount matching process in step S8 of FIG. 5 is completed, the feature amount matching device 8 outputs an image feature amount having the maximum total similarity. When receiving the image feature amount, the control circuit 10 supplies it to the image database 9 in step S9. When receiving the supply of the image feature amount, the image database 9 searches for image data having the supplied image feature amount in step S10. In step S11, the image data obtained as a result of the search is output to the control circuit 10. In this way, the control circuit 10 outputs the image data supplied from the image database 9 to the display 4 via the interface 5 and displays it.
[0077]
FIG. 18 conceptually shows the image search processing from the above keywords. That is, in the above example, the keyword “nature” is input, and this keyword is converted into related keywords such as “forest”, “mountain”, “sea”, “river”, and these related keywords are Further, it is converted into an image feature amount. For example, the keyword “forest” is converted into shape information of “triangle” and color information of “green”. The keyword “mountain” is converted into shape information “square” and color information “green”. The keyword “sea” is converted into “quadrangle” shape information and “blue” color information, and the keyword “river” is converted into “rectangle” shape information and “blue” color information.
[0078]
On the other hand, image data in the image database 9 is read out and divided into a plurality of areas, and image feature amounts are extracted for each divided area. Then, the image feature quantity is compared with the image feature quantity obtained by converting the keyword, and image data matching both is searched.
[0079]
In the image feature database 24, a table representing the correspondence between keywords and image feature amounts created in advance through experiments or the like is recorded, and in the related keyword database 23, free and natural associations obtained in advance through experiments or the like. If the keyword table is recorded, the user does not need to create a new keyword or image feature amount. Therefore, after purchasing the image search apparatus, it is possible to immediately start the search process simply by recording the image data to be searched in the image database 9. As a result, the administrator can search for a desired image quickly and accurately using a keyword that is free and close to nature without having to specify new keywords and image features. Become.
[0080]
In this image search device, not only can predetermined image data be searched from keywords as described above, but also image data can be input and a keyword corresponding thereto can be searched. FIG. 19 shows an example of processing (image recognition processing) in that case. First, in step S111, the user inputs image data. This input is performed, for example, by operating the pen 2A on the tablet 2 or by reproducing a predetermined recording medium by the reproducing device 3. When receiving the supply of the image data input in step S111, the control circuit 10 supplies the image data to the image data image feature amount conversion device 7. In step S112, the image data image feature amount conversion device 7 executes an image data image feature amount conversion process. Details of this processing are as shown in FIG. That is, the image data image feature amount conversion device 7 divides the input image data into a plurality of regions, and extracts color information and shape information for each region as image feature amounts.
[0081]
When the image feature amount is extracted in step S112, in step S113, the control circuit 10 transfers the image feature amount output from the image data image feature amount conversion device 7 to the keyword image feature amount conversion device 6. The keyword image feature amount conversion device 6 executes a character image conversion process in step S114.
[0082]
That is, when receiving the input of the image feature amount output from the image data image feature amount conversion device 7, the character image conversion device 22 searches the corresponding keyword with reference to the image feature database 24. The retrieved keyword is transferred from the character image conversion device 22 to the related keyword output device 21 in step S115. In step S116, the related keyword output device 21 refers to the related keyword database 23 and searches for a related keyword corresponding to the input keyword. Also in this case, as in the case described above with reference to FIG. 8, related keywords up to the third rank are searched for one keyword. As a result, 40 related keywords are obtained in step S117 together with the initial keywords.
[0083]
When the related keyword is obtained in this way, the related keyword output device 21 executes keyword selection processing in step S118. That is, as in the case described above, the degree of relevance is calculated and, for example, five keywords having the largest degree of relevance are selected. In step S119, the five selected keywords are output.
[0084]
When five keywords are output from the keyword image feature quantity conversion device 6, the control circuit 10 outputs them to the display 4 via the interface 5 and displays them.
[0085]
FIG. 20 schematically shows the above image recognition process (keyword extraction process). As shown in the figure, when one piece of image data is input, this image data is divided into image data of a plurality of regions, and image feature amounts are extracted for each region. Each image feature amount is converted into a corresponding keyword. Of the converted keywords, the five most relevant keywords are selected. In the display example of FIG. 20, the keywords “nature”, “mountain”, and “river” are extracted corresponding to the input image data.
[0086]
When dividing one image into a plurality of regions, in the above embodiment, the number of colors expressing the image is reduced (by combining them with representative colors). Not only the color but also the resolution may be lowered. By performing this process, the color of the image is automatically expressed by the representative color. As a result, complicated shapes that are difficult to recognize can be grouped into rough shapes, so that the shape extraction process can be easily performed.
[0087]
A priority can be given to the divided area, and the search can be performed in order from the area with the highest priority. For example, if there is a region located in the center of one image, and the ratio of the region to the total area of the image is 20% or more, the image in that region is a highly important image, that is, Stipulate that this is a high priority area. Conversely, an image in a region that is not in the central portion and occupies a small area is an image with low importance. Thus, the priority may be determined in accordance with the position of the divided area.
[0088]
Further, among the images, a background image and other images (foreground image) may be identified, and an image other than the background image (foreground image) may be set as a high priority image.
[0089]
Whether the image in each region is a background image or other image (foreground image) can be determined from the ratio of the length of the outer frame of one image, for example.
[0090]
For example, in the display example of FIG. 21, a mountain image is arranged as a foreground image on a blue sky background image. The top of the mountain is covered with white snow, and the foot is covered with brown soil. It is assumed that this one image is divided into three areas, that is, an empty area, a peak area, and a skirt area. The screen is L1, L2, LThree, LFourIt is composed of the outer frame. The empty area is the L of the outer frame of the screen.7, L2, LThree, LFour, LFiveIs included. On the other hand, the base region is L in the outer frame.6The summit area does not include the outer frame. Therefore, the ratio of the outer frame length to the empty area is (L7+ L2+ LThree+ LFour+ LFive) / (L1+ L2+ LThree+ LFour) On the other hand, the proportion of the outer frame in the base region is (L6) / (L1+ L2+ LThree+ LFour), And the ratio of the outer frame to the summit area is zero. The ratio of the former is larger than the ratio of the latter two. Therefore, the former empty area is more likely to be a background image than the latter two base areas and the peak area. Therefore, an empty area can be determined as a background image.
[0091]
As described above, when the background image and the other image can be identified, the image is divided into the background image region and the other image region. A region can be divided into regions. That is, as described above, when the region is divided by color, the display example of FIG. 21 is divided into three regions: a blue sky region, a white snow mountaintop region, and a brown soil foot region. However, if it is divided into a background image region and other regions, a mountain region (foreground image) composed of a white snow mountain top region and a brown soil foot region is defined as one region. be able to. In other words, this makes it possible to make “a mountain covered with snow” as one region.
[0092]
In the above, one image feature amount is associated with one keyword, but a plurality of image feature amounts may be associated. Conversely, a plurality of keywords may be associated with one image feature amount. In such a case, priority can be given to a plurality of image feature quantities or keywords. Furthermore, priority can be set only for color information or only for shape information among image feature amounts. Further, when a predetermined search mode is instructed, the search process can be performed using only one of color information and shape information. In this way, more flexible search processing is possible.
[0093]
Note that as a transmission medium for transmitting a program for performing the processing as described above to a user, a communication medium such as a network or a satellite can be used in addition to a recording medium such as a magnetic disk, a CD-ROM, or a solid-state memory.
[0094]
【The invention's effect】
  As described above, the image search device according to claim 1 andClaim 5Described inImage search methodAccording to the above, the image data stored in the database is converted into an image feature amount, the input keyword is converted into an image feature amount with reference to a relationship between the image feature amount and the keyword stored in advance, Each image feature amount is compared and image data is searched from the database corresponding to the comparison result, so that desired image data can be quickly and accurately used using keywords that are free and close to nature. It becomes possible to search.
[0095]
  Claim 6The image search device described inClaim 8Described inImage search methodAccording to the above, the image is divided into a plurality of regions based on the color, the shape information and color information of the divided image are extracted, and predetermined image data is retrieved from the database based on the extracted shape information and color information As a result, desired image data can be retrieved quickly and reliably.
[0096]
  Claim 9Described inKeyword extractorandClaim 11Described inKeyword extraction methodAccording to the above, referring to the table representing the correspondence between the keyword and the image feature amount, the image feature amount is associated.Convert to keywordBecause I tried toThe image data can be input and the corresponding keyword can be searched.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an image search apparatus to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of the keyword image feature amount conversion apparatus in FIG. 1;
FIG. 3 is a block diagram illustrating a configuration example of the image data image feature value conversion apparatus in FIG. 1;
4 is a block diagram illustrating a configuration example of the feature amount matching apparatus in FIG. 1;
FIG. 5 is a flowchart illustrating image search processing in the image search apparatus of FIG. 1;
6 is a flowchart illustrating keyword image feature amount conversion processing in step S2 of FIG.
FIG. 7 is a flowchart for explaining related keyword output processing in step S21 of FIG.
FIG. 8 is a diagram illustrating related keywords.
FIG. 9 is a diagram illustrating a relationship between a keyword and an image feature amount.
FIG. 10 is a diagram illustrating a relationship between a keyword and an image feature amount.
FIG. 11 is a diagram illustrating a relationship between a keyword and an image feature amount.
FIG. 12 is a flowchart illustrating details of image data image feature amount conversion processing in step S6 of FIG. 5;
FIG. 13 is a diagram illustrating area division.
FIG. 14 is a diagram for explaining shape information extraction processing;
FIG. 15 is a flowchart illustrating details of the feature amount matching process in step S8 of FIG.
FIG. 16 is a diagram illustrating determination of shape similarity.
FIG. 17 is a diagram illustrating color similarity.
FIG. 18 is a diagram illustrating a similar image search process.
FIG. 19 is a flowchart illustrating image recognition processing.
FIG. 20 is a diagram illustrating image recognition processing.
FIG. 21 is a diagram illustrating a background image.
[Explanation of symbols]
1 Keyboard
2 tablets
3 Playback device
4 display
5 Interface
6 Keyword image feature quantity conversion device
7 Image data Image feature conversion device
8 Feature matching device
9 Image database
10 Control circuit
21 Related keyword output device
22 Character image converter
23 Related Keyword Database
24 Image feature database
31 Area dividing device
32 color information extraction device
33 Shape information extraction device
41 Shape information comparison device
42 color information comparison device
43 Similarity Integration Department
44 judgment part

Claims (11)

画像特徴量とキーワードとの関係を記憶する記憶手段と、
前記記憶手段に記憶されている画像特徴量とキーワードとの関係を参照して、入力されたキーワードを、対応する前記画像特徴量に変換するキーワード変換手段と、
データベースに記憶されている画像データを、複数の領域に分割する分割手段と、
前記複数の領域について、各領域の画像データを前記画像特徴量に変換する画像変換手段と、
前記各領域の画像データの画像特徴量と、前記キーワード変換手段により変換された画像特徴量とを比較する比較手段と、
前記比較手段の比較結果に対応して、前記データベースから画像データを検索する検索手段と
を備えることを特徴とする画像検索装置。
Storage means for storing the relationship between the image feature quantity and the keyword;
Referring to the relationship between the image feature quantity and the keyword stored in the storage means, the keyword conversion means for converting the input keyword into the corresponding image feature quantity;
Dividing means for dividing the image data stored in the database into a plurality of regions;
For the plurality of regions, image conversion means for converting image data of each region into the image feature amount;
Comparison means for comparing the image feature amount of the image data of each region with the image feature amount converted by the keyword conversion means;
An image search apparatus comprising: search means for searching image data from the database corresponding to the comparison result of the comparison means.
前記画像特徴量またはキーワードには優先度が設定されており、
前記検索手段は、前記優先度に対応して検索を行う
ことを特徴とする請求項1に記載の画像検索装置。
Priorities are set for the image feature quantities or keywords,
The image search apparatus according to claim 1, wherein the search unit performs a search according to the priority.
前記画像特徴量は、色情報と形状情報を含み、
前記検索手段は、所定のモードが設定されたとき、前記色情報と形状情報のうちの一方だけで検索を行う
ことを特徴とする請求項1に記載の画像検索装置。
The image feature amount includes color information and shape information,
The image search apparatus according to claim 1, wherein when the predetermined mode is set, the search unit performs a search using only one of the color information and the shape information.
1つの前記キーワードに対して複数の前記画像特徴量が対応しているか、または、1つの前記画像特徴量に対して複数の前記キーワードが対応している
ことを特徴とする請求項1に記載の画像検索装置。
The plurality of the image feature amounts correspond to one of the keywords, or the plurality of keywords correspond to one of the image feature amounts. Image search device.
画像特徴量とキーワードとの関係を記憶する記憶手段に記憶されている画像特徴量とキーワードとの関係を参照して、入力されたキーワードを、対応する前記画像特徴量に変換するキーワード変換ステップと、
データベースに記憶されている画像データを、複数の領域に分割する分割ステップと、
前記複数の領域について、各領域の画像データを画像特徴量に変換する画像変換ステップと、
前記各領域の画像データの画像特徴量と、前記キーワード変換ステップで変換された画像特徴量とを比較する比較ステップと、
前記比較ステップでの比較結果に対応して、前記データベースから画像データを検索する検索ステップと
を含むことを特徴とする画像検索方法
A keyword conversion step of converting an input keyword into the corresponding image feature amount with reference to the relationship between the image feature amount and the keyword stored in the storage means for storing the relationship between the image feature amount and the keyword; ,
A division step of dividing the image data stored in the database into a plurality of regions;
For the plurality of regions, an image conversion step of converting image data of each region into an image feature amount;
A comparison step of comparing the image feature amount of the image data of each region with the image feature amount converted in the keyword conversion step;
A retrieval step for retrieving image data from the database in correspondence with the comparison result in the comparison step;
An image search method comprising:
画像データを色を基準にして複数の領域に分割する分割手段と、
前記複数の領域について、各領域の画像データの形状情報を抽出する形状情報抽出手段と、
前記複数の領域について、各領域の画像データの色情報を抽出する色情報抽出手段と、
前記各領域の画像データの形状情報と、入力された形状情報とを比較する形状情報比較手段と、
前記各領域の画像データの色情報と、入力された色情報とを比較する色情報比較手段と、
前記形状情報比較手段と色情報比較手段による比較結果に対応して、データベースから画像データを検索する検索手段と
を備えることを特徴とする画像検索装置。
A dividing means for dividing the image data into a plurality of regions based on the color;
For the plurality of regions, shape information extraction means for extracting shape information of image data of each region ;
Color information extracting means for extracting color information of image data of each area for the plurality of areas ;
Shape information comparison means for comparing the shape information of the image data of each region and the input shape information;
Color information comparing means for comparing the color information of the image data of each region and the input color information;
An image retrieval apparatus comprising: retrieval means for retrieving image data from a database in correspondence with the comparison result by the shape information comparison means and the color information comparison means.
前記分割手段は、画像の解像度を低下させた後、同一の色の領域毎に分割を行う
ことを特徴とする請求項6に記載の画像検索装置。
The image search apparatus according to claim 6 , wherein the dividing unit performs division for each region of the same color after reducing the resolution of the image.
画像データを色を基準にして複数の領域に分割する分割ステップと、
前記複数の領域について、各領域の画像データの形状情報を抽出する形状情報抽出ステップと、
前記複数の領域について、各領域の画像データの色情報を抽出する色情報抽出ステップと、
前記各領域の画像データの形状情報と、入力された形状情報とを比較する形状情報比較ステップと、
前記各領域の画像データの色情報と、入力された色情報とを比較する色情報比較ステップと、
前記形状情報比較ステップと色情報比較ステップによる比較結果に対応して、データベースから画像データを検索する検索ステップと
を含むことを特徴とする画像検索方法
A division step of dividing the image data into a plurality of regions based on colors;
For the plurality of regions, a shape information extraction step for extracting shape information of image data of each region ;
A color information extracting step for extracting color information of image data of each region for the plurality of regions ;
Shape information comparison step for comparing the shape information of the image data of each region and the input shape information;
A color information comparison step for comparing the color information of the image data of each region with the input color information;
A retrieval step for retrieving image data from a database in response to the comparison results of the shape information comparison step and the color information comparison step;
An image search method comprising:
キーワードと画像特徴量との対応関係を表すテーブルを記憶するテーブル記憶手段と、
入力された画像データを複数の領域に分割する分割手段と、
前記複数の領域について、各領域の画像データを画像特徴量に変換する画像変換手段と、
前記テーブルを参照して、前記各領域の画像データの画像特徴量に対応するキーワードを検索する検索手段と
を備えることを特徴とするキーワード抽出装置
Table storage means for storing a table representing the correspondence between keywords and image feature amounts;
A dividing means for dividing the input image data into a plurality of regions;
For the plurality of regions, image conversion means for converting image data of each region into an image feature amount;
A keyword extracting apparatus comprising: a search unit that searches for a keyword corresponding to the image feature amount of the image data of each region with reference to the table.
前記検索手段により検索された各キーワードが対応する関連キーワードを検索し、検索した関連キーワードの中から所定のものを選択するキーワード選択手段を
さらに備えることを特徴とする請求項9に記載のキーワード抽出装置
Search for related keyword each keyword searched by the searching means corresponding keyword extracting according to further comprising a keyword selection means for selecting a predetermined one from among the retrieved related keywords in claim 9, wherein Equipment .
入力された画像データを複数の領域に分割する分割ステップと、
前記複数の領域について、各領域の画像データを画像特徴量に変換する画像変換ステップと、
キーワードと画像特徴量との対応関係を表すテーブルを記憶している記憶手段に記憶されているテーブルを参照して、前記各領域の画像データの画像特徴量に対応するキーワードを検索する検索ステップと
を含むことを特徴とするキーワード抽出方法
A division step of dividing the input image data into a plurality of regions;
For the plurality of regions, an image conversion step of converting image data of each region into an image feature amount;
A search step of searching for a keyword corresponding to the image feature amount of the image data of each region with reference to a table stored in a storage unit storing a table representing a correspondence relationship between the keyword and the image feature amount ;
A keyword extraction method characterized by including:
JP18943397A 1997-07-15 1997-07-15 Image search device, image search method, keyword extraction device, and keyword extraction method Expired - Fee Related JP3649264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18943397A JP3649264B2 (en) 1997-07-15 1997-07-15 Image search device, image search method, keyword extraction device, and keyword extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18943397A JP3649264B2 (en) 1997-07-15 1997-07-15 Image search device, image search method, keyword extraction device, and keyword extraction method

Publications (2)

Publication Number Publication Date
JPH1139317A JPH1139317A (en) 1999-02-12
JP3649264B2 true JP3649264B2 (en) 2005-05-18

Family

ID=16241175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18943397A Expired - Fee Related JP3649264B2 (en) 1997-07-15 1997-07-15 Image search device, image search method, keyword extraction device, and keyword extraction method

Country Status (1)

Country Link
JP (1) JP3649264B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175328A (en) * 2000-12-06 2002-06-21 Canon Inc Method and device for retrieving information and storage medium
JP2005094746A (en) * 2003-08-08 2005-04-07 Seiko Epson Corp Image search method, image data sorting method, image generating apparatus, image output device, image processing system and recording medium
JP4776998B2 (en) * 2005-07-20 2011-09-21 キヤノン株式会社 Image layout editing apparatus, control method thereof, and program
JP4747024B2 (en) * 2006-04-28 2011-08-10 富士フイルム株式会社 Meta information adding apparatus, image reproducing apparatus, control method therefor, and program for controlling them
JP2008192055A (en) * 2007-02-07 2008-08-21 Fujifilm Corp Content search method and content search apparatus
JP4521008B2 (en) * 2007-03-19 2010-08-11 株式会社日立製作所 Image search system
JP4968291B2 (en) * 2009-07-14 2012-07-04 富士通株式会社 Image processing device
JP5963609B2 (en) * 2012-08-23 2016-08-03 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JPH1139317A (en) 1999-02-12

Similar Documents

Publication Publication Date Title
KR101579634B1 (en) Automatic discovery of popular landmarks
CN1322457C (en) Method and apparatus for representing and searching for colour images
KR101289085B1 (en) Images searching system based on object and method thereof
US5353132A (en) Image processing device
CN101276363B (en) Document image retrieval device and document image retrieval method
US7620247B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP3649264B2 (en) Image search device, image search method, keyword extraction device, and keyword extraction method
CN110297934A (en) A kind of image processing method, device and storage medium
US11386589B2 (en) Method and device for image generation and colorization
US7308119B2 (en) Image retrieval apparatus and method, and image display apparatus and method thereof
CN107368491A (en) Making video system and method
JP3720412B2 (en) Information processing method and apparatus
JP5237724B2 (en) Image search system
JP3522570B2 (en) Image search and image classification cooperation system
Bretschneider et al. A retrieval system for remotely sensed imagery
JPH05108728A (en) Filing and retrieving method for picture
JP2012058952A (en) Similar image retrieval device, camera, similar image retrieval method and program
Wan et al. A multiresolution color clustering approach to image indexing and retrieval
JP2004240751A (en) Picture retrieval device
JP2798283B2 (en) Image retrieval device
JP4298001B2 (en) Image search apparatus and method
JP2001143080A (en) Method and device for retrieving image
JP3142902B2 (en) Image storage device and image retrieval method
JP2858576B2 (en) Image processing method
Gan et al. Qualitative Organization of Photo Collections via Quartet Analysis and Active Learning.

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050208

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees