JP2004005303A - Image search system, image searching method, and image search program - Google Patents

Image search system, image searching method, and image search program Download PDF

Info

Publication number
JP2004005303A
JP2004005303A JP2002161052A JP2002161052A JP2004005303A JP 2004005303 A JP2004005303 A JP 2004005303A JP 2002161052 A JP2002161052 A JP 2002161052A JP 2002161052 A JP2002161052 A JP 2002161052A JP 2004005303 A JP2004005303 A JP 2004005303A
Authority
JP
Japan
Prior art keywords
image
search
search target
feature amount
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002161052A
Other languages
Japanese (ja)
Inventor
Kagenori Nagao
長尾 景則
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2002161052A priority Critical patent/JP2004005303A/en
Publication of JP2004005303A publication Critical patent/JP2004005303A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Complex Calculations (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem of a current image searching method wherein similar images corresponding to similar-sense of a human being can not be obtained. <P>SOLUTION: The described problem can be solved by using the image searching method containing a feature volme extraction process S404 for extracting a plurality of visual feature volume of a corresponding image from each image as a subject of search contained in a reference image and the described image group as a subject, a feature volume selecting process S405 for selecting feature volume of the corresponding image as a subject of search approximate to the feature quantity of the reference image by the volume enough to satisfy the predetermined condition, and a similar image extracting process S409 for extracting an image similar to the reference image from the described image group as a subject of search. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、複数の画像から共通する特徴部分を有する画像を検索する画像検索装置、画像検索方法及び画像検索プログラムに関する。
【0002】
【従来の技術】
近年のネットワークの発達やデータストレージの大容量化に伴って、大量の画像情報を保存する画像データベースが多数構築されている。これらの画像データベースは、インターネット等の情報伝達媒体を通じて簡単に利用できる。また、デジタルカメラ、デジタルビデオやスキャナの普及により、個々のユーザが大量の画像データを保有することも少なくない。さらに、クリップアート集や画像素材集として、ビジネス文書やプレゼンテーション資料の利用に供するための画像データが市販されるようになっている。そのため、大量の画像データ群の中から所望の画像データを適切に抽出できる画像検索手段の必要性が高まっている。
【0003】
現在、画像検索手段として最も一般的な形態はキーワード検索である。これは、画像データのそれぞれに画像データの特徴を示すキーワードを付与しておき、所望の画像データを抽出する際には、そのキーワードを手掛かりとして検索を行う手段である。
【0004】
しかし、キーワードの自動抽出が容易な文書データと異なり、画像データに対してはキーワードを人手によって付与する必要があり、大量の画像データを含むデータベースを構築する場合等には膨大な労力が必要となる。また、画像データの場合、画像を構成する要素のいずれに着目するかによって、付与すべきキーワードも異なってくるため、一貫した基準に従ってキーワードを付与することが困難となる。
【0005】
別の画像検索手段として、画像自体を検索の手掛かりとして検索を行う類似画像検索手段がある。類似画像検索手段では、検索対象となる画像データ群からキーとなる基準画像に類似する画像を抽出する。このとき、基準画像および画像データ群に含まれる各々の画像データから特徴量を抽出し、その特徴量を比較することによって基準画像に類似する画像データを抽出する。
【0006】
例えば、「岩波講座マルチメディア情報学8 情報の構造化と検索」(西尾章治郎他著、岩波書店)に、商標意匠データベースシステムTRADEMARKにおける類似画像検索の方法が記載されている。このシステムでは、基準画像と検索対象画像のそれぞれを複数のメッシュ領域に分割し、各メッシュの画像情報およびメッシュ間の画像情報の関係を用いて、4種類の画像の特徴量を抽出している。特徴量は、濃淡分布(64次元)、ラン長分布(256次元)、局所相関(24次元)および局所コントラスト(24次元)であり、いずれも多次元ベクトルとして表される。基準画像および検索対象画像は、これらの4種類の特徴量を結合した多次元空間の一点としてマッピングされ、この多次元空間におけるユークリッド距離が画像同士の類似度を決定するために利用される。すなわち、基準画像の特徴量を示す点と、検索対象画像の特徴量を示す点とのユークリッド距離が小さいほど、画像同士が類似しているものと判断される。
【0007】
また、特開2000−48181号公報には、画像の特徴量のそれぞれについて重み付けを行い、重み付けされた特徴量に基づいて画像間の類似性を比較する方法が開示されている。
【0008】
当該方法では、基準画像および検索対象となる画像データの各々から複数の特徴量を抽出する。ここで、特徴量は、彩度の平均値C0、スペクトラム画像のピーク値P0、エッジの強さE0が例示されている。次に、基準画像から抽出した特徴量に基づいて、各特長量に適用される重み付けが決められる。例えば、色に関する特徴量の重み付けWc、テクスチャに関する重み付けWtが決定される。ここで、基準画像の彩度の平均値C0が大きいほど色の重み付けWcを大きくし、基準画像のスペクトラム画像のピーク値P0およびエッジの強さE0が大きいほどテクスチャの重み付けWtを大きく設定する。基準画像と各検索対象画像データの類似性は、C0×Wcで表される重み付けされた色の特徴量Rcと(P0+E0)×Wtで表される重み付けされたテクスチャの特徴量Rtに基づいて求められる。このように、基準画像の特徴に従って算出される重み付けされた特徴量を利用することによって、テクスチャの周期性やエッジの強度が弱く、彩度が高い基準画像では色を重視し、逆に、彩度が低く、テクスチャの周期性やエッジが強い基準画像ではテクスチャを重視して画像を検索することができる。
【0009】
【発明が解決しようとする課題】
しかしながら、上記従来技術では、人間の類似感覚と一致した検索結果が得られない問題がある。例えば、図1のように、基準画像101は各部が彩色された画像であり、検索対象となる画像102〜104は、それぞれ輪郭のみが黒線で描かれた線図、基準画像101と等しい明度の単一色を施された単色画像および基準画像101と同一色でスケッチ風に描かれたスケッチ画像であるとする。このとき、画像の特徴量として明度、彩度、色相およびエッジの強さを選択すると、基準画像101に対して、画像102では明度、彩度および色相が異なり、画像103では彩度および色相が異なり、画像104ではエッジの強さが異なるために、基準画像101と各画像102〜104は類似しないものと判断される。
【0010】
そこで、特徴量を重み付けする場合でも、基準画像101では彩度とエッジの強さが大きい値をもつため、色に関する重み付けWcとテクスチャに関する重み付けWtの両方が大きい値に設定される。その結果、画像102と画像103では色の特徴が異なり、画像104ではテクスチャの特徴が異なるために、いずれの画像も基準画像と類似しないものと判断される。
【0011】
これは、基準画像101に対して明度、彩度、色相およびエッジの強さの特徴量を選択したことが適切でなかったためである。このように、基準画像の特徴を示す特徴量を普遍的に選択することは困難であり、検索対象画像毎に適切な特徴量を選択して類似画像を抽出できる手段が必要となる。
【0012】
本発明は、上記従来技術の問題を鑑みて、基準画像と検索対象画像を比較して適切な特徴量を選択し、人間の類似感覚と一致した検索結果を得ることができる画像検索装置、画像検索方法及び画像検索プログラムを提供することを目的とする。
【0013】
【課題を解決するための手段】
上記課題を解決するための本発明は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索装置であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出手段と、前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択手段と、前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段とを含むことを特徴とする。
【0014】
さらに、上記画像検索装置において、前記類似画像抽出手段は、前記選択された特徴量と併せて、さらに、前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することが好適である。
【0015】
また、上記課題を解決するための本発明の別の形態は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索装置であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出手段と、前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正手段と、前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段とを含むことを特徴とする。
【0016】
さらに、上記画像検索装置において、前記類似画像抽出手段は、前記重み付けされた特徴量と併せて、さらに、前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することが好適である。
【0017】
上記課題を解決するため本発明は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索方法であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを含むことを特徴とする。
【0018】
さらに、上記画像検索方法において、前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することが好適である。
【0019】
また、上記課題を解決するための本発明の別の形態は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索方法であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを含むことを特徴とする。
【0020】
さらに、上記画像検索方法において、前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することが好適である。
【0021】
上記課題を解決するための本発明は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索プログラムであって、コンピュータに、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを実行させることを特徴とする。
【0022】
さらに、上記画像検索プログラムにおいて、前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することが好適である。
【0023】
また、上記課題を解決するための本発明の別の形態は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索プログラムであって、コンピュータに、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを実行させることを特徴とする。
【0024】
さらに、上記画像検索プログラムにおいて、前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することが好適である。
【0025】
【発明の実施の形態】
本発明の実施の形態について、図を参照して説明する。
【0026】
本発明の実施の形態における画像検索装置は、図2のように、制御部200、標準記憶部202、出力部204、コマンド入力部206、画像入力部208、データベース部210及びバス212から基本的に構成される。制御部200、標準記憶部202、出力部204、コマンド入力部206、画像入力部208およびデータベース部210はバス212を介して情報(データ)伝達可能に接続される。
【0027】
本実施の形態における画像検索装置は、図2のように、さらにバス212に接続されたインターフェース部214を備えていても良い。画像検索装置は、インターフェース部214を介して外部のネットワーク216に情報伝達可能に接続され、ネットワーク216を介して画像データを受信できるものとしても良い。
【0028】
制御部200は、標準記憶部202に格納されている画像検索プログラムを実行し、データベース部210に格納されている画像データ群またはネットワークを介して受信される画像データ群から基準画像に類似する画像データを検索する。検索された画像データは、出力部204または標準記憶部202へ出力される。制御部200は、一般的なコンピュータに用いられるCPUとすることができる。
【0029】
標準記憶部202は、制御部200で実行される画像検索プログラム、検索処理に用いられるパラメータ及び検索結果である画像データなどを格納および保持する。標準記憶部202は、バス212を介して制御部200から適宜参照することができる。標準記憶部202は、一般的な半導体メモリ、ハードディスク装置、光磁気ディスク装置などを適宜選択して用いることができる。
【0030】
出力部204は、制御部200から出力された検索結果をユーザが確認可能な情報として出力する。また、ユーザが画像検索を行う際にコマンドやパラメータを入力する際のユーザインターフェースとしても用いられる。出力部204は、ディスプレイ装置、プリンタなどを適宜選択して用いることができる。
【0031】
コマンド入力部206は、画像検索プログラムを実行する際の制御コマンドやパラメータをユーザが入力するために用いられる。例えば、制御部200に対して標準記憶部202に格納されている画像検索プログラムの実行開始を命令する際の制御コマンドを入力する際に用いられる。コマンド入力部206は、キーボード、マウスまたはタッチパネルなどを適宜選択して用いることができる。
【0032】
画像入力部208は、検索のキーとなる基準画像や検索対象となる画像データを入力する際に用いられる。画像入力部208から入力された画像データは、データベース部210または標準記憶部202に格納および保持される。画像入力部208は、スキャナ、デジタルカメラまたはデジタルビデオなどの一般的な画像入力装置を適宜選択して用いることができる。
【0033】
データベース部210は、画像入力部208やネットワーク216から取り込まれた画像データを格納および保持する。画像データは、ビットマップ形式、jpeg形式、tiff形式などの様々な画像形式で格納および保持することができる。データベース部210に保持された画像データは、バス212を介して制御部200から適宜参照することができる。データベース部210は、データ量が多い画像データを格納および保持する必要があるため、ハードディクス装置、光磁気ディスク装置などの大容量記憶装置を適宜選択して用いることが好適である。
【0034】
<第1の画像検索方法>
以下に、上記画像検索装置を用いて、検索対象となる画像データ群から基準画像に類似する画像データを検索する第1の画像検索方法について、図を参照して詳細に説明する。
【0035】
図3に、本画像検索方法における画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像の画像データは、特徴量抽出手段301へ入力され、少なくとも1つの特徴量303が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段302へ入力され、基準画像データと同一の種類の特徴量304が抽出される。基準画像データおよび検索対象画像データの特徴量303,304は、特徴量選択手段305へ入力され、それぞれ同種の特徴量同士を比較し、類似性の高い特徴量のみが選択される。類似性の高い特徴量が選択され、基準画像データおよび検索対象画像データのそれぞれに対する選択された特徴量306,307として出力される。選択された特徴量306,307は、類似画像抽出手段308へ入力され、その選択された特徴量306,307のみに基づいて基準画像と検索対象画像との類似度を求める。以上の処理を、検索対象となる全ての画像データに対して順次行うことによって、より高い類似度を有する検索対象画像が基準画像に類似するものとして抽出される。
【0036】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図4に、第1の画像検索方法における処理のフローチャートを示す。第1の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0037】
ユーザは、コマンド入力部206から画像検索を開始するための制御コマンドを入力する。制御部200は、制御コマンドを受けて、標準記憶部202に記憶されている画像検索プログラムを実行する。画素検索プログラムが実行されると、処理は直ちにステップS401へ移行する。
【0038】
ステップS401では、画像入力部208から検索のキーとなる基準画像の画像データが読み込まれる。これとは別に、基準画像データはインターフェース部214を用いて、ネットワーク216を介して画像検索装置の外部から読み込むこともできる。さらに、データベース部210に予め格納および保持されている画像データ群を画像として出力部204に表示し、その中の1つをユーザが適宜選択し、コマンド入力部206を用いて指定することによって、基準画像を決定することもできる。基準画像データは、標準記憶部202またはデータベース部210に格納および保持され、制御部200によって適宜読み出されて処理に供される。
【0039】
ステップS402では、基準画像から少なくとも1つの特徴量が抽出される。基準画像は、図5に示すように、水平方向にK分割および垂直方向にL分割され、K×L=N個の小領域に分割される。これらの各小領域ごとに特徴量が抽出される。第1の画像検索方法では、例として、明度、色およびエッジに関する特徴量が抽出されるものとする。
【0040】
基準画像がCIELAB色空間で表現された画素からなるディジタル画像データであるとする。画像データは、他の色空間で表現されたものであっても良いが、人間の視覚特性との整合性を考慮すればCIELAB色空間のような均等色空間によって表現することが好適である。
【0041】
明度および色に関する特徴量は以下の手順で求められる。画像上の位置(x,y)における画素値をp(x,y)とすると、画像はCIELAB色空間で表現されているため数式(1)のように表すことができる。
【数1】

Figure 2004005303
さらに、小領域のうちi番目(i=0,1,・・・N−1)の小領域をSとすると、小領域Sにおける平均明度Lおよび平均色Cはそれぞれ数式(2)および数式(3)で表される。ここで、数式(2)および数式(3)におけるPは、小領域S内の画素数とする。
【数2】
Figure 2004005303
全ての小領域Sについて平均明度Lおよび平均色Cを求め、それらを要素とする特徴ベクトルを数式(4)および数式(5)によって求め、それぞれを基準画像に対する明度の特徴量Lkeyおよび色の特徴量Ckeyとする。ここで、数式(5)におけるベクトル表記は、数式(6)のように各要素を羅列したベクトルを意味するものとする。
【数3】
Figure 2004005303
一方、基準画像のエッジに関する特徴量は以下の手順で求められる。本画像検出方法では、Sobelオペレータによる水平方向および垂直方向のエッジ検出を利用したエッジに関する特徴量抽出の例を示す。
【0042】
画像上の位置(x,y)における水平方向のエッジの強度Ex(x,y)および垂直方向のエッジの強度Ey(x,y)は、それぞれ数式(7)および数式(8)によって表される。ここで、数式(7)および数式(8)における‖A‖は、Aのノルムを意味する。
【数4】
Figure 2004005303
ここでは、色の不連続点も画像のエッジとしてp(x,y)を用いたが、色を考慮せず画像の明度のみからエッジの強度を求めたい場合には、p(x,y)の代わりにL(x,y)を用いれば良い。小領域Sにおける水平方向のエッジの平均強度Exiおよび垂直方向のエッジの平均強度Eyiは、それぞれ数式(9)および数式(10)で表される。
【数5】
Figure 2004005303
さらに、数式(9)および数式(10)によって得られた水平方向および垂直方向のエッジの平均強度Exi,Eyiを用いて、小領域Sのエッジの強度Eを数式(11)で定義する。
【数6】
Figure 2004005303
全ての小領域Sに対するエッジの強度Eを求め、それらを要素とする特徴ベクトルを数式(12)によって求め、基準画像データに対するエッジの特徴量Ekeyとする。ここで、数式(12)の表記は、数式(6)のように各要素を羅列したベクトルを意味するものとする。
【数7】
Figure 2004005303
以上により、基準画像データから明度、色およびエッジに関する特徴量が、それぞれ特徴ベクトルLkey,CkeyおよびEkeyとして抽出される。
【0043】
本画像検索方法では、画像を小領域Sに分割した上で明度、色およびエッジに関する特徴量を抽出したが、本発明の画像検索方法はこれに限定されるものではない。例えば、画像を小領域Sに分割することなく、画像全体を1つの領域として特徴量Lkey,CkeyおよびEkeyを抽出しても良い。
【0044】
ステップS403からS404では、検索対象画像データから特徴量の抽出を行う。検索対象画像データは、データベース部210に予め定められた順序で格納および保持されているものとし、検索対象画像データのいずれか1つを示すポインタ(アドレス)が最初の画像データを示すように初期化されているものとする。ステップS403では、制御部200は、データベース部210からポインタが示す画像データを読み出す。
【0045】
ステップS404では、読み出された画像データから明度、色およびエッジに関する特徴量が抽出される。各特徴量の抽出は、上記の基準画像に対するものと同様に数式(1)〜数式(12)を用いて行われ、それぞれ特徴ベクトルLsubj,CsubjおよびEsubjとして抽出される。ここで、j=0,1,・・・は各画像データに固有に割り当てられた識別番号とする。
【0046】
ステップS405では、基準画像からの特徴量Lkey,CkeyおよびEkeyと、検索対象画像データからの特徴量Lsubj,CsubjおよびEsubjとを比較し、類似度を算出するために用いられる特徴量を選択する。
【0047】
基準画像の各特徴量を示す特徴ベクトルと、検索対象画像データの各特徴量を示す特徴ベクトルとの比較は、数式(13)から数式(15)に示す相関係数R,RおよびRを算出することによって行う。ここで、A・BはベクトルAとベクトルBとの内積を意味する。
【数8】
Figure 2004005303
特徴量の選択は、相関係数R,RおよびRが予め定めた閾値TRを超える特徴量を選択することによって行う。
【0048】
以下に、例として、図1における画像101を基準画像、画像103を検索対象画像データとした場合の特徴量の選択について説明する。画像101は、星が黄色、葉が緑、幹が茶色で彩色された画像である。これに対して、画像103は、画像101と対応する部分の明度が等しい単一色が施された単色画像である。両画像では、各部の明度は等しいため、明度の特徴量LkeyとLsubjは等しくなる。一方、色の特徴量CkeyとCsubjは著しく異なる。エッジの特徴量EkeyとEsubjは、色が異なるため全く等しくはならないが、画像上の同じ位置に同じ方向のエッジを有するためEkeyとEsubjは高い相関を持つこととなる。従って、各特徴量に対する相関係数は、例えば、R=1.0,R=0.1およびR=0.8となる。特徴量を選択するための閾値TRを0.5とすると、これを上回るR及びRが選択される。
【0049】
特徴量の選択方法は上記の相関係数を用いる方法に限られるものではなく、対応する2つの特徴量の類似性を比較できる方法であれば良い。例えば、相関係数の代わりに2つの特徴ベクトル間のユークリッド距離を用いて選択しても良い。この場合、特徴ベクトル間のユークリッド距離は、対象ベクトル間の非類似性を示すので、予め定めた閾値TRより小さいユークリッド距離を有する特徴量を選択する。
【0050】
さらに、ユーザ自身が特徴の選択を行うことにより、ユーザが注目する画像検索の意図を反映したシステムを構築することも可能である。この場合、出力部204にユーザインターフェースを表示し、ユーザが選択する特徴量をコマンド入力部206から指定して選択する。
【0051】
ステップS406では、類似度の算出を行う。類似度とは、選択された特徴量に対して基準画像と検索対象画像データとの間の近似性を示す評価値をいう。具体的には、例えば、図1の画像101を基準画像、画像103を検索対象画像データとし、ステップS405において明度およびエッジに関する特徴量が選択された場合には、数式(16)を用いて類似度Rを算出することができる。
【数9】
Figure 2004005303
数式(16)では、基準画像と検索対象画像データにおいて選択された特徴量間の相関係数を用いている。一般に画像からM種類の特徴量が選択される場合、基準画像の特徴量をFj,key、検索対象画像データの特徴量をFj,subjとすると、両者の相関係数による類似度Rは数式(17)で表すことができる。ここで、Gは、ステップS405で選択された特徴量の集合を示す。なお、ステップS405で選択された特徴量の数が0である場合はR=0とする。
【数10】
Figure 2004005303
類似度の算出方法は相関係数を用いる方法に限られるものではなく、基準画像と検索対象画像データについて選択された特徴量の類似性を評価できる方法であれば良い。例えば、数式(18)のように、相関係数の代わりに特徴量ベクトル間のユークリッド距離Dを用いても良い。この場合、ベクトル間のユークリッド距離Dは2つのベクトルの非類似性を示すので、ユークリッド距離Dの値が小さいほど類似性は高くなる。
【数11】
Figure 2004005303
ステップS407では、基準画像と検索対象画像データとの類似度が、検索対象画像データと関連付けられて標準記憶部202又はデータベース部210へ格納および保持される。
【0052】
ステップS408では、検索対象となる画像データ群に含まれる全ての画像データについて、基準画像との類似度が算出されたか否かが判断される。検索対象画像データは、データベース部210に予め定められた順序で保持されているので、上記のS403からS407で処理の対象となった検索対象画像データを示すポインタが最後のものであるか否かを判断し、最後のポインタでなければポインタを次の値として処理をステップS403へ戻す。最後のポインタであればステップS409へ処理を移行する。
【0053】
ステップS409では、類似度を相関係数を用いて算出した場合は、標準記憶部202又はデータベース部210に保持されている類似度を降順に並び替える。類似度をユークリッド距離などの非類似性を示す評価値として算出した場合には昇順に並び替える。その結果、最大の類似度を有する検索対象画像データを基準画像データに類似する画像の画像データとして抽出する。また、類似する画像を複数抽出したい場合には、所定の閾値以上の類似度を有する検索対象画像データを抽出することも好適である。
【0054】
ステップS410では、類似度の並び替えの結果を用いて、検索結果の表示を行う。検索結果は、最大の類似度を有する検索対象画像データを出力部204に表示することができる。また、類似度が高いものから順に所定の数だけ選択し、それらに関連付けられた検索対象画像データを出力部204に表示することも好適である。さらに、予め閾値を定めておき、この閾値を超える類似度を有する検索対象画像データを出力部204に表示することも好適である。この場合、閾値を超える類似度を有する検索対象画像データが存在しないときには「類似画像無し」等の表示を行うこともできる。
【0055】
以上のように、第1の画像検索方法によれば、基準画像と検索対象画像を比較して適切な特徴量を選択し、検索対象となる画像データ群から基準画像と人間の類似感覚と一致した類似性を有する画像を検索することができる。
【0056】
<第2の画像検索方法>
上記第1の画像検索方法では、基準画像と検索対象画像データとの特徴の一部のみが異なる場合に、基準画像と検索対象画像データとが全く同一である場合と等しい類似度が算出されることがある。例えば、図1において、画像101が基準画像、画像103が検索対象画像データである場合に、両画像は明度が同一であるため、明度に関する特徴量LkeyとLsubjとは等しく、色に関する特徴量CkeyとCsubjは大きく異なるものとなる。また、エッジに関する特徴量EkeyとEsubjとは高い相関を示すものとなる。このとき、特徴量を選択するための閾値を高く設定すると、明度に関する特徴量のみが選択される。数式(17)を用いて類似度を算出した場合に類似度Rは1となり、基準画像と検索対象画像データが全く同一である場合と等しくなってしまう。
【0057】
このような問題を回避するために、選択された特徴量に応じて類似度を修正する方法が考えられる。以下に、類似度を修正して画像データを検索する第2の画像検索方法について、図を参照して詳細に説明する。
【0058】
図6に、本画像検索方法における画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像の画像データは、特徴量抽出手段601へ入力され、少なくとも1つの特徴量603が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段602へ入力され、基準画像データと同一の種類の特徴量604が抽出される。特徴量603,604は、特徴量選択手段605へ入力され、それぞれ同種の特徴量同士が比較され、類似性の高い特徴量のみが選択される。類似性の高い特徴量が選択され、基準画像データ及び検索対象画像データのそれぞれに対する選択された特徴量606,607として出力される。選択された特徴量606,607は、類似画像抽出手段608に入力される。一方、特徴量選択手段605からは、特徴量を選択した際の情報として特徴量選択情報610が出力される。特徴量選択情報610は、類似度修正係数算出手段611に入力され、類似度修正係数612が求められる。類似度修正係数612は、類似画像抽出手段608に入力され、選択された特徴量606,607に基づいて基準画像データと検索対象画像データの類似度が算出され、その類似度は類似度修正係数612によって修正されて、最終的な類似度として求められる。類似画像抽出手段608では、以上の処理を、検索対象となる全ての画像データに対して順次行うことによって、より高い類似度を有する検索対象画像を基準画像に類似する画像として抽出し、出力609とする。
【0059】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図7に、第2の画像検索方法における処理のフローチャートを示す。第2の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0060】
図7のフローチャートにおいて、ステップS701からS705の処理は、上記第1の画像検索方法におけるステップS401からS405における処理と同一であるため説明を省略する。
【0061】
ステップS706では、ステップS705における特徴量の選択状況に基づいて、類似度修正係数qを算出する。類似度修正係数qは、例えば、数式(19)を用いて求めることができる。ここで、Dim(A)はベクトルAの次元数を示す。また、関数f(x)は引数xに対する単調増加関数であり、例えば、図8に示すような関数である。
【数12】
Figure 2004005303
数式(19)を用いることによって、ステップS705で選択された特徴量の種類が多いほど類似度修正係数qの値は大きくなる。例えば、図8に示す関数f(x)を用いた場合、全ての特徴量が選択されるとq=1.0となる。
【0062】
また、図1における画像101が基準画像データ、画像103が検索対象画像データである場合、ステップS705において明度に関する特徴量のみが選択されたとすると、Dim(Lkey)=N、Dim(Ckey)=2NおよびDim(Ekey)=2Nであるから、数式(19)の引数はN/(N+2N+2N)=0.2となる。図8を用いると、類似度修正係数qは0.76となる。
【0063】
ステップS707では、類似度修正係数qによる修正を加えた類似度Rを算出する。類似度の算出方法には、基準画像データと検索対象画像データとについて選択された特徴量の相関係数を算出する数式(17)に対して、類似度修正係数qを用いて修正を行った数式(20)を用いることができる。
【数13】
Figure 2004005303
上記例では、類似度修正係数qは0.76となるので、数式(20)を用いると、類似度Rは0.76となる。このように、選択された特徴量の種類数に応じて類似度Rの値が修正され、基準画像データと検索対象画像データとの違いを適切に反映した類似度を算出することができる。
【0064】
また、相関係数の代わりに2つの選択された特徴量を示す特徴ベクトル間のユークリッド距離Dを用いる場合には、ユークリッド距離Dを類似度修正係数qによって修正した数式(21)を用いることが好適である。
【数14】
Figure 2004005303
ステップS708からS711の処理は、上記第1の画像検索方法におけるステップS407からS410における処理と同一であるため説明を省略する。
【0065】
以上のように、第2の画像検索方法によれば、選択された特徴量の種類数に応じて、より適切に基準画像と検索対象画像データとの類似性を評価して画像を検索することができる。
【0066】
<第3の画像検索方法>
第1および第2の画像検索方法では、予め定めた選択条件を満足する特徴量のみを選択して類似度を算出した。このとき、特徴量が選択条件の境界付近にある場合には、画像の微妙な差異によってその特徴量が選択されたり、選択されなかったりすることとなる。その結果、画像には大きな差異がないにも関わらず、算出される類似度には大きな差異を生ずる問題が発生する可能性がある。
【0067】
このような問題を回避するために、特徴量の選択を行わず、特徴量を重み付けして類似度を算出する方法が考えられる。以下に、特徴量を重み付けして画像データを検索する第3の画像検索方法について、図を参照して詳細に説明する。
【0068】
図9に、本画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像の画像データは、特徴量抽出手段901へ入力され、少なくとも1つの特徴量903が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段902へ入力され、基準画像データと同一の種類の特徴量904が抽出される。特徴量903,904は、特徴量重み付け設定手段905へ入力され、特徴量の比較が行われ、その類似性に基づいて特徴量重み付け906が算出される。特徴量重み付け906は、特徴量903,904と共に類似画像抽出手段907に入力され、これらに基づいて基準画像データと検索対象画像データとの類似度が算出される。以上の処理を検索対象となる画像データに対して順次行うことによって、高い類似度を有する画像を基準画像に類似する画像として検索する。
【0069】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図10に、第3の画像検索方法における処理のフローチャートを示す。第3の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0070】
ステップS1001からS1004の処理は、上記第1の画像検索方法におけるステップS401からS404の処理と同一であるため説明を省略する。
【0071】
ステップS1005では、ステップS1004で抽出された特徴量に対して特徴量の重み付けを行う。各特徴量の種類ごとに、特徴量重み付けw(j=0,1・・・M−1)は数式(22)を用いて求めることができる。数式(22)における関数g(x)は引数xに対して単調増加関数であり、例えば、図11に示すような関数とすることができる。
【数15】
Figure 2004005303
数式(19)を図11に示すような関数とすることによって、基準画像データと検索対象画像データから抽出された特徴量について、それぞれの特徴量間の相関係数が0.5未満の場合には特徴量重み付けwは0となり、相関係数が0.5以上の場合には特徴量重み付けwは相関係数に伴って増加する。
【0072】
ステップS1005では、さらに、特徴量重み付けwを用いて、数式(23)及び数式(24)のように各特徴量の重み付けを行う。
【数16】
Figure 2004005303
ステップS1006では、数式(23)及び数式(24)によって重み付けされた特徴量を用いて、数式(25)を用いて類似度Rを算出する。
【数17】
Figure 2004005303
ステップS1007からS1010の処理は、上記第1の画像検索方法におけるステップS407からS410の処理と同一であるため説明を省略する。
【0073】
以上のように、第3の画像検索方法によれば、閾値などの選択条件を用いて特徴量を選択することなく、抽出した全ての特徴量に対して適切な重み付けをすることによって、画像には大きな差異がなく、特徴量が選択条件の境界付近にある場合においても、算出される類似度に大きな差異を生ずる問題を回避することができる。その結果、基準画像データと検索対象画像データとの類似性を適切に評価して画像を検索することができる。
【0074】
<第4の画像検索方法>
第3の画像検索方法において、特徴量重み付けwに基づいて類似度を修正することも好適である。以下に、特徴量重み付けwによって類似度を修正する第4の画像検索方法について、図を参照して詳細に説明する。
【0075】
図12に、本画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像は、特徴量抽出手段1201へ入力され、少なくとも1つの特徴量1203が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段1202へ入力され、基準画像データと同一の種類の特徴量1204が抽出される。特徴量1203,1204は、特徴量重み付け設定手段1205へ入力され、特徴量の比較が行われ、その類似性に基づいて特徴量重み付け1206が算出される。特徴量重み付け設定手段1205では、さらに、類似度修正係数1211を算出する際に用いられる特徴量重み付け情報1209を出力する。特徴量重み付け情報1209は、類似度修正係数算出手段1210に入力され、類似度修正係数1211が求められる。特徴量重み付け1206及び類似度修正係数1211は、抽出された特徴量1203,1204と共に類似画像抽出手段1207へ入力され、これらに基づいて、基準画像データと検索対象画像データとの類似度が算出される。以上の処理を検索対象となる画像データに対して順次行うことによって、高い類似度を有する画像を基準画像に類似するものとして検索する。
【0076】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図13に、第4の画像検索方法における処理のフローチャートを示す。第4の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0077】
ステップS1301からS1305の処理は、上記第3の画像検索方法におけるステップS1001からS1005の処理と同一であるため説明を省略する。
【0078】
ステップS1306では、ステップS1305で算出された各特徴量に対する重み付けwに基づいて、類似度修正係数qを算出する。類似度修正係数qは、例えば、数式(26)を用いて求めることができる。ここで、Dim(A)はベクトルAの次元数を示す。また、関数f(x)は引数xに対する単調増加関数であり、例えば、図8に示すような関数である。
【数18】
Figure 2004005303
数式(26)を用いることによって、各特徴量に対する重み付けwが大きくなるに伴って、類似度修正係数qも増加させることができる。
【0079】
ステップS1307では、類似度修正係数qによって修正された類似度Rを算出する。類似度Rの算出方法には、重み付けされた特徴量から類似度Rを求める数式(25)に対して、類似度修正係数qを用いて修正を行った数式(27)を用いることができる。
【数19】
Figure 2004005303
ステップS1308からS1311の処理は、上記第3の画像検索方法におけるステップS1007からS1010の処理と同一であるため説明を省略する。
【0080】
以上のように、第4の画像検索方法によれば、特徴量に対する重み付けwの値に応じて類似度Rを修正することによって、より適切に基準画像と検索対象画像データとの類似性を評価して画像を検索することができる。
【0081】
【発明の効果】
本発明によれば、白黒画像とカラー画像のように彩度や色相に関する特徴のみが異なる画像間、又は、線図と色塗りされた図のようにエッジの強さの特徴は共通する画像間において、従来の画像検索技術では検索が困難であった類似画像を検索することができる。すなわち、基準画像と検索対象画像データとにおいて類似する特徴を適切に選択し、人間の類似感覚と一致した類似画像を検索することを可能とした。
【図面の簡単な説明】
【図1】特徴の一部が類似した画像を例示する図である。
【図2】本発明の実施の形態における画像検索装置の構成図である。
【図3】本発明の第1の画像検索方法における処理を概念的に示すブロック図である。
【図4】本発明の第1の画像検索方法におけるフローチャートを示す図である。
【図5】画像の特徴量を抽出するための画像分割方法を説明する図である。
【図6】本発明の第2の画像検索方法における処理を概念的に示すブロック図である。
【図7】本発明の第2の画像検索方法におけるフローチャートを示す図である。
【図8】本発明の画像検索方法における関数f(x)の一例を示す図である。
【図9】本発明の第3の画像検索方法における処理を概念的に示すブロック図である。
【図10】本発明の第3の画像検索方法におけるフローチャートを示す図である。
【図11】本発明の画像検索方法における関数g(x)の一例を示す図である。
【図12】本発明の第4の画像検索方法における処理を概念的に示すブロック図である。
【図13】本発明の第4の画像検索方法におけるフローチャートを示す図である。
【符号の説明】
101 色分けされた画像、102 線図による画像、103 画像101と等しい明度の単色画像、104 画像101と同一色で描かれたスケッチ風の画像、200 制御部、202 標準記憶部、204 出力部、206 コマンド入力部、208 画像入力部、210 データベース部、212 バス、214インターフェース部、216 ネットワーク、301,302,601,602,901,902,1201,1202 特徴量抽出手段、303,304,603,604,903,904,1203,1204 特徴量、305,605 特徴量選択手段、306,307,606,607 選択された特徴量、308,608,907,1207 類似画像抽出手段、309,609,908,1208 類似度、610 特徴量選択情報、611,1210 類似度修正係数算出手段、612,1211 類似度修正係数、905,1205 特徴量重み付け設定手段、906,1206 特徴量重み付け、1209 特徴量重み付け情報。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image search device, an image search method, and an image search program for searching for an image having a common feature from a plurality of images.
[0002]
[Prior art]
With the development of networks in recent years and the increase in data storage capacity, a large number of image databases for storing a large amount of image information have been constructed. These image databases can be easily used through an information transmission medium such as the Internet. In addition, due to the spread of digital cameras, digital videos, and scanners, individual users often hold a large amount of image data. Furthermore, image data for use in business documents and presentation materials has been marketed as clip art collections and image material collections. Therefore, the necessity of an image search unit capable of appropriately extracting desired image data from a large amount of image data group is increasing.
[0003]
Currently, the most common form of image search means is keyword search. This is means for assigning a keyword indicating a feature of the image data to each of the image data, and performing a search using the keyword as a clue when extracting desired image data.
[0004]
However, unlike document data, in which automatic extraction of keywords is easy, it is necessary to manually assign keywords to image data, and enormous labor is required when constructing a database containing a large amount of image data. Become. Further, in the case of image data, the keyword to be assigned differs depending on which element of the image is focused, and it is difficult to assign a keyword according to a consistent standard.
[0005]
As another image search means, there is a similar image search means for performing a search using the image itself as a clue for the search. The similar image search means extracts an image similar to the key reference image from the image data group to be searched. At this time, a feature amount is extracted from each image data included in the reference image and the image data group, and image data similar to the reference image is extracted by comparing the feature amounts.
[0006]
For example, "Iwanami Lecture on Multimedia Informatics 8 Information Structuring and Retrieval" (by Shojiro Nishio et al., Iwanami Shoten) describes a similar image retrieval method in the trademark design database system TRADEMARK. In this system, each of a reference image and a search target image is divided into a plurality of mesh regions, and feature amounts of four types of images are extracted using image information of each mesh and a relationship between image information between the meshes. . The feature amount is a density distribution (64 dimensions), a run length distribution (256 dimensions), a local correlation (24 dimensions), and a local contrast (24 dimensions), all of which are represented as multidimensional vectors. The reference image and the search target image are mapped as one point in a multidimensional space in which these four types of feature amounts are combined, and the Euclidean distance in the multidimensional space is used to determine the similarity between the images. That is, the smaller the Euclidean distance between the point indicating the feature amount of the reference image and the point indicating the feature amount of the search target image, it is determined that the images are more similar.
[0007]
Also, Japanese Patent Application Laid-Open No. 2000-48181 discloses a method of weighting each of the feature amounts of an image and comparing similarities between images based on the weighted feature amounts.
[0008]
In this method, a plurality of feature amounts are extracted from each of a reference image and image data to be searched. Here, the characteristic amount is exemplified by the average value C0 of the saturation, the peak value P0 of the spectrum image, and the strength E0 of the edge. Next, weighting applied to each feature value is determined based on the feature value extracted from the reference image. For example, the weight Wc of the feature amount related to the color and the weight Wt related to the texture are determined. Here, the larger the average value C0 of the saturation of the reference image is, the larger the color weight Wc is, and the larger the peak value P0 and the edge strength E0 of the spectrum image of the reference image are, the larger the texture weight Wt is set. The similarity between the reference image and each search target image data is obtained based on the weighted color feature Rc represented by C0 × Wc and the weighted texture feature Rt represented by (P0 + E0) × Wt. Can be As described above, by using the weighted feature amount calculated according to the features of the reference image, the periodicity of the texture and the strength of the edge are weak, and the color is emphasized in the reference image with high saturation. In a reference image having a low degree and a strong periodicity or edge of the texture, the image can be searched with emphasis on the texture.
[0009]
[Problems to be solved by the invention]
However, in the above-described conventional technology, there is a problem that a search result that matches human similarity cannot be obtained. For example, as shown in FIG. 1, the reference image 101 is an image in which each part is colored, and the images 102 to 104 to be searched are each a diagram in which only the outline is drawn by a black line, and the brightness is equal to the reference image 101. And a sketch image drawn in a sketch style with the same color as the single-color image and the reference image 101. At this time, when brightness, saturation, hue, and edge strength are selected as the feature amounts of the image, the brightness, saturation, and hue of the image 102 are different from those of the reference image 101, and the saturation and hue of the image 103 are different. In contrast, since the image 104 has a different edge strength, it is determined that the reference image 101 and the images 102 to 104 are not similar.
[0010]
Therefore, even when the feature amount is weighted, both the color weight Wc and the texture weight Wt are set to large values because the saturation and the edge strength of the reference image 101 have large values. As a result, since the image 102 and the image 103 have different color characteristics, and the image 104 has different texture characteristics, it is determined that none of the images is similar to the reference image.
[0011]
This is because it has not been appropriate to select feature amounts of lightness, saturation, hue, and edge strength for the reference image 101. As described above, it is difficult to universally select a feature amount indicating the feature of the reference image, and a means for selecting an appropriate feature amount for each search target image and extracting a similar image is required.
[0012]
The present invention has been made in consideration of the above-described problems of the related art, and has an image search apparatus capable of comparing a reference image and a search target image, selecting an appropriate feature amount, and obtaining a search result that matches a human similarity. A search method and an image search program are provided.
[0013]
[Means for Solving the Problems]
The present invention for solving the above-mentioned problem is an image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, wherein the reference image and the search A feature amount extracting unit that extracts a plurality of visual feature amounts of the image from each of the search target images included in the target image group; and a predetermined condition for the feature amount of the reference image for each of the search target images. A feature amount selecting unit that selects a feature amount of the search target image that is close enough to satisfy, and extracts an image similar to the reference image from the search target image group based only on the selected feature amount. And a similar image extracting unit.
[0014]
Further, in the above image search device, the similar image extracting means may further include, in addition to the selected feature amount, the number of feature amounts selected for each of the search target images and the number of feature amounts extracted from the search target image. It is preferable to extract an image similar to the reference image from the search target image group based on a difference from the total number of feature amounts.
[0015]
Another embodiment of the present invention for solving the above problem is an image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, From each of the reference images and the search target images included in the search target image group, a feature amount extracting unit that extracts a plurality of visual feature amounts of the image, and for each of the search target images, A feature amount correction unit that weights the feature amount based on a difference between the feature amounts extracted from the reference image, and an image similar to the reference image from the search target image group based on the weighted feature amount. And a similar image extracting means for extracting.
[0016]
Further, in the image search device, the similar image extracting unit may further include, in addition to the weighted feature amounts, a similarity extraction unit based on a difference between the feature amounts before and after the feature amounts are weighted. It is preferable to extract an image similar to the reference image from the inside.
[0017]
In order to solve the above problem, the present invention is an image search method for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, wherein the reference image and the search target A feature amount extracting step of extracting a plurality of visual feature amounts of the image from each of the search object images included in the image group, and a predetermined condition for the feature amount of the reference image for each of the search object images. A feature amount selecting step of selecting a feature amount of the search target image that is as close as possible, and similarity extracting an image similar to the reference image from the search target image group based on only the selected feature amount. And an image extracting step.
[0018]
Further, in the image search method, the similar image extraction step further includes, in addition to the selected feature amount, the number of feature amounts selected for each of the search target images and the number of feature amounts extracted from the search target image. It is preferable to extract an image similar to the reference image from the search target image group based on a difference from the total number of feature amounts.
[0019]
Another embodiment of the present invention for solving the above problem is an image search method for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, From each of the reference images and the search target images included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image, and for each of the search target images, A feature amount correction step of weighting the feature amount based on a difference between the feature amounts extracted from the reference image, and an image similar to the reference image from the search target image group based on the weighted feature amount. And extracting a similar image.
[0020]
Further, in the image search method, the similar image extraction step may further include, in addition to the weighted feature amount, further determining the search target image group based on a difference between the feature amounts before and after the feature amount is weighted. It is preferable to extract an image similar to the reference image from the inside.
[0021]
The present invention for solving the above-mentioned problems is an image search program for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images. And from each of the search target images included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image, and for each of the search target images, a feature amount of the reference image A feature amount selecting step of selecting a feature amount of the search target image that is only approximate to a predetermined condition, and an image similar to the reference image from the search target image group based on only the selected feature amount. And a similar image extracting step of extracting the same.
[0022]
Further, in the image search program, the similar image extraction step further includes, in addition to the selected feature amount, the number of feature amounts selected for each of the search target images and the number of feature amounts extracted from the search target image. It is preferable to extract an image similar to the reference image from the search target image group based on a difference from the total number of feature amounts.
[0023]
Another embodiment of the present invention for solving the above-described problem is an image search program for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, A computer extracting, from each of the reference images and the search target images included in the search target image group, a feature amount extracting step of extracting a plurality of visual feature amounts of the image; A feature amount correcting step of weighting the feature amount based on a difference between the feature amount extracted from the target image and the reference image; and a similarity to the reference image from the search target image group based on the weighted feature amount. And a similar image extracting step of extracting an image to be processed.
[0024]
Further, in the image search program, the similar image extraction step may further include, in addition to the weighted feature amount, further, based on a difference between the feature amounts before and after the feature amount is weighted, the search target image group. It is preferable to extract an image similar to the reference image from the inside.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described with reference to the drawings.
[0026]
As shown in FIG. 2, the image search device according to the embodiment of the present invention basically includes a control unit 200, a standard storage unit 202, an output unit 204, a command input unit 206, an image input unit 208, a database unit 210, and a bus 212. Is composed of The control unit 200, the standard storage unit 202, the output unit 204, the command input unit 206, the image input unit 208, and the database unit 210 are connected via a bus 212 so that information (data) can be transmitted.
[0027]
The image search device according to the present embodiment may further include an interface unit 214 connected to a bus 212 as shown in FIG. The image search device may be connected to an external network 216 via the interface unit 214 so as to be able to transmit information, and may be capable of receiving image data via the network 216.
[0028]
The control unit 200 executes the image search program stored in the standard storage unit 202, and executes an image similar to the reference image from the image data group stored in the database unit 210 or the image data group received via the network. Search for data. The searched image data is output to the output unit 204 or the standard storage unit 202. The control unit 200 can be a CPU used for a general computer.
[0029]
The standard storage unit 202 stores and holds an image search program executed by the control unit 200, parameters used for search processing, image data as search results, and the like. The standard storage unit 202 can be appropriately referred to from the control unit 200 via the bus 212. As the standard storage unit 202, a general semiconductor memory, a hard disk device, a magneto-optical disk device, or the like can be appropriately selected and used.
[0030]
The output unit 204 outputs the search result output from the control unit 200 as information that can be confirmed by the user. It is also used as a user interface when a user inputs a command or parameter when performing an image search. As the output unit 204, a display device, a printer, or the like can be appropriately selected and used.
[0031]
The command input unit 206 is used by a user to input control commands and parameters for executing the image search program. For example, it is used when a control command for instructing the control unit 200 to start execution of an image search program stored in the standard storage unit 202 is input. As the command input unit 206, a keyboard, a mouse, a touch panel, or the like can be appropriately selected and used.
[0032]
The image input unit 208 is used when a reference image serving as a search key and image data to be searched are input. The image data input from the image input unit 208 is stored and held in the database unit 210 or the standard storage unit 202. As the image input unit 208, a general image input device such as a scanner, a digital camera, or a digital video can be appropriately selected and used.
[0033]
The database unit 210 stores and holds image data captured from the image input unit 208 and the network 216. The image data can be stored and held in various image formats such as a bitmap format, a jpeg format, and a tiff format. The image data held in the database unit 210 can be appropriately referred to from the control unit 200 via the bus 212. Since the database unit 210 needs to store and hold image data having a large data amount, it is preferable to appropriately select and use a large-capacity storage device such as a hard disk device or a magneto-optical disk device.
[0034]
<First image search method>
Hereinafter, a first image search method for searching the image data group to be searched for image data similar to the reference image using the image search apparatus will be described in detail with reference to the drawings.
[0035]
FIG. 3 is a block diagram conceptually showing an image search method in the present image search method. Image data of a reference image serving as a search key is input to a feature amount extracting unit 301, and at least one feature amount 303 is extracted. Similarly, each piece of image data to be searched is input to the feature amount extracting means 302, and a feature amount 304 of the same type as the reference image data is extracted. The feature amounts 303 and 304 of the reference image data and the search target image data are input to the feature amount selection unit 305, and the same type of feature amounts are compared with each other, and only the feature amount with high similarity is selected. A feature amount having a high similarity is selected and output as selected feature amounts 306 and 307 for the reference image data and the search target image data, respectively. The selected feature amounts 306 and 307 are input to the similar image extracting unit 308, and the similarity between the reference image and the search target image is obtained based on only the selected feature amounts 306 and 307. By sequentially performing the above processing on all image data to be searched, a search target image having a higher similarity is extracted as being similar to the reference image.
[0036]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 4 shows a flowchart of a process in the first image search method. The processing of the first image search method is stored and held in the standard storage unit 202 as an image search program, and is appropriately read and executed by the control unit 200.
[0037]
The user inputs a control command for starting an image search from the command input unit 206. The control unit 200 receives the control command and executes the image search program stored in the standard storage unit 202. Upon execution of the pixel search program, the process immediately proceeds to step S401.
[0038]
In step S401, image data of a reference image serving as a search key is read from the image input unit 208. Alternatively, the reference image data can be read from outside the image search device via the network 216 using the interface unit 214. Further, a group of image data stored and held in advance in the database unit 210 is displayed as an image on the output unit 204, and one of them is appropriately selected by the user, and designated by using the command input unit 206. A reference image can also be determined. The reference image data is stored and held in the standard storage unit 202 or the database unit 210, read out by the control unit 200 as appropriate, and provided for processing.
[0039]
In step S402, at least one feature amount is extracted from the reference image. As shown in FIG. 5, the reference image is divided into K in the horizontal direction and L in the vertical direction, and is divided into K × L = N small areas. A feature amount is extracted for each of these small areas. In the first image search method, as an example, it is assumed that feature amounts relating to brightness, color, and edge are extracted.
[0040]
It is assumed that the reference image is digital image data composed of pixels expressed in the CIELAB color space. The image data may be expressed in another color space, but is preferably expressed in a uniform color space such as the CIELAB color space in consideration of consistency with human visual characteristics.
[0041]
The characteristic values relating to brightness and color are obtained by the following procedure. Assuming that the pixel value at the position (x, y) on the image is p (x, y), the image is expressed in the CIELAB color space, so that it can be expressed as Expression (1).
(Equation 1)
Figure 2004005303
Further, the i-th (i = 0, 1,..., N−1) small area of the small areas is represented by S i Then, the small area S i Lightness L at i And average color C i Are represented by Expression (2) and Expression (3), respectively. Here, P in equations (2) and (3) i Is a small area S i Is the number of pixels within.
(Equation 2)
Figure 2004005303
All small areas S i About average lightness L i And average color C i , And a feature vector having these as elements is obtained by Expressions (4) and (5). key And color feature C key And Here, the vector notation in Expression (5) means a vector in which each element is listed as in Expression (6).
[Equation 3]
Figure 2004005303
On the other hand, the feature value relating to the edge of the reference image is obtained by the following procedure. In the present image detection method, an example of extraction of a feature amount related to an edge using horizontal and vertical edge detection by a Sobel operator will be described.
[0042]
The intensity Ex (x, y) of the horizontal edge and the intensity Ey (x, y) of the vertical edge at the position (x, y) on the image are represented by Expressions (7) and (8), respectively. You. Here, {A} in Equations (7) and (8) means the norm of A.
(Equation 4)
Figure 2004005303
Here, p (x, y) is used as an image edge also at a color discontinuity point. However, if it is desired to obtain the edge intensity only from the brightness of the image without considering the color, p (x, y) L instead of * (X, y) may be used. Small area S i The average intensity E of the horizontal edges at xi And the average intensity E of the vertical edges yi Is represented by Expression (9) and Expression (10), respectively.
(Equation 5)
Figure 2004005303
Furthermore, the average intensities E of the horizontal and vertical edges obtained by Equations (9) and (10) xi , E yi , The small area S i Edge strength E i Is defined by Expression (11).
(Equation 6)
Figure 2004005303
All small areas S i Of the edge E against i Are obtained, and a feature vector having these as elements is obtained by Expression (12). key And Here, the expression of Expression (12) means a vector in which each element is listed as in Expression (6).
(Equation 7)
Figure 2004005303
As described above, the feature amounts relating to the brightness, the color, and the edge from the reference image data are respectively converted into the feature vectors L key , C key And E key Is extracted as
[0043]
In the present image search method, an image is i Then, the feature amounts relating to brightness, color and edge are extracted, but the image search method of the present invention is not limited to this. For example, if the image is i , Without dividing the entire image into one region. key , C key And E key May be extracted.
[0044]
In steps S403 to S404, a feature amount is extracted from the search target image data. The search target image data is stored and held in a predetermined order in the database unit 210, and the pointer (address) indicating any one of the search target image data is initially set so as to indicate the first image data. It is assumed that In step S403, the control unit 200 reads out the image data indicated by the pointer from the database unit 210.
[0045]
In step S404, feature values relating to brightness, color, and edge are extracted from the read image data. The extraction of each feature amount is performed using Expressions (1) to (12) in the same manner as that for the above-described reference image. subj , C subj And E subj Is extracted as Here, j = 0, 1,... Are identification numbers uniquely assigned to the respective image data.
[0046]
In step S405, the feature amount L from the reference image key , C key And E key And the feature amount L from the search target image data subj , C subj And E subj And selects a feature value used for calculating the similarity.
[0047]
The comparison between the feature vector indicating each feature amount of the reference image and the feature vector indicating each feature amount of the search target image data is performed using the correlation coefficient R shown in Expressions (13) to (15). L , R c And R E Is calculated. Here, AB means the inner product of the vector A and the vector B.
(Equation 8)
Figure 2004005303
The selection of the feature amount is based on the correlation coefficient R L , R C And R E By selecting a feature amount exceeding a predetermined threshold value TR.
[0048]
Hereinafter, as an example, a description will be given of selection of a feature amount when the image 101 in FIG. 1 is a reference image and the image 103 is image data to be searched. The image 101 is an image in which stars are colored yellow, leaves are green, and trunks are brown. On the other hand, the image 103 is a single-color image in which a single color having the same brightness as that of the image 101 is applied. In both images, since the brightness of each part is equal, the lightness feature amount L key And L subj Are equal. On the other hand, the color feature amount C key And C subj Are significantly different. Edge feature value E key And E subj Are not exactly equal due to the different colors, but have the same direction edge at the same position on the image, so E key And E subj Has a high correlation. Therefore, the correlation coefficient for each feature value is, for example, R L = 1.0, R C = 0.1 and R E = 0.8. Assuming that the threshold value TR for selecting a feature value is 0.5, R L And R E Is selected.
[0049]
The method of selecting a feature value is not limited to the method using the above-described correlation coefficient, but may be any method capable of comparing the similarity between two corresponding feature values. For example, the selection may be made using the Euclidean distance between two feature vectors instead of the correlation coefficient. In this case, since the Euclidean distance between the feature vectors indicates dissimilarity between the target vectors, a feature amount having a Euclidean distance smaller than a predetermined threshold TR is selected.
[0050]
Furthermore, by selecting a feature by the user himself, it is possible to construct a system that reflects the intention of the image search that the user focuses on. In this case, a user interface is displayed on the output unit 204, and a feature amount selected by the user is designated and selected from the command input unit 206.
[0051]
In step S406, the similarity is calculated. The similarity refers to an evaluation value indicating the similarity between the reference image and the search target image data with respect to the selected feature amount. More specifically, for example, when the image 101 in FIG. 1 is set as the reference image and the image 103 is set as the search target image data, and the feature amount relating to the brightness and the edge is selected in step S405, the similarity is calculated using Expression (16). The degree R can be calculated.
(Equation 9)
Figure 2004005303
Equation (16) uses the correlation coefficient between the feature amount selected in the reference image and the search target image data. Generally, when M kinds of feature amounts are selected from an image, the feature amount of the reference image is set to F j, key , The feature amount of the search target image data is set to F j, subj Then, the similarity R based on the correlation coefficient between the two can be expressed by Expression (17). Here, G indicates a set of feature amounts selected in step S405. When the number of feature amounts selected in step S405 is 0, R = 0.
(Equation 10)
Figure 2004005303
The method of calculating the similarity is not limited to the method using the correlation coefficient, but may be any method that can evaluate the similarity between the feature amounts selected for the reference image and the search target image data. For example, a Euclidean distance D between feature amount vectors may be used instead of the correlation coefficient as in Expression (18). In this case, since the Euclidean distance D between the vectors indicates the dissimilarity between the two vectors, the smaller the value of the Euclidean distance D, the higher the similarity.
[Equation 11]
Figure 2004005303
In step S407, the similarity between the reference image and the search target image data is stored and held in the standard storage unit 202 or the database unit 210 in association with the search target image data.
[0052]
In step S408, it is determined whether or not the similarity with the reference image has been calculated for all the image data included in the image data group to be searched. Since the search target image data is stored in the database unit 210 in a predetermined order, it is determined whether the pointer indicating the search target image data processed in S403 to S407 is the last one. Is not the last pointer, the process returns to step S403 with the pointer as the next value. If it is the last pointer, the process moves to step S409.
[0053]
In step S409, when the similarity is calculated using the correlation coefficient, the similarity stored in the standard storage unit 202 or the database unit 210 is rearranged in descending order. When the similarity is calculated as an evaluation value indicating dissimilarity such as the Euclidean distance, the similarities are rearranged in ascending order. As a result, the search target image data having the maximum similarity is extracted as image data of an image similar to the reference image data. When it is desired to extract a plurality of similar images, it is also preferable to extract search target image data having a degree of similarity equal to or greater than a predetermined threshold.
[0054]
In step S410, a search result is displayed using the result of sorting the similarities. As the search result, the search target image data having the maximum similarity can be displayed on the output unit 204. It is also preferable to select a predetermined number of images in descending order of similarity and display the search target image data associated with them in the output unit 204. Further, it is also preferable to set a threshold value in advance and display search target image data having a similarity exceeding the threshold value on the output unit 204. In this case, when there is no search target image data having a similarity exceeding the threshold, a display such as “No similar image” can be displayed.
[0055]
As described above, according to the first image search method, the reference image and the search target image are compared, an appropriate feature amount is selected, and the reference image is matched with the human similarity sense from the search target image data group. Images having the similarity can be retrieved.
[0056]
<Second image search method>
In the first image search method, when only a part of the features of the reference image and the search target image data are different, the similarity similar to the case where the reference image and the search target image data are completely the same is calculated. Sometimes. For example, in FIG. 1, when the image 101 is the reference image and the image 103 is the search target image data, since both images have the same brightness, the feature amount L regarding brightness is used. key And L subj Is equal to, and the feature amount C regarding the color key And C subj Will be very different. In addition, the feature amount E related to the edge key And E subj Indicates a high correlation. At this time, if the threshold value for selecting the feature value is set high, only the feature value related to lightness is selected. When the similarity is calculated using Expression (17), the similarity R becomes 1, which is equal to the case where the reference image and the search target image data are completely the same.
[0057]
In order to avoid such a problem, a method of correcting the similarity according to the selected feature amount is considered. Hereinafter, a second image search method for searching for image data by correcting the similarity will be described in detail with reference to the drawings.
[0058]
FIG. 6 is a block diagram conceptually showing an image search method in the present image search method. Image data of a reference image serving as a search key is input to a feature amount extracting unit 601 and at least one feature amount 603 is extracted. Similarly, each of the image data to be searched is input to the feature amount extracting unit 602, and the same type of feature amount 604 as the reference image data is extracted. The feature amounts 603 and 604 are input to the feature amount selection unit 605, and the same type of feature amounts are compared with each other, and only the feature amount having high similarity is selected. A feature amount having high similarity is selected and output as selected feature amounts 606 and 607 for the reference image data and the search target image data, respectively. The selected feature amounts 606 and 607 are input to the similar image extracting unit 608. On the other hand, the feature amount selection means 605 outputs feature amount selection information 610 as information when the feature amount is selected. The feature amount selection information 610 is input to the similarity correction coefficient calculation unit 611, and the similarity correction coefficient 612 is obtained. The similarity correction coefficient 612 is input to the similar image extraction unit 608, and the similarity between the reference image data and the search target image data is calculated based on the selected feature amounts 606 and 607. 612 to obtain the final similarity. The similar image extracting unit 608 sequentially performs the above-described processing on all image data to be searched, thereby extracting a search target image having a higher similarity as an image similar to the reference image, and outputting 609. And
[0059]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 7 shows a flowchart of a process in the second image search method. The processing of the second image search method is stored and held in the standard storage unit 202 as an image search program, and is appropriately read and executed by the control unit 200.
[0060]
In the flowchart of FIG. 7, the processing in steps S701 to S705 is the same as the processing in steps S401 to S405 in the first image search method, and a description thereof will be omitted.
[0061]
In step S706, a similarity correction coefficient q is calculated based on the selection state of the feature amount in step S705. The similarity correction coefficient q can be calculated using, for example, Expression (19). Here, Dim (A) indicates the number of dimensions of the vector A. The function f (x) is a monotonically increasing function for the argument x, and is, for example, a function as shown in FIG.
(Equation 12)
Figure 2004005303
By using Expression (19), the value of the similarity correction coefficient q increases as the number of types of the feature amounts selected in step S705 increases. For example, when the function f (x) shown in FIG. 8 is used, q = 1.0 when all the feature amounts are selected.
[0062]
If the image 101 in FIG. 1 is the reference image data and the image 103 is the search target image data, and if only the feature amount relating to the brightness is selected in step S705, Dim (L key ) = N, Dim (C key ) = 2N and Dim (E key ) = 2N, the argument of equation (19) is N / (N + 2N + 2N) = 0.2. Using FIG. 8, the similarity correction coefficient q is 0.76.
[0063]
In step S707, the similarity R corrected by the similarity correction coefficient q is calculated. In the method of calculating the similarity, the expression (17) for calculating the correlation coefficient of the feature quantity selected for the reference image data and the search target image data was corrected using the similarity correction coefficient q. Equation (20) can be used.
(Equation 13)
Figure 2004005303
In the above example, since the similarity correction coefficient q is 0.76, the similarity R is 0.76 by using Expression (20). As described above, the value of the similarity R is corrected according to the number of types of the selected feature amount, and the similarity that appropriately reflects the difference between the reference image data and the search target image data can be calculated.
[0064]
When the Euclidean distance D between two feature vectors indicating the feature amounts is used instead of the correlation coefficient, the equation (21) in which the Euclidean distance D is corrected by the similarity correction coefficient q is used. It is suitable.
[Equation 14]
Figure 2004005303
The processing in steps S708 to S711 is the same as the processing in steps S407 to S410 in the first image search method, and a description thereof will be omitted.
[0065]
As described above, according to the second image search method, it is possible to more appropriately evaluate the similarity between the reference image and the search target image data and search for the image in accordance with the number of types of the selected feature amount. Can be.
[0066]
<Third image search method>
In the first and second image search methods, similarity is calculated by selecting only feature amounts that satisfy predetermined selection conditions. At this time, if the feature amount is near the boundary of the selection condition, the feature amount may or may not be selected due to a subtle difference in the image. As a result, there is a possibility that a problem occurs in which the calculated similarity has a large difference although there is no large difference in the images.
[0067]
In order to avoid such a problem, a method of calculating the similarity by weighting the feature amounts without selecting the feature amounts can be considered. Hereinafter, a third image search method for searching for image data by weighting feature amounts will be described in detail with reference to the drawings.
[0068]
FIG. 9 is a block diagram conceptually showing the image search method. Image data of a reference image serving as a search key is input to a feature amount extracting unit 901 and at least one feature amount 903 is extracted. Similarly, each of the image data to be searched is input to the feature amount extraction unit 902, and the same type of feature amount 904 as the reference image data is extracted. The feature values 903 and 904 are input to a feature value weight setting unit 905, where the feature values are compared, and a feature value weight 906 is calculated based on the similarity. The feature amount weighting 906 is input to the similar image extracting unit 907 together with the feature amounts 903 and 904, and the similarity between the reference image data and the search target image data is calculated based on these. By sequentially performing the above processing on image data to be searched, an image having a high degree of similarity is searched for as an image similar to the reference image.
[0069]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 10 shows a flowchart of a process in the third image search method. The process of the third image search method is stored and held in the standard storage unit 202 as an image search program, and is appropriately read and executed by the control unit 200.
[0070]
The processing in steps S1001 to S1004 is the same as the processing in steps S401 to S404 in the above-described first image search method, and a description thereof will be omitted.
[0071]
In step S1005, feature amounts are weighted for the feature amounts extracted in step S1004. For each type of feature, feature weight w j (J = 0, 1,..., M-1) can be obtained using Expression (22). The function g (x) in Expression (22) is a monotonically increasing function with respect to the argument x, and can be, for example, a function as shown in FIG.
[Equation 15]
Figure 2004005303
By using Equation (19) as a function as shown in FIG. 11, when the correlation coefficient between the respective feature amounts is less than 0.5 for the feature amounts extracted from the reference image data and the search target image data, Is the feature weight w j Is 0, and when the correlation coefficient is 0.5 or more, the feature amount weighting w j Increases with the correlation coefficient.
[0072]
In step S1005, further, the feature amount weighting w j Is used to weight each feature amount as in Expressions (23) and (24).
(Equation 16)
Figure 2004005303
In step S1006, the similarity R is calculated using Expression (25) using the feature amounts weighted by Expressions (23) and (24).
[Equation 17]
Figure 2004005303
The processing in steps S1007 to S1010 is the same as the processing in steps S407 to S410 in the first image search method, and a description thereof will be omitted.
[0073]
As described above, according to the third image search method, all the extracted feature amounts are appropriately weighted without selecting feature amounts using selection conditions such as thresholds, so that Has no large difference, and even when the feature amount is near the boundary of the selection condition, it is possible to avoid the problem that the calculated similarity causes a large difference. As a result, an image can be searched by appropriately evaluating the similarity between the reference image data and the search target image data.
[0074]
<Fourth image search method>
In the third image search method, the feature amount weighting w j It is also preferable to correct the similarity based on The feature weight w j The fourth image search method for correcting the similarity according to the following will be described in detail with reference to the drawings.
[0075]
FIG. 12 is a block diagram conceptually showing the image search method. A reference image serving as a search key is input to a feature amount extraction unit 1201 and at least one feature amount 1203 is extracted. Similarly, each piece of image data to be searched is input to the feature amount extraction unit 1202, and the same type of feature amount 1204 as the reference image data is extracted. The feature values 1203 and 1204 are input to the feature value weight setting unit 1205, where the feature values are compared, and the feature value weight 1206 is calculated based on the similarity. The feature weight setting unit 1205 further outputs feature weight information 1209 used when calculating the similarity correction coefficient 1211. The feature amount weighting information 1209 is input to the similarity correction coefficient calculation unit 1210, and the similarity correction coefficient 1211 is obtained. The feature amount weight 1206 and the similarity correction coefficient 1211 are input to the similar image extracting unit 1207 together with the extracted feature amounts 1203 and 1204, and based on these, the similarity between the reference image data and the search target image data is calculated. You. By sequentially performing the above processing on image data to be searched, an image having a high similarity is searched for as similar to the reference image.
[0076]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 13 shows a flowchart of a process in the fourth image search method. The processing of the fourth image search method is stored and held in the standard storage unit 202 as an image search program, and is appropriately read and executed by the control unit 200.
[0077]
The processing in steps S1301 to S1305 is the same as the processing in steps S1001 to S1005 in the third image search method, and a description thereof will be omitted.
[0078]
In step S1306, the weight w for each feature amount calculated in step S1305 is set. j Is used to calculate a similarity correction coefficient q. The similarity correction coefficient q can be obtained using, for example, Expression (26). Here, Dim (A) indicates the number of dimensions of the vector A. The function f (x) is a monotonically increasing function for the argument x, and is, for example, a function as shown in FIG.
(Equation 18)
Figure 2004005303
By using the equation (26), the weight w j Becomes larger, the similarity correction coefficient q can also be increased.
[0079]
In step S1307, the similarity R corrected by the similarity correction coefficient q is calculated. As a method of calculating the similarity R, a mathematical expression (27) obtained by modifying the mathematical expression (25) for obtaining the similarity R from the weighted feature amount using the similarity modification coefficient q can be used.
[Equation 19]
Figure 2004005303
The processing in steps S1308 to S1311 is the same as the processing in steps S1007 to S1010 in the third image search method, and a description thereof will be omitted.
[0080]
As described above, according to the fourth image search method, the weight w j By correcting the similarity R in accordance with the value of, it is possible to more appropriately evaluate the similarity between the reference image and the search target image data and search for the image.
[0081]
【The invention's effect】
According to the present invention, between images that differ only in saturation and hue, such as a black-and-white image and a color image, or between images having a common edge strength characteristic, such as a line diagram and a colored diagram. , It is possible to search for similar images, which were difficult to search using the conventional image search technology. That is, it is possible to appropriately select a similar feature between the reference image and the search target image data, and to search for a similar image that matches the similarity of a human.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of an image having a part of similar features.
FIG. 2 is a configuration diagram of an image search device according to an embodiment of the present invention.
FIG. 3 is a block diagram conceptually showing processing in the first image search method of the present invention.
FIG. 4 is a diagram showing a flowchart in the first image search method of the present invention.
FIG. 5 is a diagram illustrating an image dividing method for extracting a feature amount of an image.
FIG. 6 is a block diagram conceptually showing processing in a second image search method of the present invention.
FIG. 7 is a diagram showing a flowchart in a second image search method of the present invention.
FIG. 8 is a diagram showing an example of a function f (x) in the image search method of the present invention.
FIG. 9 is a block diagram conceptually showing processing in a third image search method of the present invention.
FIG. 10 is a diagram showing a flowchart in a third image search method of the present invention.
FIG. 11 is a diagram showing an example of a function g (x) in the image search method of the present invention.
FIG. 12 is a block diagram conceptually showing processing in a fourth image search method of the present invention.
FIG. 13 is a diagram showing a flowchart in a fourth image search method of the present invention.
[Explanation of symbols]
101 Color-coded image, 102 diagram-based image, 103 monochromatic image with brightness equal to image 101, 104 sketch-like image drawn in the same color as image 101, 200 control unit, 202 standard storage unit, 204 output unit, 206 command input unit, 208 image input unit, 210 database unit, 212 bus, 214 interface unit, 216 network, 301, 302, 601, 602, 901, 902, 1201, 1202 feature amount extraction means, 303, 304, 603 604, 903, 904, 1203, 1204 feature quantity, 305, 605 feature quantity selection means, 306, 307, 606, 607 selected feature quantity, 308, 608, 907, 1207 similar image extraction means, 309, 609, 908 , 1208 Similarity, 610 Feature selection information, 61 1,1210 similarity correction coefficient calculation means, 612, 1211 similarity correction coefficient, 905, 1205 feature weight setting means, 906, 1206 feature weight, 1209 feature weight information.

Claims (12)

検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索装置であって、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出手段と、
前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択手段と、
前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段と、
を含むことを特徴とする画像検索装置。
An image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images,
From each of the reference images and the search target images included in the search target image group, a feature amount extraction unit that extracts a plurality of visual feature amounts,
For each of the search target images, a feature amount selection unit that selects a feature amount of the search target image that is similar to the feature amount of the reference image by only a predetermined condition,
A similar image extracting unit configured to extract an image similar to the reference image from the search target image group based on only the selected feature amount;
An image search device comprising:
請求項1に記載の画像検索装置において、
前記類似画像抽出手段は、前記選択された特徴量と併せて、さらに、
前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することを特徴とする画像検索装置。
The image search device according to claim 1,
The similar image extracting means, together with the selected feature amount,
An image similar to the reference image is extracted from the search target image group based on a difference between the number of feature amounts selected for each of the search target images and the total number of feature amounts extracted from the search target image. An image search device characterized by the above-mentioned.
検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索装置であって、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出手段と、
前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正手段と、
前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段と、
を含むことを特徴とする画像検索装置。
An image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images,
From each of the reference images and the search target images included in the search target image group, a feature amount extraction unit that extracts a plurality of visual feature amounts,
A feature amount correcting unit that weights the feature amount based on a difference between feature amounts extracted from the search target image and the reference image for each of the search target images;
A similar image extracting unit configured to extract an image similar to the reference image from the search target image group based on the weighted feature amount;
An image search device comprising:
請求項3に記載の画像検索装置において、
前記類似画像抽出手段は、前記重み付けされた特徴量と併せて、さらに、
前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することを特徴とする画像検索装置。
The image search device according to claim 3,
The similar image extracting means, together with the weighted feature amount,
An image search device, wherein an image similar to the reference image is extracted from the search target image group based on a difference between the feature amounts before and after the feature amount is weighted.
検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索方法であって、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、
前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を含むことを特徴とする画像検索方法。
An image search method for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
A feature amount extraction step of extracting a plurality of visual feature amounts from each of the reference images and the search target images included in the search target image group;
A feature amount selecting step of selecting, for each of the search target images, a feature amount of the search target image that is similar to the feature amount of the reference image by only a predetermined condition;
A similar image extracting step of extracting an image similar to the reference image from the search target image group based on only the selected feature amount;
An image search method comprising:
請求項5に記載の画像検索方法において、
前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、
前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することを特徴とする画像検索方法。
The image search method according to claim 5,
The similar image extraction step, together with the selected feature amount, further,
An image similar to the reference image is extracted from the search target image group based on a difference between the number of feature amounts selected for each of the search target images and the total number of feature amounts extracted from the search target image. An image search method, characterized in that:
検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索方法であって、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、
前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を含むことを特徴とする画像検索方法。
An image search method for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
A feature amount extraction step of extracting a plurality of visual feature amounts from each of the reference images and the search target images included in the search target image group;
A feature amount correcting step of weighting the feature amount based on a difference between feature amounts extracted from the search target image and the reference image for each of the search target images;
A similar image extraction step of extracting an image similar to the reference image from the search target image group based on the weighted feature amount;
An image search method comprising:
請求項7に記載の画像検索方法において、
前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、
前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することを特徴とする画像検索方法。
The image search method according to claim 7,
The similar image extraction step, together with the weighted feature amount, further,
An image search method, wherein an image similar to the reference image is extracted from the search target image group based on a difference between the feature amounts before and after the feature amount is weighted.
検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索プログラムであって、
コンピュータに、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、
前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を実行させることを特徴とする画像検索プログラム。
An image search program for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
On the computer,
From each of the reference image and the search target image included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image,
A feature amount selecting step of selecting, for each of the search target images, a feature amount of the search target image that is similar to the feature amount of the reference image by only a predetermined condition;
A similar image extracting step of extracting an image similar to the reference image from the search target image group based on only the selected feature amount;
An image search program characterized by executing the following.
請求項9に記載の画像検索プログラムにおいて、
前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、
前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することを特徴とする画像検索プログラム。
The image search program according to claim 9,
The similar image extraction step, together with the selected feature amount, further,
An image similar to the reference image is extracted from the search target image group based on a difference between the number of feature amounts selected for each of the search target images and the total number of feature amounts extracted from the search target image. An image search program characterized by the following.
検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索プログラムであって、
コンピュータに、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、
前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を実行させることを特徴とする画像検索プログラム。
An image search program for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
On the computer,
From each of the reference image and the search target image included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image,
A feature amount correcting step of weighting the feature amount based on a difference between feature amounts extracted from the search target image and the reference image for each of the search target images;
A similar image extraction step of extracting an image similar to the reference image from the search target image group based on the weighted feature amount;
An image search program characterized by executing the following.
請求項11に記載の画像検索プログラムにおいて、
前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、
前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することを特徴とする画像検索プログラム。
The image search program according to claim 11,
The similar image extraction step, together with the weighted feature amount, further,
An image search program for extracting an image similar to the reference image from the search target image group based on a difference between the feature amounts before and after the feature amount is weighted.
JP2002161052A 2002-06-03 2002-06-03 Image search system, image searching method, and image search program Pending JP2004005303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002161052A JP2004005303A (en) 2002-06-03 2002-06-03 Image search system, image searching method, and image search program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002161052A JP2004005303A (en) 2002-06-03 2002-06-03 Image search system, image searching method, and image search program

Publications (1)

Publication Number Publication Date
JP2004005303A true JP2004005303A (en) 2004-01-08

Family

ID=30430234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002161052A Pending JP2004005303A (en) 2002-06-03 2002-06-03 Image search system, image searching method, and image search program

Country Status (1)

Country Link
JP (1) JP2004005303A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313524A (en) * 2005-04-07 2006-11-16 Hiroshima Univ Data storage device, data retrieval device, data reproduction device, data retrieval program
JP2007134985A (en) * 2005-11-10 2007-05-31 Seiko Epson Corp Image processing technique
JP2007149018A (en) * 2005-11-30 2007-06-14 Fujitsu Ltd Graphic retrieval program, recording medium recorded with the same, graphic retrieval device and graphic retrieval method
JP2007144641A (en) * 2005-11-24 2007-06-14 Seiko Epson Corp Image processing technique
JP2007299100A (en) * 2006-04-28 2007-11-15 Hiroshima Univ Attainment target type education program and attainment target type education system
JP2008158776A (en) * 2006-12-22 2008-07-10 Canon Inc Feature detection method and device, program, and storage medium
JP2010186485A (en) * 2010-04-05 2010-08-26 Omron Corp Method of processing color image and image processing apparatus
WO2010122721A1 (en) * 2009-04-22 2010-10-28 日本電気株式会社 Matching device, matching method, and matching program
JP2013137604A (en) * 2011-12-28 2013-07-11 Glory Ltd Image collation processing device, image collation processing method and image collation processing program
JP2014167761A (en) * 2013-02-28 2014-09-11 Toshiba Corp Environment evaluation apparatus, method and program
CN112180328A (en) * 2020-09-29 2021-01-05 中国船舶重工集团公司第七二四研究所 Passive positioning method based on cross positioning and feature search
US11210771B2 (en) 2017-03-15 2021-12-28 Fujifilm Corporation Image evaluation apparatus, image evaluation method, and image evaluation program using impression values of representative images

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313524A (en) * 2005-04-07 2006-11-16 Hiroshima Univ Data storage device, data retrieval device, data reproduction device, data retrieval program
JP4581968B2 (en) * 2005-11-10 2010-11-17 セイコーエプソン株式会社 Image processing technology
JP2007134985A (en) * 2005-11-10 2007-05-31 Seiko Epson Corp Image processing technique
JP2007144641A (en) * 2005-11-24 2007-06-14 Seiko Epson Corp Image processing technique
JP4600256B2 (en) * 2005-11-24 2010-12-15 セイコーエプソン株式会社 Image processing technology
JP2007149018A (en) * 2005-11-30 2007-06-14 Fujitsu Ltd Graphic retrieval program, recording medium recorded with the same, graphic retrieval device and graphic retrieval method
JP4682030B2 (en) * 2005-11-30 2011-05-11 富士通株式会社 Graphic search program, recording medium recording the program, graphic search device, and graphic search method
JP2007299100A (en) * 2006-04-28 2007-11-15 Hiroshima Univ Attainment target type education program and attainment target type education system
JP2008158776A (en) * 2006-12-22 2008-07-10 Canon Inc Feature detection method and device, program, and storage medium
US8072612B2 (en) 2006-12-22 2011-12-06 Canon Kabushiki Kaisha Method and apparatus for detecting a feature of an input pattern using a plurality of feature detectors, each of which corresponds to a respective specific variation type and outputs a higher value when variation received by the input pattern roughly matches the respective specific variation type
WO2010122721A1 (en) * 2009-04-22 2010-10-28 日本電気株式会社 Matching device, matching method, and matching program
US8958609B2 (en) 2009-04-22 2015-02-17 Nec Corporation Method and device for computing degree of similarly between data sets
JP2010186485A (en) * 2010-04-05 2010-08-26 Omron Corp Method of processing color image and image processing apparatus
JP4670995B2 (en) * 2010-04-05 2011-04-13 オムロン株式会社 Color image processing method and image processing apparatus
JP2013137604A (en) * 2011-12-28 2013-07-11 Glory Ltd Image collation processing device, image collation processing method and image collation processing program
JP2014167761A (en) * 2013-02-28 2014-09-11 Toshiba Corp Environment evaluation apparatus, method and program
US11210771B2 (en) 2017-03-15 2021-12-28 Fujifilm Corporation Image evaluation apparatus, image evaluation method, and image evaluation program using impression values of representative images
CN112180328A (en) * 2020-09-29 2021-01-05 中国船舶重工集团公司第七二四研究所 Passive positioning method based on cross positioning and feature search
CN112180328B (en) * 2020-09-29 2022-09-30 中国船舶重工集团公司第七二四研究所 Passive positioning method based on cross positioning and feature search

Similar Documents

Publication Publication Date Title
JP5229744B2 (en) Image classification device and image classification program
KR101346730B1 (en) System, apparatus, method, program and recording medium for processing image
US7925650B2 (en) Image management methods, image management systems, and articles of manufacture
US8094935B2 (en) Representative color extracting method and apparatus based on human color sense and data histogram distributions
JP5236785B2 (en) Color image search method, color image search apparatus, color image search system, and computer executable program
KR101457284B1 (en) Methods and apparatuses for facilitating content-based image retrieval
US8391618B1 (en) Semantic image classification and search
US20090110300A1 (en) Apparatus and method for processing image
KR100471927B1 (en) System for searching image data being based on web and method thereof
JP2003153007A (en) Image compression control system and method based on image importance
JP2007206920A (en) Image processor and image processing method, retrieving device and method, program and recording medium
JP2008262581A (en) System and method for determining image similarity
KR20070079330A (en) Display control apparatus, display control method, computer program, and recording medium
JP5164692B2 (en) Image processing apparatus, image processing method, and program
JP2004005303A (en) Image search system, image searching method, and image search program
US7519236B2 (en) Image retrieval
JP4674257B2 (en) Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
EP1884950A2 (en) Image recording and playing system and image recording and playing method
JP2004021430A (en) Image searching device, image searching method, and image searching program
JP2010250630A (en) Image server, image retrieval system, and image retrieval method
JP2010250636A (en) Image retrieval terminal device and image retrieval request method
JP2004192555A (en) Information management method, device and program
JP2010250634A (en) Image server, image retrieval system, image retrieval method, and index creation method
KR20000014123A (en) Image likeness weighted value adjustment device and method and contents base image search system and method using thereof
JP6109118B2 (en) Image processing apparatus and method, information processing apparatus and method, and program