JP2004005303A - Image search system, image searching method, and image search program - Google Patents
Image search system, image searching method, and image search program Download PDFInfo
- Publication number
- JP2004005303A JP2004005303A JP2002161052A JP2002161052A JP2004005303A JP 2004005303 A JP2004005303 A JP 2004005303A JP 2002161052 A JP2002161052 A JP 2002161052A JP 2002161052 A JP2002161052 A JP 2002161052A JP 2004005303 A JP2004005303 A JP 2004005303A
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- search target
- feature amount
- similar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、複数の画像から共通する特徴部分を有する画像を検索する画像検索装置、画像検索方法及び画像検索プログラムに関する。
【0002】
【従来の技術】
近年のネットワークの発達やデータストレージの大容量化に伴って、大量の画像情報を保存する画像データベースが多数構築されている。これらの画像データベースは、インターネット等の情報伝達媒体を通じて簡単に利用できる。また、デジタルカメラ、デジタルビデオやスキャナの普及により、個々のユーザが大量の画像データを保有することも少なくない。さらに、クリップアート集や画像素材集として、ビジネス文書やプレゼンテーション資料の利用に供するための画像データが市販されるようになっている。そのため、大量の画像データ群の中から所望の画像データを適切に抽出できる画像検索手段の必要性が高まっている。
【0003】
現在、画像検索手段として最も一般的な形態はキーワード検索である。これは、画像データのそれぞれに画像データの特徴を示すキーワードを付与しておき、所望の画像データを抽出する際には、そのキーワードを手掛かりとして検索を行う手段である。
【0004】
しかし、キーワードの自動抽出が容易な文書データと異なり、画像データに対してはキーワードを人手によって付与する必要があり、大量の画像データを含むデータベースを構築する場合等には膨大な労力が必要となる。また、画像データの場合、画像を構成する要素のいずれに着目するかによって、付与すべきキーワードも異なってくるため、一貫した基準に従ってキーワードを付与することが困難となる。
【0005】
別の画像検索手段として、画像自体を検索の手掛かりとして検索を行う類似画像検索手段がある。類似画像検索手段では、検索対象となる画像データ群からキーとなる基準画像に類似する画像を抽出する。このとき、基準画像および画像データ群に含まれる各々の画像データから特徴量を抽出し、その特徴量を比較することによって基準画像に類似する画像データを抽出する。
【0006】
例えば、「岩波講座マルチメディア情報学8 情報の構造化と検索」(西尾章治郎他著、岩波書店)に、商標意匠データベースシステムTRADEMARKにおける類似画像検索の方法が記載されている。このシステムでは、基準画像と検索対象画像のそれぞれを複数のメッシュ領域に分割し、各メッシュの画像情報およびメッシュ間の画像情報の関係を用いて、4種類の画像の特徴量を抽出している。特徴量は、濃淡分布(64次元)、ラン長分布(256次元)、局所相関(24次元)および局所コントラスト(24次元)であり、いずれも多次元ベクトルとして表される。基準画像および検索対象画像は、これらの4種類の特徴量を結合した多次元空間の一点としてマッピングされ、この多次元空間におけるユークリッド距離が画像同士の類似度を決定するために利用される。すなわち、基準画像の特徴量を示す点と、検索対象画像の特徴量を示す点とのユークリッド距離が小さいほど、画像同士が類似しているものと判断される。
【0007】
また、特開2000−48181号公報には、画像の特徴量のそれぞれについて重み付けを行い、重み付けされた特徴量に基づいて画像間の類似性を比較する方法が開示されている。
【0008】
当該方法では、基準画像および検索対象となる画像データの各々から複数の特徴量を抽出する。ここで、特徴量は、彩度の平均値C0、スペクトラム画像のピーク値P0、エッジの強さE0が例示されている。次に、基準画像から抽出した特徴量に基づいて、各特長量に適用される重み付けが決められる。例えば、色に関する特徴量の重み付けWc、テクスチャに関する重み付けWtが決定される。ここで、基準画像の彩度の平均値C0が大きいほど色の重み付けWcを大きくし、基準画像のスペクトラム画像のピーク値P0およびエッジの強さE0が大きいほどテクスチャの重み付けWtを大きく設定する。基準画像と各検索対象画像データの類似性は、C0×Wcで表される重み付けされた色の特徴量Rcと(P0+E0)×Wtで表される重み付けされたテクスチャの特徴量Rtに基づいて求められる。このように、基準画像の特徴に従って算出される重み付けされた特徴量を利用することによって、テクスチャの周期性やエッジの強度が弱く、彩度が高い基準画像では色を重視し、逆に、彩度が低く、テクスチャの周期性やエッジが強い基準画像ではテクスチャを重視して画像を検索することができる。
【0009】
【発明が解決しようとする課題】
しかしながら、上記従来技術では、人間の類似感覚と一致した検索結果が得られない問題がある。例えば、図1のように、基準画像101は各部が彩色された画像であり、検索対象となる画像102〜104は、それぞれ輪郭のみが黒線で描かれた線図、基準画像101と等しい明度の単一色を施された単色画像および基準画像101と同一色でスケッチ風に描かれたスケッチ画像であるとする。このとき、画像の特徴量として明度、彩度、色相およびエッジの強さを選択すると、基準画像101に対して、画像102では明度、彩度および色相が異なり、画像103では彩度および色相が異なり、画像104ではエッジの強さが異なるために、基準画像101と各画像102〜104は類似しないものと判断される。
【0010】
そこで、特徴量を重み付けする場合でも、基準画像101では彩度とエッジの強さが大きい値をもつため、色に関する重み付けWcとテクスチャに関する重み付けWtの両方が大きい値に設定される。その結果、画像102と画像103では色の特徴が異なり、画像104ではテクスチャの特徴が異なるために、いずれの画像も基準画像と類似しないものと判断される。
【0011】
これは、基準画像101に対して明度、彩度、色相およびエッジの強さの特徴量を選択したことが適切でなかったためである。このように、基準画像の特徴を示す特徴量を普遍的に選択することは困難であり、検索対象画像毎に適切な特徴量を選択して類似画像を抽出できる手段が必要となる。
【0012】
本発明は、上記従来技術の問題を鑑みて、基準画像と検索対象画像を比較して適切な特徴量を選択し、人間の類似感覚と一致した検索結果を得ることができる画像検索装置、画像検索方法及び画像検索プログラムを提供することを目的とする。
【0013】
【課題を解決するための手段】
上記課題を解決するための本発明は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索装置であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出手段と、前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択手段と、前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段とを含むことを特徴とする。
【0014】
さらに、上記画像検索装置において、前記類似画像抽出手段は、前記選択された特徴量と併せて、さらに、前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することが好適である。
【0015】
また、上記課題を解決するための本発明の別の形態は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索装置であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出手段と、前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正手段と、前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段とを含むことを特徴とする。
【0016】
さらに、上記画像検索装置において、前記類似画像抽出手段は、前記重み付けされた特徴量と併せて、さらに、前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することが好適である。
【0017】
上記課題を解決するため本発明は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索方法であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを含むことを特徴とする。
【0018】
さらに、上記画像検索方法において、前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することが好適である。
【0019】
また、上記課題を解決するための本発明の別の形態は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索方法であって、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを含むことを特徴とする。
【0020】
さらに、上記画像検索方法において、前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することが好適である。
【0021】
上記課題を解決するための本発明は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索プログラムであって、コンピュータに、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを実行させることを特徴とする。
【0022】
さらに、上記画像検索プログラムにおいて、前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することが好適である。
【0023】
また、上記課題を解決するための本発明の別の形態は、検索対象画像を複数含む検索対象画像群の中から、検索キーとなる基準画像に類似する画像を見出す画像検索プログラムであって、コンピュータに、前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程とを実行させることを特徴とする。
【0024】
さらに、上記画像検索プログラムにおいて、前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することが好適である。
【0025】
【発明の実施の形態】
本発明の実施の形態について、図を参照して説明する。
【0026】
本発明の実施の形態における画像検索装置は、図2のように、制御部200、標準記憶部202、出力部204、コマンド入力部206、画像入力部208、データベース部210及びバス212から基本的に構成される。制御部200、標準記憶部202、出力部204、コマンド入力部206、画像入力部208およびデータベース部210はバス212を介して情報(データ)伝達可能に接続される。
【0027】
本実施の形態における画像検索装置は、図2のように、さらにバス212に接続されたインターフェース部214を備えていても良い。画像検索装置は、インターフェース部214を介して外部のネットワーク216に情報伝達可能に接続され、ネットワーク216を介して画像データを受信できるものとしても良い。
【0028】
制御部200は、標準記憶部202に格納されている画像検索プログラムを実行し、データベース部210に格納されている画像データ群またはネットワークを介して受信される画像データ群から基準画像に類似する画像データを検索する。検索された画像データは、出力部204または標準記憶部202へ出力される。制御部200は、一般的なコンピュータに用いられるCPUとすることができる。
【0029】
標準記憶部202は、制御部200で実行される画像検索プログラム、検索処理に用いられるパラメータ及び検索結果である画像データなどを格納および保持する。標準記憶部202は、バス212を介して制御部200から適宜参照することができる。標準記憶部202は、一般的な半導体メモリ、ハードディスク装置、光磁気ディスク装置などを適宜選択して用いることができる。
【0030】
出力部204は、制御部200から出力された検索結果をユーザが確認可能な情報として出力する。また、ユーザが画像検索を行う際にコマンドやパラメータを入力する際のユーザインターフェースとしても用いられる。出力部204は、ディスプレイ装置、プリンタなどを適宜選択して用いることができる。
【0031】
コマンド入力部206は、画像検索プログラムを実行する際の制御コマンドやパラメータをユーザが入力するために用いられる。例えば、制御部200に対して標準記憶部202に格納されている画像検索プログラムの実行開始を命令する際の制御コマンドを入力する際に用いられる。コマンド入力部206は、キーボード、マウスまたはタッチパネルなどを適宜選択して用いることができる。
【0032】
画像入力部208は、検索のキーとなる基準画像や検索対象となる画像データを入力する際に用いられる。画像入力部208から入力された画像データは、データベース部210または標準記憶部202に格納および保持される。画像入力部208は、スキャナ、デジタルカメラまたはデジタルビデオなどの一般的な画像入力装置を適宜選択して用いることができる。
【0033】
データベース部210は、画像入力部208やネットワーク216から取り込まれた画像データを格納および保持する。画像データは、ビットマップ形式、jpeg形式、tiff形式などの様々な画像形式で格納および保持することができる。データベース部210に保持された画像データは、バス212を介して制御部200から適宜参照することができる。データベース部210は、データ量が多い画像データを格納および保持する必要があるため、ハードディクス装置、光磁気ディスク装置などの大容量記憶装置を適宜選択して用いることが好適である。
【0034】
<第1の画像検索方法>
以下に、上記画像検索装置を用いて、検索対象となる画像データ群から基準画像に類似する画像データを検索する第1の画像検索方法について、図を参照して詳細に説明する。
【0035】
図3に、本画像検索方法における画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像の画像データは、特徴量抽出手段301へ入力され、少なくとも1つの特徴量303が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段302へ入力され、基準画像データと同一の種類の特徴量304が抽出される。基準画像データおよび検索対象画像データの特徴量303,304は、特徴量選択手段305へ入力され、それぞれ同種の特徴量同士を比較し、類似性の高い特徴量のみが選択される。類似性の高い特徴量が選択され、基準画像データおよび検索対象画像データのそれぞれに対する選択された特徴量306,307として出力される。選択された特徴量306,307は、類似画像抽出手段308へ入力され、その選択された特徴量306,307のみに基づいて基準画像と検索対象画像との類似度を求める。以上の処理を、検索対象となる全ての画像データに対して順次行うことによって、より高い類似度を有する検索対象画像が基準画像に類似するものとして抽出される。
【0036】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図4に、第1の画像検索方法における処理のフローチャートを示す。第1の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0037】
ユーザは、コマンド入力部206から画像検索を開始するための制御コマンドを入力する。制御部200は、制御コマンドを受けて、標準記憶部202に記憶されている画像検索プログラムを実行する。画素検索プログラムが実行されると、処理は直ちにステップS401へ移行する。
【0038】
ステップS401では、画像入力部208から検索のキーとなる基準画像の画像データが読み込まれる。これとは別に、基準画像データはインターフェース部214を用いて、ネットワーク216を介して画像検索装置の外部から読み込むこともできる。さらに、データベース部210に予め格納および保持されている画像データ群を画像として出力部204に表示し、その中の1つをユーザが適宜選択し、コマンド入力部206を用いて指定することによって、基準画像を決定することもできる。基準画像データは、標準記憶部202またはデータベース部210に格納および保持され、制御部200によって適宜読み出されて処理に供される。
【0039】
ステップS402では、基準画像から少なくとも1つの特徴量が抽出される。基準画像は、図5に示すように、水平方向にK分割および垂直方向にL分割され、K×L=N個の小領域に分割される。これらの各小領域ごとに特徴量が抽出される。第1の画像検索方法では、例として、明度、色およびエッジに関する特徴量が抽出されるものとする。
【0040】
基準画像がCIELAB色空間で表現された画素からなるディジタル画像データであるとする。画像データは、他の色空間で表現されたものであっても良いが、人間の視覚特性との整合性を考慮すればCIELAB色空間のような均等色空間によって表現することが好適である。
【0041】
明度および色に関する特徴量は以下の手順で求められる。画像上の位置(x,y)における画素値をp(x,y)とすると、画像はCIELAB色空間で表現されているため数式(1)のように表すことができる。
【数1】
さらに、小領域のうちi番目(i=0,1,・・・N−1)の小領域をSiとすると、小領域Siにおける平均明度Liおよび平均色Ciはそれぞれ数式(2)および数式(3)で表される。ここで、数式(2)および数式(3)におけるPiは、小領域Si内の画素数とする。
【数2】
全ての小領域Siについて平均明度Liおよび平均色Ciを求め、それらを要素とする特徴ベクトルを数式(4)および数式(5)によって求め、それぞれを基準画像に対する明度の特徴量Lkeyおよび色の特徴量Ckeyとする。ここで、数式(5)におけるベクトル表記は、数式(6)のように各要素を羅列したベクトルを意味するものとする。
【数3】
一方、基準画像のエッジに関する特徴量は以下の手順で求められる。本画像検出方法では、Sobelオペレータによる水平方向および垂直方向のエッジ検出を利用したエッジに関する特徴量抽出の例を示す。
【0042】
画像上の位置(x,y)における水平方向のエッジの強度Ex(x,y)および垂直方向のエッジの強度Ey(x,y)は、それぞれ数式(7)および数式(8)によって表される。ここで、数式(7)および数式(8)における‖A‖は、Aのノルムを意味する。
【数4】
ここでは、色の不連続点も画像のエッジとしてp(x,y)を用いたが、色を考慮せず画像の明度のみからエッジの強度を求めたい場合には、p(x,y)の代わりにL*(x,y)を用いれば良い。小領域Siにおける水平方向のエッジの平均強度Exiおよび垂直方向のエッジの平均強度Eyiは、それぞれ数式(9)および数式(10)で表される。
【数5】
さらに、数式(9)および数式(10)によって得られた水平方向および垂直方向のエッジの平均強度Exi,Eyiを用いて、小領域Siのエッジの強度Eiを数式(11)で定義する。
【数6】
全ての小領域Siに対するエッジの強度Eiを求め、それらを要素とする特徴ベクトルを数式(12)によって求め、基準画像データに対するエッジの特徴量Ekeyとする。ここで、数式(12)の表記は、数式(6)のように各要素を羅列したベクトルを意味するものとする。
【数7】
以上により、基準画像データから明度、色およびエッジに関する特徴量が、それぞれ特徴ベクトルLkey,CkeyおよびEkeyとして抽出される。
【0043】
本画像検索方法では、画像を小領域Siに分割した上で明度、色およびエッジに関する特徴量を抽出したが、本発明の画像検索方法はこれに限定されるものではない。例えば、画像を小領域Siに分割することなく、画像全体を1つの領域として特徴量Lkey,CkeyおよびEkeyを抽出しても良い。
【0044】
ステップS403からS404では、検索対象画像データから特徴量の抽出を行う。検索対象画像データは、データベース部210に予め定められた順序で格納および保持されているものとし、検索対象画像データのいずれか1つを示すポインタ(アドレス)が最初の画像データを示すように初期化されているものとする。ステップS403では、制御部200は、データベース部210からポインタが示す画像データを読み出す。
【0045】
ステップS404では、読み出された画像データから明度、色およびエッジに関する特徴量が抽出される。各特徴量の抽出は、上記の基準画像に対するものと同様に数式(1)〜数式(12)を用いて行われ、それぞれ特徴ベクトルLsubj,CsubjおよびEsubjとして抽出される。ここで、j=0,1,・・・は各画像データに固有に割り当てられた識別番号とする。
【0046】
ステップS405では、基準画像からの特徴量Lkey,CkeyおよびEkeyと、検索対象画像データからの特徴量Lsubj,CsubjおよびEsubjとを比較し、類似度を算出するために用いられる特徴量を選択する。
【0047】
基準画像の各特徴量を示す特徴ベクトルと、検索対象画像データの各特徴量を示す特徴ベクトルとの比較は、数式(13)から数式(15)に示す相関係数RL,RcおよびREを算出することによって行う。ここで、A・BはベクトルAとベクトルBとの内積を意味する。
【数8】
特徴量の選択は、相関係数RL,RCおよびREが予め定めた閾値TRを超える特徴量を選択することによって行う。
【0048】
以下に、例として、図1における画像101を基準画像、画像103を検索対象画像データとした場合の特徴量の選択について説明する。画像101は、星が黄色、葉が緑、幹が茶色で彩色された画像である。これに対して、画像103は、画像101と対応する部分の明度が等しい単一色が施された単色画像である。両画像では、各部の明度は等しいため、明度の特徴量LkeyとLsubjは等しくなる。一方、色の特徴量CkeyとCsubjは著しく異なる。エッジの特徴量EkeyとEsubjは、色が異なるため全く等しくはならないが、画像上の同じ位置に同じ方向のエッジを有するためEkeyとEsubjは高い相関を持つこととなる。従って、各特徴量に対する相関係数は、例えば、RL=1.0,RC=0.1およびRE=0.8となる。特徴量を選択するための閾値TRを0.5とすると、これを上回るRL及びREが選択される。
【0049】
特徴量の選択方法は上記の相関係数を用いる方法に限られるものではなく、対応する2つの特徴量の類似性を比較できる方法であれば良い。例えば、相関係数の代わりに2つの特徴ベクトル間のユークリッド距離を用いて選択しても良い。この場合、特徴ベクトル間のユークリッド距離は、対象ベクトル間の非類似性を示すので、予め定めた閾値TRより小さいユークリッド距離を有する特徴量を選択する。
【0050】
さらに、ユーザ自身が特徴の選択を行うことにより、ユーザが注目する画像検索の意図を反映したシステムを構築することも可能である。この場合、出力部204にユーザインターフェースを表示し、ユーザが選択する特徴量をコマンド入力部206から指定して選択する。
【0051】
ステップS406では、類似度の算出を行う。類似度とは、選択された特徴量に対して基準画像と検索対象画像データとの間の近似性を示す評価値をいう。具体的には、例えば、図1の画像101を基準画像、画像103を検索対象画像データとし、ステップS405において明度およびエッジに関する特徴量が選択された場合には、数式(16)を用いて類似度Rを算出することができる。
【数9】
数式(16)では、基準画像と検索対象画像データにおいて選択された特徴量間の相関係数を用いている。一般に画像からM種類の特徴量が選択される場合、基準画像の特徴量をFj,key、検索対象画像データの特徴量をFj,subjとすると、両者の相関係数による類似度Rは数式(17)で表すことができる。ここで、Gは、ステップS405で選択された特徴量の集合を示す。なお、ステップS405で選択された特徴量の数が0である場合はR=0とする。
【数10】
類似度の算出方法は相関係数を用いる方法に限られるものではなく、基準画像と検索対象画像データについて選択された特徴量の類似性を評価できる方法であれば良い。例えば、数式(18)のように、相関係数の代わりに特徴量ベクトル間のユークリッド距離Dを用いても良い。この場合、ベクトル間のユークリッド距離Dは2つのベクトルの非類似性を示すので、ユークリッド距離Dの値が小さいほど類似性は高くなる。
【数11】
ステップS407では、基準画像と検索対象画像データとの類似度が、検索対象画像データと関連付けられて標準記憶部202又はデータベース部210へ格納および保持される。
【0052】
ステップS408では、検索対象となる画像データ群に含まれる全ての画像データについて、基準画像との類似度が算出されたか否かが判断される。検索対象画像データは、データベース部210に予め定められた順序で保持されているので、上記のS403からS407で処理の対象となった検索対象画像データを示すポインタが最後のものであるか否かを判断し、最後のポインタでなければポインタを次の値として処理をステップS403へ戻す。最後のポインタであればステップS409へ処理を移行する。
【0053】
ステップS409では、類似度を相関係数を用いて算出した場合は、標準記憶部202又はデータベース部210に保持されている類似度を降順に並び替える。類似度をユークリッド距離などの非類似性を示す評価値として算出した場合には昇順に並び替える。その結果、最大の類似度を有する検索対象画像データを基準画像データに類似する画像の画像データとして抽出する。また、類似する画像を複数抽出したい場合には、所定の閾値以上の類似度を有する検索対象画像データを抽出することも好適である。
【0054】
ステップS410では、類似度の並び替えの結果を用いて、検索結果の表示を行う。検索結果は、最大の類似度を有する検索対象画像データを出力部204に表示することができる。また、類似度が高いものから順に所定の数だけ選択し、それらに関連付けられた検索対象画像データを出力部204に表示することも好適である。さらに、予め閾値を定めておき、この閾値を超える類似度を有する検索対象画像データを出力部204に表示することも好適である。この場合、閾値を超える類似度を有する検索対象画像データが存在しないときには「類似画像無し」等の表示を行うこともできる。
【0055】
以上のように、第1の画像検索方法によれば、基準画像と検索対象画像を比較して適切な特徴量を選択し、検索対象となる画像データ群から基準画像と人間の類似感覚と一致した類似性を有する画像を検索することができる。
【0056】
<第2の画像検索方法>
上記第1の画像検索方法では、基準画像と検索対象画像データとの特徴の一部のみが異なる場合に、基準画像と検索対象画像データとが全く同一である場合と等しい類似度が算出されることがある。例えば、図1において、画像101が基準画像、画像103が検索対象画像データである場合に、両画像は明度が同一であるため、明度に関する特徴量LkeyとLsubjとは等しく、色に関する特徴量CkeyとCsubjは大きく異なるものとなる。また、エッジに関する特徴量EkeyとEsubjとは高い相関を示すものとなる。このとき、特徴量を選択するための閾値を高く設定すると、明度に関する特徴量のみが選択される。数式(17)を用いて類似度を算出した場合に類似度Rは1となり、基準画像と検索対象画像データが全く同一である場合と等しくなってしまう。
【0057】
このような問題を回避するために、選択された特徴量に応じて類似度を修正する方法が考えられる。以下に、類似度を修正して画像データを検索する第2の画像検索方法について、図を参照して詳細に説明する。
【0058】
図6に、本画像検索方法における画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像の画像データは、特徴量抽出手段601へ入力され、少なくとも1つの特徴量603が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段602へ入力され、基準画像データと同一の種類の特徴量604が抽出される。特徴量603,604は、特徴量選択手段605へ入力され、それぞれ同種の特徴量同士が比較され、類似性の高い特徴量のみが選択される。類似性の高い特徴量が選択され、基準画像データ及び検索対象画像データのそれぞれに対する選択された特徴量606,607として出力される。選択された特徴量606,607は、類似画像抽出手段608に入力される。一方、特徴量選択手段605からは、特徴量を選択した際の情報として特徴量選択情報610が出力される。特徴量選択情報610は、類似度修正係数算出手段611に入力され、類似度修正係数612が求められる。類似度修正係数612は、類似画像抽出手段608に入力され、選択された特徴量606,607に基づいて基準画像データと検索対象画像データの類似度が算出され、その類似度は類似度修正係数612によって修正されて、最終的な類似度として求められる。類似画像抽出手段608では、以上の処理を、検索対象となる全ての画像データに対して順次行うことによって、より高い類似度を有する検索対象画像を基準画像に類似する画像として抽出し、出力609とする。
【0059】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図7に、第2の画像検索方法における処理のフローチャートを示す。第2の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0060】
図7のフローチャートにおいて、ステップS701からS705の処理は、上記第1の画像検索方法におけるステップS401からS405における処理と同一であるため説明を省略する。
【0061】
ステップS706では、ステップS705における特徴量の選択状況に基づいて、類似度修正係数qを算出する。類似度修正係数qは、例えば、数式(19)を用いて求めることができる。ここで、Dim(A)はベクトルAの次元数を示す。また、関数f(x)は引数xに対する単調増加関数であり、例えば、図8に示すような関数である。
【数12】
数式(19)を用いることによって、ステップS705で選択された特徴量の種類が多いほど類似度修正係数qの値は大きくなる。例えば、図8に示す関数f(x)を用いた場合、全ての特徴量が選択されるとq=1.0となる。
【0062】
また、図1における画像101が基準画像データ、画像103が検索対象画像データである場合、ステップS705において明度に関する特徴量のみが選択されたとすると、Dim(Lkey)=N、Dim(Ckey)=2NおよびDim(Ekey)=2Nであるから、数式(19)の引数はN/(N+2N+2N)=0.2となる。図8を用いると、類似度修正係数qは0.76となる。
【0063】
ステップS707では、類似度修正係数qによる修正を加えた類似度Rを算出する。類似度の算出方法には、基準画像データと検索対象画像データとについて選択された特徴量の相関係数を算出する数式(17)に対して、類似度修正係数qを用いて修正を行った数式(20)を用いることができる。
【数13】
上記例では、類似度修正係数qは0.76となるので、数式(20)を用いると、類似度Rは0.76となる。このように、選択された特徴量の種類数に応じて類似度Rの値が修正され、基準画像データと検索対象画像データとの違いを適切に反映した類似度を算出することができる。
【0064】
また、相関係数の代わりに2つの選択された特徴量を示す特徴ベクトル間のユークリッド距離Dを用いる場合には、ユークリッド距離Dを類似度修正係数qによって修正した数式(21)を用いることが好適である。
【数14】
ステップS708からS711の処理は、上記第1の画像検索方法におけるステップS407からS410における処理と同一であるため説明を省略する。
【0065】
以上のように、第2の画像検索方法によれば、選択された特徴量の種類数に応じて、より適切に基準画像と検索対象画像データとの類似性を評価して画像を検索することができる。
【0066】
<第3の画像検索方法>
第1および第2の画像検索方法では、予め定めた選択条件を満足する特徴量のみを選択して類似度を算出した。このとき、特徴量が選択条件の境界付近にある場合には、画像の微妙な差異によってその特徴量が選択されたり、選択されなかったりすることとなる。その結果、画像には大きな差異がないにも関わらず、算出される類似度には大きな差異を生ずる問題が発生する可能性がある。
【0067】
このような問題を回避するために、特徴量の選択を行わず、特徴量を重み付けして類似度を算出する方法が考えられる。以下に、特徴量を重み付けして画像データを検索する第3の画像検索方法について、図を参照して詳細に説明する。
【0068】
図9に、本画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像の画像データは、特徴量抽出手段901へ入力され、少なくとも1つの特徴量903が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段902へ入力され、基準画像データと同一の種類の特徴量904が抽出される。特徴量903,904は、特徴量重み付け設定手段905へ入力され、特徴量の比較が行われ、その類似性に基づいて特徴量重み付け906が算出される。特徴量重み付け906は、特徴量903,904と共に類似画像抽出手段907に入力され、これらに基づいて基準画像データと検索対象画像データとの類似度が算出される。以上の処理を検索対象となる画像データに対して順次行うことによって、高い類似度を有する画像を基準画像に類似する画像として検索する。
【0069】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図10に、第3の画像検索方法における処理のフローチャートを示す。第3の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0070】
ステップS1001からS1004の処理は、上記第1の画像検索方法におけるステップS401からS404の処理と同一であるため説明を省略する。
【0071】
ステップS1005では、ステップS1004で抽出された特徴量に対して特徴量の重み付けを行う。各特徴量の種類ごとに、特徴量重み付けwj(j=0,1・・・M−1)は数式(22)を用いて求めることができる。数式(22)における関数g(x)は引数xに対して単調増加関数であり、例えば、図11に示すような関数とすることができる。
【数15】
数式(19)を図11に示すような関数とすることによって、基準画像データと検索対象画像データから抽出された特徴量について、それぞれの特徴量間の相関係数が0.5未満の場合には特徴量重み付けwjは0となり、相関係数が0.5以上の場合には特徴量重み付けwjは相関係数に伴って増加する。
【0072】
ステップS1005では、さらに、特徴量重み付けwjを用いて、数式(23)及び数式(24)のように各特徴量の重み付けを行う。
【数16】
ステップS1006では、数式(23)及び数式(24)によって重み付けされた特徴量を用いて、数式(25)を用いて類似度Rを算出する。
【数17】
ステップS1007からS1010の処理は、上記第1の画像検索方法におけるステップS407からS410の処理と同一であるため説明を省略する。
【0073】
以上のように、第3の画像検索方法によれば、閾値などの選択条件を用いて特徴量を選択することなく、抽出した全ての特徴量に対して適切な重み付けをすることによって、画像には大きな差異がなく、特徴量が選択条件の境界付近にある場合においても、算出される類似度に大きな差異を生ずる問題を回避することができる。その結果、基準画像データと検索対象画像データとの類似性を適切に評価して画像を検索することができる。
【0074】
<第4の画像検索方法>
第3の画像検索方法において、特徴量重み付けwjに基づいて類似度を修正することも好適である。以下に、特徴量重み付けwjによって類似度を修正する第4の画像検索方法について、図を参照して詳細に説明する。
【0075】
図12に、本画像検索方法を概念的に表したブロック図を示す。検索キーとなる基準画像は、特徴量抽出手段1201へ入力され、少なくとも1つの特徴量1203が抽出される。同様に、検索対象となる画像データの各々は、特徴量抽出手段1202へ入力され、基準画像データと同一の種類の特徴量1204が抽出される。特徴量1203,1204は、特徴量重み付け設定手段1205へ入力され、特徴量の比較が行われ、その類似性に基づいて特徴量重み付け1206が算出される。特徴量重み付け設定手段1205では、さらに、類似度修正係数1211を算出する際に用いられる特徴量重み付け情報1209を出力する。特徴量重み付け情報1209は、類似度修正係数算出手段1210に入力され、類似度修正係数1211が求められる。特徴量重み付け1206及び類似度修正係数1211は、抽出された特徴量1203,1204と共に類似画像抽出手段1207へ入力され、これらに基づいて、基準画像データと検索対象画像データとの類似度が算出される。以上の処理を検索対象となる画像データに対して順次行うことによって、高い類似度を有する画像を基準画像に類似するものとして検索する。
【0076】
上記処理は、具体的には上記画像検索装置において画像検索プログラムを実行することによって行われる。図13に、第4の画像検索方法における処理のフローチャートを示す。第4の画像検索方法の処理は、画像検索プログラムとして標準記憶部202に格納および保持され、制御部200によって適宜読み出されて実行される。
【0077】
ステップS1301からS1305の処理は、上記第3の画像検索方法におけるステップS1001からS1005の処理と同一であるため説明を省略する。
【0078】
ステップS1306では、ステップS1305で算出された各特徴量に対する重み付けwjに基づいて、類似度修正係数qを算出する。類似度修正係数qは、例えば、数式(26)を用いて求めることができる。ここで、Dim(A)はベクトルAの次元数を示す。また、関数f(x)は引数xに対する単調増加関数であり、例えば、図8に示すような関数である。
【数18】
数式(26)を用いることによって、各特徴量に対する重み付けwjが大きくなるに伴って、類似度修正係数qも増加させることができる。
【0079】
ステップS1307では、類似度修正係数qによって修正された類似度Rを算出する。類似度Rの算出方法には、重み付けされた特徴量から類似度Rを求める数式(25)に対して、類似度修正係数qを用いて修正を行った数式(27)を用いることができる。
【数19】
ステップS1308からS1311の処理は、上記第3の画像検索方法におけるステップS1007からS1010の処理と同一であるため説明を省略する。
【0080】
以上のように、第4の画像検索方法によれば、特徴量に対する重み付けwjの値に応じて類似度Rを修正することによって、より適切に基準画像と検索対象画像データとの類似性を評価して画像を検索することができる。
【0081】
【発明の効果】
本発明によれば、白黒画像とカラー画像のように彩度や色相に関する特徴のみが異なる画像間、又は、線図と色塗りされた図のようにエッジの強さの特徴は共通する画像間において、従来の画像検索技術では検索が困難であった類似画像を検索することができる。すなわち、基準画像と検索対象画像データとにおいて類似する特徴を適切に選択し、人間の類似感覚と一致した類似画像を検索することを可能とした。
【図面の簡単な説明】
【図1】特徴の一部が類似した画像を例示する図である。
【図2】本発明の実施の形態における画像検索装置の構成図である。
【図3】本発明の第1の画像検索方法における処理を概念的に示すブロック図である。
【図4】本発明の第1の画像検索方法におけるフローチャートを示す図である。
【図5】画像の特徴量を抽出するための画像分割方法を説明する図である。
【図6】本発明の第2の画像検索方法における処理を概念的に示すブロック図である。
【図7】本発明の第2の画像検索方法におけるフローチャートを示す図である。
【図8】本発明の画像検索方法における関数f(x)の一例を示す図である。
【図9】本発明の第3の画像検索方法における処理を概念的に示すブロック図である。
【図10】本発明の第3の画像検索方法におけるフローチャートを示す図である。
【図11】本発明の画像検索方法における関数g(x)の一例を示す図である。
【図12】本発明の第4の画像検索方法における処理を概念的に示すブロック図である。
【図13】本発明の第4の画像検索方法におけるフローチャートを示す図である。
【符号の説明】
101 色分けされた画像、102 線図による画像、103 画像101と等しい明度の単色画像、104 画像101と同一色で描かれたスケッチ風の画像、200 制御部、202 標準記憶部、204 出力部、206 コマンド入力部、208 画像入力部、210 データベース部、212 バス、214インターフェース部、216 ネットワーク、301,302,601,602,901,902,1201,1202 特徴量抽出手段、303,304,603,604,903,904,1203,1204 特徴量、305,605 特徴量選択手段、306,307,606,607 選択された特徴量、308,608,907,1207 類似画像抽出手段、309,609,908,1208 類似度、610 特徴量選択情報、611,1210 類似度修正係数算出手段、612,1211 類似度修正係数、905,1205 特徴量重み付け設定手段、906,1206 特徴量重み付け、1209 特徴量重み付け情報。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image search device, an image search method, and an image search program for searching for an image having a common feature from a plurality of images.
[0002]
[Prior art]
With the development of networks in recent years and the increase in data storage capacity, a large number of image databases for storing a large amount of image information have been constructed. These image databases can be easily used through an information transmission medium such as the Internet. In addition, due to the spread of digital cameras, digital videos, and scanners, individual users often hold a large amount of image data. Furthermore, image data for use in business documents and presentation materials has been marketed as clip art collections and image material collections. Therefore, the necessity of an image search unit capable of appropriately extracting desired image data from a large amount of image data group is increasing.
[0003]
Currently, the most common form of image search means is keyword search. This is means for assigning a keyword indicating a feature of the image data to each of the image data, and performing a search using the keyword as a clue when extracting desired image data.
[0004]
However, unlike document data, in which automatic extraction of keywords is easy, it is necessary to manually assign keywords to image data, and enormous labor is required when constructing a database containing a large amount of image data. Become. Further, in the case of image data, the keyword to be assigned differs depending on which element of the image is focused, and it is difficult to assign a keyword according to a consistent standard.
[0005]
As another image search means, there is a similar image search means for performing a search using the image itself as a clue for the search. The similar image search means extracts an image similar to the key reference image from the image data group to be searched. At this time, a feature amount is extracted from each image data included in the reference image and the image data group, and image data similar to the reference image is extracted by comparing the feature amounts.
[0006]
For example, "Iwanami Lecture on Multimedia Informatics 8 Information Structuring and Retrieval" (by Shojiro Nishio et al., Iwanami Shoten) describes a similar image retrieval method in the trademark design database system TRADEMARK. In this system, each of a reference image and a search target image is divided into a plurality of mesh regions, and feature amounts of four types of images are extracted using image information of each mesh and a relationship between image information between the meshes. . The feature amount is a density distribution (64 dimensions), a run length distribution (256 dimensions), a local correlation (24 dimensions), and a local contrast (24 dimensions), all of which are represented as multidimensional vectors. The reference image and the search target image are mapped as one point in a multidimensional space in which these four types of feature amounts are combined, and the Euclidean distance in the multidimensional space is used to determine the similarity between the images. That is, the smaller the Euclidean distance between the point indicating the feature amount of the reference image and the point indicating the feature amount of the search target image, it is determined that the images are more similar.
[0007]
Also, Japanese Patent Application Laid-Open No. 2000-48181 discloses a method of weighting each of the feature amounts of an image and comparing similarities between images based on the weighted feature amounts.
[0008]
In this method, a plurality of feature amounts are extracted from each of a reference image and image data to be searched. Here, the characteristic amount is exemplified by the average value C0 of the saturation, the peak value P0 of the spectrum image, and the strength E0 of the edge. Next, weighting applied to each feature value is determined based on the feature value extracted from the reference image. For example, the weight Wc of the feature amount related to the color and the weight Wt related to the texture are determined. Here, the larger the average value C0 of the saturation of the reference image is, the larger the color weight Wc is, and the larger the peak value P0 and the edge strength E0 of the spectrum image of the reference image are, the larger the texture weight Wt is set. The similarity between the reference image and each search target image data is obtained based on the weighted color feature Rc represented by C0 × Wc and the weighted texture feature Rt represented by (P0 + E0) × Wt. Can be As described above, by using the weighted feature amount calculated according to the features of the reference image, the periodicity of the texture and the strength of the edge are weak, and the color is emphasized in the reference image with high saturation. In a reference image having a low degree and a strong periodicity or edge of the texture, the image can be searched with emphasis on the texture.
[0009]
[Problems to be solved by the invention]
However, in the above-described conventional technology, there is a problem that a search result that matches human similarity cannot be obtained. For example, as shown in FIG. 1, the
[0010]
Therefore, even when the feature amount is weighted, both the color weight Wc and the texture weight Wt are set to large values because the saturation and the edge strength of the
[0011]
This is because it has not been appropriate to select feature amounts of lightness, saturation, hue, and edge strength for the
[0012]
The present invention has been made in consideration of the above-described problems of the related art, and has an image search apparatus capable of comparing a reference image and a search target image, selecting an appropriate feature amount, and obtaining a search result that matches a human similarity. A search method and an image search program are provided.
[0013]
[Means for Solving the Problems]
The present invention for solving the above-mentioned problem is an image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, wherein the reference image and the search A feature amount extracting unit that extracts a plurality of visual feature amounts of the image from each of the search target images included in the target image group; and a predetermined condition for the feature amount of the reference image for each of the search target images. A feature amount selecting unit that selects a feature amount of the search target image that is close enough to satisfy, and extracts an image similar to the reference image from the search target image group based only on the selected feature amount. And a similar image extracting unit.
[0014]
Further, in the above image search device, the similar image extracting means may further include, in addition to the selected feature amount, the number of feature amounts selected for each of the search target images and the number of feature amounts extracted from the search target image. It is preferable to extract an image similar to the reference image from the search target image group based on a difference from the total number of feature amounts.
[0015]
Another embodiment of the present invention for solving the above problem is an image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, From each of the reference images and the search target images included in the search target image group, a feature amount extracting unit that extracts a plurality of visual feature amounts of the image, and for each of the search target images, A feature amount correction unit that weights the feature amount based on a difference between the feature amounts extracted from the reference image, and an image similar to the reference image from the search target image group based on the weighted feature amount. And a similar image extracting means for extracting.
[0016]
Further, in the image search device, the similar image extracting unit may further include, in addition to the weighted feature amounts, a similarity extraction unit based on a difference between the feature amounts before and after the feature amounts are weighted. It is preferable to extract an image similar to the reference image from the inside.
[0017]
In order to solve the above problem, the present invention is an image search method for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, wherein the reference image and the search target A feature amount extracting step of extracting a plurality of visual feature amounts of the image from each of the search object images included in the image group, and a predetermined condition for the feature amount of the reference image for each of the search object images. A feature amount selecting step of selecting a feature amount of the search target image that is as close as possible, and similarity extracting an image similar to the reference image from the search target image group based on only the selected feature amount. And an image extracting step.
[0018]
Further, in the image search method, the similar image extraction step further includes, in addition to the selected feature amount, the number of feature amounts selected for each of the search target images and the number of feature amounts extracted from the search target image. It is preferable to extract an image similar to the reference image from the search target image group based on a difference from the total number of feature amounts.
[0019]
Another embodiment of the present invention for solving the above problem is an image search method for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, From each of the reference images and the search target images included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image, and for each of the search target images, A feature amount correction step of weighting the feature amount based on a difference between the feature amounts extracted from the reference image, and an image similar to the reference image from the search target image group based on the weighted feature amount. And extracting a similar image.
[0020]
Further, in the image search method, the similar image extraction step may further include, in addition to the weighted feature amount, further determining the search target image group based on a difference between the feature amounts before and after the feature amount is weighted. It is preferable to extract an image similar to the reference image from the inside.
[0021]
The present invention for solving the above-mentioned problems is an image search program for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images. And from each of the search target images included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image, and for each of the search target images, a feature amount of the reference image A feature amount selecting step of selecting a feature amount of the search target image that is only approximate to a predetermined condition, and an image similar to the reference image from the search target image group based on only the selected feature amount. And a similar image extracting step of extracting the same.
[0022]
Further, in the image search program, the similar image extraction step further includes, in addition to the selected feature amount, the number of feature amounts selected for each of the search target images and the number of feature amounts extracted from the search target image. It is preferable to extract an image similar to the reference image from the search target image group based on a difference from the total number of feature amounts.
[0023]
Another embodiment of the present invention for solving the above-described problem is an image search program for finding an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images, A computer extracting, from each of the reference images and the search target images included in the search target image group, a feature amount extracting step of extracting a plurality of visual feature amounts of the image; A feature amount correcting step of weighting the feature amount based on a difference between the feature amount extracted from the target image and the reference image; and a similarity to the reference image from the search target image group based on the weighted feature amount. And a similar image extracting step of extracting an image to be processed.
[0024]
Further, in the image search program, the similar image extraction step may further include, in addition to the weighted feature amount, further, based on a difference between the feature amounts before and after the feature amount is weighted, the search target image group. It is preferable to extract an image similar to the reference image from the inside.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described with reference to the drawings.
[0026]
As shown in FIG. 2, the image search device according to the embodiment of the present invention basically includes a
[0027]
The image search device according to the present embodiment may further include an
[0028]
The
[0029]
The
[0030]
The
[0031]
The
[0032]
The
[0033]
The
[0034]
<First image search method>
Hereinafter, a first image search method for searching the image data group to be searched for image data similar to the reference image using the image search apparatus will be described in detail with reference to the drawings.
[0035]
FIG. 3 is a block diagram conceptually showing an image search method in the present image search method. Image data of a reference image serving as a search key is input to a feature
[0036]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 4 shows a flowchart of a process in the first image search method. The processing of the first image search method is stored and held in the
[0037]
The user inputs a control command for starting an image search from the
[0038]
In step S401, image data of a reference image serving as a search key is read from the
[0039]
In step S402, at least one feature amount is extracted from the reference image. As shown in FIG. 5, the reference image is divided into K in the horizontal direction and L in the vertical direction, and is divided into K × L = N small areas. A feature amount is extracted for each of these small areas. In the first image search method, as an example, it is assumed that feature amounts relating to brightness, color, and edge are extracted.
[0040]
It is assumed that the reference image is digital image data composed of pixels expressed in the CIELAB color space. The image data may be expressed in another color space, but is preferably expressed in a uniform color space such as the CIELAB color space in consideration of consistency with human visual characteristics.
[0041]
The characteristic values relating to brightness and color are obtained by the following procedure. Assuming that the pixel value at the position (x, y) on the image is p (x, y), the image is expressed in the CIELAB color space, so that it can be expressed as Expression (1).
(Equation 1)
Further, the i-th (i = 0, 1,..., N−1) small area of the small areas is represented by S i Then, the small area S i Lightness L at i And average color C i Are represented by Expression (2) and Expression (3), respectively. Here, P in equations (2) and (3) i Is a small area S i Is the number of pixels within.
(Equation 2)
All small areas S i About average lightness L i And average color C i , And a feature vector having these as elements is obtained by Expressions (4) and (5). key And color feature C key And Here, the vector notation in Expression (5) means a vector in which each element is listed as in Expression (6).
[Equation 3]
On the other hand, the feature value relating to the edge of the reference image is obtained by the following procedure. In the present image detection method, an example of extraction of a feature amount related to an edge using horizontal and vertical edge detection by a Sobel operator will be described.
[0042]
The intensity Ex (x, y) of the horizontal edge and the intensity Ey (x, y) of the vertical edge at the position (x, y) on the image are represented by Expressions (7) and (8), respectively. You. Here, {A} in Equations (7) and (8) means the norm of A.
(Equation 4)
Here, p (x, y) is used as an image edge also at a color discontinuity point. However, if it is desired to obtain the edge intensity only from the brightness of the image without considering the color, p (x, y) L instead of * (X, y) may be used. Small area S i The average intensity E of the horizontal edges at xi And the average intensity E of the vertical edges yi Is represented by Expression (9) and Expression (10), respectively.
(Equation 5)
Furthermore, the average intensities E of the horizontal and vertical edges obtained by Equations (9) and (10) xi , E yi , The small area S i Edge strength E i Is defined by Expression (11).
(Equation 6)
All small areas S i Of the edge E against i Are obtained, and a feature vector having these as elements is obtained by Expression (12). key And Here, the expression of Expression (12) means a vector in which each element is listed as in Expression (6).
(Equation 7)
As described above, the feature amounts relating to the brightness, the color, and the edge from the reference image data are respectively converted into the feature vectors L key , C key And E key Is extracted as
[0043]
In the present image search method, an image is i Then, the feature amounts relating to brightness, color and edge are extracted, but the image search method of the present invention is not limited to this. For example, if the image is i , Without dividing the entire image into one region. key , C key And E key May be extracted.
[0044]
In steps S403 to S404, a feature amount is extracted from the search target image data. The search target image data is stored and held in a predetermined order in the
[0045]
In step S404, feature values relating to brightness, color, and edge are extracted from the read image data. The extraction of each feature amount is performed using Expressions (1) to (12) in the same manner as that for the above-described reference image. subj , C subj And E subj Is extracted as Here, j = 0, 1,... Are identification numbers uniquely assigned to the respective image data.
[0046]
In step S405, the feature amount L from the reference image key , C key And E key And the feature amount L from the search target image data subj , C subj And E subj And selects a feature value used for calculating the similarity.
[0047]
The comparison between the feature vector indicating each feature amount of the reference image and the feature vector indicating each feature amount of the search target image data is performed using the correlation coefficient R shown in Expressions (13) to (15). L , R c And R E Is calculated. Here, AB means the inner product of the vector A and the vector B.
(Equation 8)
The selection of the feature amount is based on the correlation coefficient R L , R C And R E By selecting a feature amount exceeding a predetermined threshold value TR.
[0048]
Hereinafter, as an example, a description will be given of selection of a feature amount when the
[0049]
The method of selecting a feature value is not limited to the method using the above-described correlation coefficient, but may be any method capable of comparing the similarity between two corresponding feature values. For example, the selection may be made using the Euclidean distance between two feature vectors instead of the correlation coefficient. In this case, since the Euclidean distance between the feature vectors indicates dissimilarity between the target vectors, a feature amount having a Euclidean distance smaller than a predetermined threshold TR is selected.
[0050]
Furthermore, by selecting a feature by the user himself, it is possible to construct a system that reflects the intention of the image search that the user focuses on. In this case, a user interface is displayed on the
[0051]
In step S406, the similarity is calculated. The similarity refers to an evaluation value indicating the similarity between the reference image and the search target image data with respect to the selected feature amount. More specifically, for example, when the
(Equation 9)
Equation (16) uses the correlation coefficient between the feature amount selected in the reference image and the search target image data. Generally, when M kinds of feature amounts are selected from an image, the feature amount of the reference image is set to F j, key , The feature amount of the search target image data is set to F j, subj Then, the similarity R based on the correlation coefficient between the two can be expressed by Expression (17). Here, G indicates a set of feature amounts selected in step S405. When the number of feature amounts selected in step S405 is 0, R = 0.
(Equation 10)
The method of calculating the similarity is not limited to the method using the correlation coefficient, but may be any method that can evaluate the similarity between the feature amounts selected for the reference image and the search target image data. For example, a Euclidean distance D between feature amount vectors may be used instead of the correlation coefficient as in Expression (18). In this case, since the Euclidean distance D between the vectors indicates the dissimilarity between the two vectors, the smaller the value of the Euclidean distance D, the higher the similarity.
[Equation 11]
In step S407, the similarity between the reference image and the search target image data is stored and held in the
[0052]
In step S408, it is determined whether or not the similarity with the reference image has been calculated for all the image data included in the image data group to be searched. Since the search target image data is stored in the
[0053]
In step S409, when the similarity is calculated using the correlation coefficient, the similarity stored in the
[0054]
In step S410, a search result is displayed using the result of sorting the similarities. As the search result, the search target image data having the maximum similarity can be displayed on the
[0055]
As described above, according to the first image search method, the reference image and the search target image are compared, an appropriate feature amount is selected, and the reference image is matched with the human similarity sense from the search target image data group. Images having the similarity can be retrieved.
[0056]
<Second image search method>
In the first image search method, when only a part of the features of the reference image and the search target image data are different, the similarity similar to the case where the reference image and the search target image data are completely the same is calculated. Sometimes. For example, in FIG. 1, when the
[0057]
In order to avoid such a problem, a method of correcting the similarity according to the selected feature amount is considered. Hereinafter, a second image search method for searching for image data by correcting the similarity will be described in detail with reference to the drawings.
[0058]
FIG. 6 is a block diagram conceptually showing an image search method in the present image search method. Image data of a reference image serving as a search key is input to a feature
[0059]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 7 shows a flowchart of a process in the second image search method. The processing of the second image search method is stored and held in the
[0060]
In the flowchart of FIG. 7, the processing in steps S701 to S705 is the same as the processing in steps S401 to S405 in the first image search method, and a description thereof will be omitted.
[0061]
In step S706, a similarity correction coefficient q is calculated based on the selection state of the feature amount in step S705. The similarity correction coefficient q can be calculated using, for example, Expression (19). Here, Dim (A) indicates the number of dimensions of the vector A. The function f (x) is a monotonically increasing function for the argument x, and is, for example, a function as shown in FIG.
(Equation 12)
By using Expression (19), the value of the similarity correction coefficient q increases as the number of types of the feature amounts selected in step S705 increases. For example, when the function f (x) shown in FIG. 8 is used, q = 1.0 when all the feature amounts are selected.
[0062]
If the
[0063]
In step S707, the similarity R corrected by the similarity correction coefficient q is calculated. In the method of calculating the similarity, the expression (17) for calculating the correlation coefficient of the feature quantity selected for the reference image data and the search target image data was corrected using the similarity correction coefficient q. Equation (20) can be used.
(Equation 13)
In the above example, since the similarity correction coefficient q is 0.76, the similarity R is 0.76 by using Expression (20). As described above, the value of the similarity R is corrected according to the number of types of the selected feature amount, and the similarity that appropriately reflects the difference between the reference image data and the search target image data can be calculated.
[0064]
When the Euclidean distance D between two feature vectors indicating the feature amounts is used instead of the correlation coefficient, the equation (21) in which the Euclidean distance D is corrected by the similarity correction coefficient q is used. It is suitable.
[Equation 14]
The processing in steps S708 to S711 is the same as the processing in steps S407 to S410 in the first image search method, and a description thereof will be omitted.
[0065]
As described above, according to the second image search method, it is possible to more appropriately evaluate the similarity between the reference image and the search target image data and search for the image in accordance with the number of types of the selected feature amount. Can be.
[0066]
<Third image search method>
In the first and second image search methods, similarity is calculated by selecting only feature amounts that satisfy predetermined selection conditions. At this time, if the feature amount is near the boundary of the selection condition, the feature amount may or may not be selected due to a subtle difference in the image. As a result, there is a possibility that a problem occurs in which the calculated similarity has a large difference although there is no large difference in the images.
[0067]
In order to avoid such a problem, a method of calculating the similarity by weighting the feature amounts without selecting the feature amounts can be considered. Hereinafter, a third image search method for searching for image data by weighting feature amounts will be described in detail with reference to the drawings.
[0068]
FIG. 9 is a block diagram conceptually showing the image search method. Image data of a reference image serving as a search key is input to a feature
[0069]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 10 shows a flowchart of a process in the third image search method. The process of the third image search method is stored and held in the
[0070]
The processing in steps S1001 to S1004 is the same as the processing in steps S401 to S404 in the above-described first image search method, and a description thereof will be omitted.
[0071]
In step S1005, feature amounts are weighted for the feature amounts extracted in step S1004. For each type of feature, feature weight w j (J = 0, 1,..., M-1) can be obtained using Expression (22). The function g (x) in Expression (22) is a monotonically increasing function with respect to the argument x, and can be, for example, a function as shown in FIG.
[Equation 15]
By using Equation (19) as a function as shown in FIG. 11, when the correlation coefficient between the respective feature amounts is less than 0.5 for the feature amounts extracted from the reference image data and the search target image data, Is the feature weight w j Is 0, and when the correlation coefficient is 0.5 or more, the feature amount weighting w j Increases with the correlation coefficient.
[0072]
In step S1005, further, the feature amount weighting w j Is used to weight each feature amount as in Expressions (23) and (24).
(Equation 16)
In step S1006, the similarity R is calculated using Expression (25) using the feature amounts weighted by Expressions (23) and (24).
[Equation 17]
The processing in steps S1007 to S1010 is the same as the processing in steps S407 to S410 in the first image search method, and a description thereof will be omitted.
[0073]
As described above, according to the third image search method, all the extracted feature amounts are appropriately weighted without selecting feature amounts using selection conditions such as thresholds, so that Has no large difference, and even when the feature amount is near the boundary of the selection condition, it is possible to avoid the problem that the calculated similarity causes a large difference. As a result, an image can be searched by appropriately evaluating the similarity between the reference image data and the search target image data.
[0074]
<Fourth image search method>
In the third image search method, the feature amount weighting w j It is also preferable to correct the similarity based on The feature weight w j The fourth image search method for correcting the similarity according to the following will be described in detail with reference to the drawings.
[0075]
FIG. 12 is a block diagram conceptually showing the image search method. A reference image serving as a search key is input to a feature
[0076]
The above processing is specifically performed by executing an image search program in the image search device. FIG. 13 shows a flowchart of a process in the fourth image search method. The processing of the fourth image search method is stored and held in the
[0077]
The processing in steps S1301 to S1305 is the same as the processing in steps S1001 to S1005 in the third image search method, and a description thereof will be omitted.
[0078]
In step S1306, the weight w for each feature amount calculated in step S1305 is set. j Is used to calculate a similarity correction coefficient q. The similarity correction coefficient q can be obtained using, for example, Expression (26). Here, Dim (A) indicates the number of dimensions of the vector A. The function f (x) is a monotonically increasing function for the argument x, and is, for example, a function as shown in FIG.
(Equation 18)
By using the equation (26), the weight w j Becomes larger, the similarity correction coefficient q can also be increased.
[0079]
In step S1307, the similarity R corrected by the similarity correction coefficient q is calculated. As a method of calculating the similarity R, a mathematical expression (27) obtained by modifying the mathematical expression (25) for obtaining the similarity R from the weighted feature amount using the similarity modification coefficient q can be used.
[Equation 19]
The processing in steps S1308 to S1311 is the same as the processing in steps S1007 to S1010 in the third image search method, and a description thereof will be omitted.
[0080]
As described above, according to the fourth image search method, the weight w j By correcting the similarity R in accordance with the value of, it is possible to more appropriately evaluate the similarity between the reference image and the search target image data and search for the image.
[0081]
【The invention's effect】
According to the present invention, between images that differ only in saturation and hue, such as a black-and-white image and a color image, or between images having a common edge strength characteristic, such as a line diagram and a colored diagram. , It is possible to search for similar images, which were difficult to search using the conventional image search technology. That is, it is possible to appropriately select a similar feature between the reference image and the search target image data, and to search for a similar image that matches the similarity of a human.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of an image having a part of similar features.
FIG. 2 is a configuration diagram of an image search device according to an embodiment of the present invention.
FIG. 3 is a block diagram conceptually showing processing in the first image search method of the present invention.
FIG. 4 is a diagram showing a flowchart in the first image search method of the present invention.
FIG. 5 is a diagram illustrating an image dividing method for extracting a feature amount of an image.
FIG. 6 is a block diagram conceptually showing processing in a second image search method of the present invention.
FIG. 7 is a diagram showing a flowchart in a second image search method of the present invention.
FIG. 8 is a diagram showing an example of a function f (x) in the image search method of the present invention.
FIG. 9 is a block diagram conceptually showing processing in a third image search method of the present invention.
FIG. 10 is a diagram showing a flowchart in a third image search method of the present invention.
FIG. 11 is a diagram showing an example of a function g (x) in the image search method of the present invention.
FIG. 12 is a block diagram conceptually showing processing in a fourth image search method of the present invention.
FIG. 13 is a diagram showing a flowchart in a fourth image search method of the present invention.
[Explanation of symbols]
101 Color-coded image, 102 diagram-based image, 103 monochromatic image with brightness equal to
Claims (12)
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出手段と、
前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択手段と、
前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段と、
を含むことを特徴とする画像検索装置。An image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images,
From each of the reference images and the search target images included in the search target image group, a feature amount extraction unit that extracts a plurality of visual feature amounts,
For each of the search target images, a feature amount selection unit that selects a feature amount of the search target image that is similar to the feature amount of the reference image by only a predetermined condition,
A similar image extracting unit configured to extract an image similar to the reference image from the search target image group based on only the selected feature amount;
An image search device comprising:
前記類似画像抽出手段は、前記選択された特徴量と併せて、さらに、
前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することを特徴とする画像検索装置。The image search device according to claim 1,
The similar image extracting means, together with the selected feature amount,
An image similar to the reference image is extracted from the search target image group based on a difference between the number of feature amounts selected for each of the search target images and the total number of feature amounts extracted from the search target image. An image search device characterized by the above-mentioned.
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出手段と、
前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正手段と、
前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出手段と、
を含むことを特徴とする画像検索装置。An image search device that finds an image similar to a reference image serving as a search key from a search target image group including a plurality of search target images,
From each of the reference images and the search target images included in the search target image group, a feature amount extraction unit that extracts a plurality of visual feature amounts,
A feature amount correcting unit that weights the feature amount based on a difference between feature amounts extracted from the search target image and the reference image for each of the search target images;
A similar image extracting unit configured to extract an image similar to the reference image from the search target image group based on the weighted feature amount;
An image search device comprising:
前記類似画像抽出手段は、前記重み付けされた特徴量と併せて、さらに、
前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することを特徴とする画像検索装置。The image search device according to claim 3,
The similar image extracting means, together with the weighted feature amount,
An image search device, wherein an image similar to the reference image is extracted from the search target image group based on a difference between the feature amounts before and after the feature amount is weighted.
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、
前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を含むことを特徴とする画像検索方法。An image search method for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
A feature amount extraction step of extracting a plurality of visual feature amounts from each of the reference images and the search target images included in the search target image group;
A feature amount selecting step of selecting, for each of the search target images, a feature amount of the search target image that is similar to the feature amount of the reference image by only a predetermined condition;
A similar image extracting step of extracting an image similar to the reference image from the search target image group based on only the selected feature amount;
An image search method comprising:
前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、
前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することを特徴とする画像検索方法。The image search method according to claim 5,
The similar image extraction step, together with the selected feature amount, further,
An image similar to the reference image is extracted from the search target image group based on a difference between the number of feature amounts selected for each of the search target images and the total number of feature amounts extracted from the search target image. An image search method, characterized in that:
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、
前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を含むことを特徴とする画像検索方法。An image search method for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
A feature amount extraction step of extracting a plurality of visual feature amounts from each of the reference images and the search target images included in the search target image group;
A feature amount correcting step of weighting the feature amount based on a difference between feature amounts extracted from the search target image and the reference image for each of the search target images;
A similar image extraction step of extracting an image similar to the reference image from the search target image group based on the weighted feature amount;
An image search method comprising:
前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、
前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することを特徴とする画像検索方法。The image search method according to claim 7,
The similar image extraction step, together with the weighted feature amount, further,
An image search method, wherein an image similar to the reference image is extracted from the search target image group based on a difference between the feature amounts before and after the feature amount is weighted.
コンピュータに、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、前記基準画像の特徴量に対して所定条件を満たすだけ近似している当該検索対象画像の特徴量を選択する特徴量選択工程と、
前記選択された特徴量のみに基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を実行させることを特徴とする画像検索プログラム。An image search program for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
On the computer,
From each of the reference image and the search target image included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image,
A feature amount selecting step of selecting, for each of the search target images, a feature amount of the search target image that is similar to the feature amount of the reference image by only a predetermined condition;
A similar image extracting step of extracting an image similar to the reference image from the search target image group based on only the selected feature amount;
An image search program characterized by executing the following.
前記類似画像抽出工程は、前記選択された特徴量と併せて、さらに、
前記検索対象画像毎に選択された特徴量の数と、当該検索対象画像から抽出された特徴量の全数との差異に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出することを特徴とする画像検索プログラム。The image search program according to claim 9,
The similar image extraction step, together with the selected feature amount, further,
An image similar to the reference image is extracted from the search target image group based on a difference between the number of feature amounts selected for each of the search target images and the total number of feature amounts extracted from the search target image. An image search program characterized by the following.
コンピュータに、
前記基準画像及び前記検索対象画像群に含まれる検索対象画像の各々から、当該画像の複数の視覚的な特徴量を抽出する特徴量抽出工程と、
前記検索対象画像毎に、当該検索対象画像及び前記基準画像から抽出された特徴量の差異に基づいて当該特徴量を重み付けする特徴量修正工程と、
前記重み付けされた特徴量に基づいて、前記検索対象画像群から前記基準画像に類似する画像を抽出する類似画像抽出工程と、
を実行させることを特徴とする画像検索プログラム。An image search program for finding an image similar to a reference image serving as a search key from a group of search target images including a plurality of search target images,
On the computer,
From each of the reference image and the search target image included in the search target image group, a feature amount extraction step of extracting a plurality of visual feature amounts of the image,
A feature amount correcting step of weighting the feature amount based on a difference between feature amounts extracted from the search target image and the reference image for each of the search target images;
A similar image extraction step of extracting an image similar to the reference image from the search target image group based on the weighted feature amount;
An image search program characterized by executing the following.
前記類似画像抽出工程は、前記重み付けされた特徴量と併せて、さらに、
前記特徴量を重み付けする前後における当該特徴量の差異に基づいて、前記検索対象画像群の中から前記基準画像に類似する画像を抽出することを特徴とする画像検索プログラム。The image search program according to claim 11,
The similar image extraction step, together with the weighted feature amount, further,
An image search program for extracting an image similar to the reference image from the search target image group based on a difference between the feature amounts before and after the feature amount is weighted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002161052A JP2004005303A (en) | 2002-06-03 | 2002-06-03 | Image search system, image searching method, and image search program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002161052A JP2004005303A (en) | 2002-06-03 | 2002-06-03 | Image search system, image searching method, and image search program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004005303A true JP2004005303A (en) | 2004-01-08 |
Family
ID=30430234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002161052A Pending JP2004005303A (en) | 2002-06-03 | 2002-06-03 | Image search system, image searching method, and image search program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004005303A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006313524A (en) * | 2005-04-07 | 2006-11-16 | Hiroshima Univ | Data storage device, data retrieval device, data reproduction device, data retrieval program |
JP2007134985A (en) * | 2005-11-10 | 2007-05-31 | Seiko Epson Corp | Image processing technique |
JP2007149018A (en) * | 2005-11-30 | 2007-06-14 | Fujitsu Ltd | Graphic retrieval program, recording medium recorded with the same, graphic retrieval device and graphic retrieval method |
JP2007144641A (en) * | 2005-11-24 | 2007-06-14 | Seiko Epson Corp | Image processing technique |
JP2007299100A (en) * | 2006-04-28 | 2007-11-15 | Hiroshima Univ | Attainment target type education program and attainment target type education system |
JP2008158776A (en) * | 2006-12-22 | 2008-07-10 | Canon Inc | Feature detection method and device, program, and storage medium |
JP2010186485A (en) * | 2010-04-05 | 2010-08-26 | Omron Corp | Method of processing color image and image processing apparatus |
WO2010122721A1 (en) * | 2009-04-22 | 2010-10-28 | 日本電気株式会社 | Matching device, matching method, and matching program |
JP2013137604A (en) * | 2011-12-28 | 2013-07-11 | Glory Ltd | Image collation processing device, image collation processing method and image collation processing program |
JP2014167761A (en) * | 2013-02-28 | 2014-09-11 | Toshiba Corp | Environment evaluation apparatus, method and program |
CN112180328A (en) * | 2020-09-29 | 2021-01-05 | 中国船舶重工集团公司第七二四研究所 | Passive positioning method based on cross positioning and feature search |
US11210771B2 (en) | 2017-03-15 | 2021-12-28 | Fujifilm Corporation | Image evaluation apparatus, image evaluation method, and image evaluation program using impression values of representative images |
-
2002
- 2002-06-03 JP JP2002161052A patent/JP2004005303A/en active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006313524A (en) * | 2005-04-07 | 2006-11-16 | Hiroshima Univ | Data storage device, data retrieval device, data reproduction device, data retrieval program |
JP4581968B2 (en) * | 2005-11-10 | 2010-11-17 | セイコーエプソン株式会社 | Image processing technology |
JP2007134985A (en) * | 2005-11-10 | 2007-05-31 | Seiko Epson Corp | Image processing technique |
JP2007144641A (en) * | 2005-11-24 | 2007-06-14 | Seiko Epson Corp | Image processing technique |
JP4600256B2 (en) * | 2005-11-24 | 2010-12-15 | セイコーエプソン株式会社 | Image processing technology |
JP2007149018A (en) * | 2005-11-30 | 2007-06-14 | Fujitsu Ltd | Graphic retrieval program, recording medium recorded with the same, graphic retrieval device and graphic retrieval method |
JP4682030B2 (en) * | 2005-11-30 | 2011-05-11 | 富士通株式会社 | Graphic search program, recording medium recording the program, graphic search device, and graphic search method |
JP2007299100A (en) * | 2006-04-28 | 2007-11-15 | Hiroshima Univ | Attainment target type education program and attainment target type education system |
JP2008158776A (en) * | 2006-12-22 | 2008-07-10 | Canon Inc | Feature detection method and device, program, and storage medium |
US8072612B2 (en) | 2006-12-22 | 2011-12-06 | Canon Kabushiki Kaisha | Method and apparatus for detecting a feature of an input pattern using a plurality of feature detectors, each of which corresponds to a respective specific variation type and outputs a higher value when variation received by the input pattern roughly matches the respective specific variation type |
WO2010122721A1 (en) * | 2009-04-22 | 2010-10-28 | 日本電気株式会社 | Matching device, matching method, and matching program |
US8958609B2 (en) | 2009-04-22 | 2015-02-17 | Nec Corporation | Method and device for computing degree of similarly between data sets |
JP2010186485A (en) * | 2010-04-05 | 2010-08-26 | Omron Corp | Method of processing color image and image processing apparatus |
JP4670995B2 (en) * | 2010-04-05 | 2011-04-13 | オムロン株式会社 | Color image processing method and image processing apparatus |
JP2013137604A (en) * | 2011-12-28 | 2013-07-11 | Glory Ltd | Image collation processing device, image collation processing method and image collation processing program |
JP2014167761A (en) * | 2013-02-28 | 2014-09-11 | Toshiba Corp | Environment evaluation apparatus, method and program |
US11210771B2 (en) | 2017-03-15 | 2021-12-28 | Fujifilm Corporation | Image evaluation apparatus, image evaluation method, and image evaluation program using impression values of representative images |
CN112180328A (en) * | 2020-09-29 | 2021-01-05 | 中国船舶重工集团公司第七二四研究所 | Passive positioning method based on cross positioning and feature search |
CN112180328B (en) * | 2020-09-29 | 2022-09-30 | 中国船舶重工集团公司第七二四研究所 | Passive positioning method based on cross positioning and feature search |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5229744B2 (en) | Image classification device and image classification program | |
KR101346730B1 (en) | System, apparatus, method, program and recording medium for processing image | |
US7925650B2 (en) | Image management methods, image management systems, and articles of manufacture | |
US8094935B2 (en) | Representative color extracting method and apparatus based on human color sense and data histogram distributions | |
JP5236785B2 (en) | Color image search method, color image search apparatus, color image search system, and computer executable program | |
KR101457284B1 (en) | Methods and apparatuses for facilitating content-based image retrieval | |
US8391618B1 (en) | Semantic image classification and search | |
US20090110300A1 (en) | Apparatus and method for processing image | |
KR100471927B1 (en) | System for searching image data being based on web and method thereof | |
JP2003153007A (en) | Image compression control system and method based on image importance | |
JP2007206920A (en) | Image processor and image processing method, retrieving device and method, program and recording medium | |
JP2008262581A (en) | System and method for determining image similarity | |
KR20070079330A (en) | Display control apparatus, display control method, computer program, and recording medium | |
JP5164692B2 (en) | Image processing apparatus, image processing method, and program | |
JP2004005303A (en) | Image search system, image searching method, and image search program | |
US7519236B2 (en) | Image retrieval | |
JP4674257B2 (en) | Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus | |
EP1884950A2 (en) | Image recording and playing system and image recording and playing method | |
JP2004021430A (en) | Image searching device, image searching method, and image searching program | |
JP2010250630A (en) | Image server, image retrieval system, and image retrieval method | |
JP2010250636A (en) | Image retrieval terminal device and image retrieval request method | |
JP2004192555A (en) | Information management method, device and program | |
JP2010250634A (en) | Image server, image retrieval system, image retrieval method, and index creation method | |
KR20000014123A (en) | Image likeness weighted value adjustment device and method and contents base image search system and method using thereof | |
JP6109118B2 (en) | Image processing apparatus and method, information processing apparatus and method, and program |