JP4340367B2 - Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus - Google Patents
Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus Download PDFInfo
- Publication number
- JP4340367B2 JP4340367B2 JP35993999A JP35993999A JP4340367B2 JP 4340367 B2 JP4340367 B2 JP 4340367B2 JP 35993999 A JP35993999 A JP 35993999A JP 35993999 A JP35993999 A JP 35993999A JP 4340367 B2 JP4340367 B2 JP 4340367B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- classification
- similarity
- search
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、大量の画像の中からユーザが希望する画像を探し出すための画像検索装置および大量の画像を所定の分類先に分類する画像分類装置に関し、ユーザが望む通りの方法で精度の高い画像検索処理および画像分類処理を行うことが可能な画像検索装置および画像分類装置に関する。
【0002】
【従来の技術】
近年、コンピュータ技術や画像処理技術の発達に伴って、大量の電子画像を蓄積して画像データベースを構築する試みが盛んに行われている。画像データベースを構築する際に重要となるのは、大量に蓄積した画像の中から利用したい画像を簡単に得ることができるようにするための画像検索装置である。
【0003】
画像検索装置の一つとして、各画像に言葉を用いた検索キーを付与し、文書の検索と同様な方法で、入力されたキーワードと画像に付された検索キーとを照合し、キーワードと一致する検索キーが付された画像を検索結果として返すというものがある。
【0004】
ところが、人間が画像から受ける印象は人によって異なるため、画像に付された検索キーがその画像から人間が受ける印象を全て言い表しているとは言えず、従って言葉による検索キーを用いた画像検索では満足な画像を得ることができない場合が多い。なぜなら、画像中に登場する人間,動物,建物等の事物(以下「オブジェクト」と定義する)の形状特徴や位置関係については、適切な言葉で表現することができない場合が多いからである。
【0005】
そのため、キーワードと言葉による検索キーとを照合することによって画像を検索するのではなく、検索条件として特定の画像(以下「問合せ画像」と記述する)を与え、問合せ画像に類似する画像を画像データベースの中から検索できるようにすることが望ましい。このような検索装置を実現するために、問合せ画像および検索対象の画像からそれぞれ画像の特徴を表す特徴量を抽出し、問合せ画像の特徴量と検索対象の画像の特徴量との類似性を判定し、問合せ画像の特徴量と類似する特徴量を有する画像を検索結果として返すという方法が提案されている。つまり、この画像検索装置は、特徴間の類似性を画像自体の類似性と考えることによって、類似する画像を検索するというものである。
【0006】
また、画像そのものを問合せ画像とするのではなく、各画像の特徴量として画像の色(色のヒストグラム),テクスチャ,オブジェクトの形状等を抽出してデータベース化しておき、画像を検索する際に、データベース化した画像の特徴量を検索条件として指定することによって、指定した特徴量を有する画像を検索するという検索装置も提案されている(Myron Flickner et al, “Query by Imageand Video Content: The QBIC System,” Computer, September 1995, pp23-32)。
【0009】
【発明が解決しようとする課題】
しかしながら、上記従来の画像検索装置においては、検索条件の指定に自由度がなく、ユーザの意図を検索条件として正確に表現することができないという点で不便であった。したがって、ユーザの意図を装置側に正確に伝えることができず、ユーザの望む画像を精度良く得ることは困難であった。さらに、ユーザの意図を装置側に正確に伝え、ユーザの意図通りの検索処理を行うことを可能にするためには、ユーザが望む方法で検索処理を行えるように様々な検索手法が用意されていなければならない。
【0011】
本発明は上記に鑑みてなされたものであって、ユーザの意図を検索条件として正確に表現できるようにし、精度の高い画像検索処理を行うことが可能な画像検索装置における画像検索処理を画像分類処理に応用し、ユーザの意図を画像分類の基準となる分類条件として正確に表現できるようにし、精度の高い画像の分類処理を行うことが可能な画像分類装置を提供することを目的とする。
【0031】
【課題を解決するための手段】
本発明の画像分類装置は、分類対象の画像の分類先となる分類項目毎に前記分類対象の画像の分類基準となる基準画像を設定し、前記各分類項目毎に設定された基準画像および前記分類対象の画像からそれぞれ抽出した画像の特徴を表す少なくとも一種類の特徴量を用いることにより、前記各分類項目毎に前記基準画像および分類対象の画像の類似度を求め、求めた類似度に基づいて前記分類対象の画像を前記分類項目のいずれかに分類する画像分類装置であって、前記分類項目を設定し、設定した分類項目それぞれに対し、前記基準画像および分類対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの基準画像を設定する設定手段と、前記分類項目毎に、前記設定手段で設定された各基準画像および分類対象の画像の類似度を対応する種類の特徴量を用いて求めると共に、求めた類似度を合計して前記分類対象の画像の総合類似度を求める演算手段と、前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、前記検索手段は、問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、を備えた。
【0032】
本発明の画像分類装置は、分類対象の画像の分類先となる分類項目毎に前記分類対象の画像の分類基準となる基準画像を設定し、前記各分類項目毎に設定された基準画像および前記分類対象の画像からそれぞれ抽出した画像の特徴を表す少なくとも一種類の特徴量を用いることにより、前記各分類項目毎に前記基準画像および分類対象の画像の類似度を求め、求めた類似度に基づいて前記分類対象の画像を前記分類項目のいずれかに分類する画像分類装置であって、前記分類項目を設定し、設定した分類項目毎に、前記基準画像を複数設定すると共に、設定した各基準画像毎に前記分類対象の画像との類似度を求める際に使用する特徴量の種類を設定する設定手段と、前記分類項目毎に、前記設定手段で設定された種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して前記分類対象の画像の総合類似度を求める演算手段と、前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、前記検索手段は、問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、を備えた。
【0033】
本発明の画像分類装置は、分類対象の画像の分類先となる分類項目毎に前記分類対象の画像の分類基準となる基準画像を設定し、前記各分類項目毎に設定された基準画像および前記分類対象の画像からそれぞれ抽出した画像の特徴を表す少なくとも一種類の特徴量を用いることにより、前記各分類項目毎に前記基準画像および分類対象の画像の類似度を求め、求めた類似度に基づいて前記分類対象の画像を前記分類項目のいずれかに分類する画像分類装置であって、前記分類項目を設定し、設定した分類項目毎に、前記基準画像を複数設定する設定手段と、前記分類項目毎に、前記設定手段で設定された各基準画像および前記分類対象の画像の類似度を求めると共に、求めた類似度を合計して前記分類対象の画像の総合類似度を求める演算手段と、前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、前記検索手段は、問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、を備えた。
【0034】
本発明の画像分類装置は、分類対象の画像の分類先となる分類項目毎に前記分類対象の画像の分類基準となる基準画像を設定し、前記各分類項目毎に設定された基準画像および前記分類対象の画像からそれぞれ抽出した画像の特徴を表す少なくとも一種類の特徴量を用いることにより、前記各分類項目毎に前記基準画像および分類対象の画像の類似度を求め、求めた類似度に基づいて前記分類対象の画像を前記分類項目のいずれかに分類する画像分類装置であって、前記分類項目を設定し、設定した分類項目毎に、前記基準画像を複数設定する設定手段と、前記分類項目毎に、前記設定手段で設定された各基準画像および前記分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択して前記分類対象の画像の総合類似度を求める演算手段と、前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、前記検索手段は、問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、を備えた。
【0039】
本発明の画像分類装置は、分類対象の複数の画像から画像の特徴を表す少なくとも一種類の特徴量を抽出し、抽出した特徴量を用いて前記分類対象の各画像を類似する画像同士のグループに分類する画像分類装置であって、前記特徴量の種類を指定する指定手段と、前記指定手段で特徴量の種類が指定された場合に、指定された種類の特徴量を用いて前記分類対象の各画像間の類似度を求め、求めた分類対象の各画像間の類似度に基づいて、前記分類対象の各画像を類似する画像同士のグループに分類する分類手段と、前記分類手段で分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示する表示手段と、前記グループ毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、前記指定手段は、さらに、前記表示手段によって表示された代表画像の一つを指定すると共に、前記特徴量の種類を指定可能であり、前記分類手段は、前記指定手段で前記代表画像および前記特徴量の種類が指定された場合に、指定された種類の特徴量を用いて前記代表画像の属するグループに分類された各画像を類似する画像同士のグループに分類し、前記表示手段は、前記分類手段で分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示し、前記検索手段は、問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、を備えた。
【0044】
本発明の記録媒体は、また、本発明の画像分類装置の何れか一の各手段としてコンピュータを機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体である。
【0045】
【発明の実施の形態】
以下、本発明に係る画像検索装置および画像分類装置の実施の形態について、添付の図面を参照しつつ詳細に説明する。
【0046】
〔実施の形態1〕
まず、本発明に係る画像検索装置について説明する。図1は、実施の形態1に係る画像検索装置のブロック構成図である。図1に示す画像検索装置は、パーソナルコンピュータやワークステーション等のコンピュータ100で構成されており、全体を制御するCPU101と、ブートプログラム等を記憶したROM102と、CPU101のワークエリアとして使用されるRAM103と、問合せ画像,検索実行命令等の入力を行うためのキーボード104およびマウス105と、例えば検索結果の画像を表示するためのCRTや液晶ディスプレイ等のモニタ106と、本発明の画像検索装置としての機能をCPU101(コンピュータ100)に実行させるための画像検索ソフト107,複数の画像が登録された画像DB108,画像DB108中の画像から抽出した特徴量が登録された画像特徴DB109等を記憶したハードディスク110と、画像を入力するためのスキャナやディジタルカメラを接続するためのインターフェイス(I/F)111と、インターネットやLANのようなネットワーク112にコンピュータ100(画像検索装置)を接続するためのネットワーク・アダプタ113と、上記各部を接続するバス114と、を備えている。
【0047】
図2は、図1に示した画像検索装置において実行される処理を示すブロック図である。処理の詳細な内容については後述するが、図2において、ユーザ・インターフェイス(U/I)部151(本発明の指定手段および出力手段に該当する)は、ユーザに対して画像検索を行うための検索条件入力画面,検索結果表示画面等を表示して、検索条件の入力,検索結果の出力処理等を実行する。特徴抽出エンジン152(本発明の重要度決定手段および特徴抽出手段に該当する)は、画像DB108に登録する画像(検索対象の画像)および検索時に指定される問合せ画像から画像の特徴量を抽出する処理を実行する。さらに、マッチング・エンジン153(本発明の検索手段に該当する)は、問合せ画像から抽出された特徴量と画像特徴DB109に登録された画像DB108中の画像の特徴量とを比較し、問合せ画像の特徴に該当する特徴を有する画像を検索する処理を実行する。
【0048】
なお、図2において、U/I部151,特徴抽出エンジン152およびマッチング・エンジン153は、図1に示した画像検索ソフト107を構成するモジュールを意味している。これら各部による処理は、図1に示したCPU101が画像検索ソフト107を実行することによって実現される。
【0049】
つぎに、前述した構成を有する画像検索装置によって実行される処理について、
(1)特徴量抽出処理
(2)画像検索処理
の順で説明する。
【0050】
(1)特徴量抽出処理
まず、検索対象の画像を画像DB108に登録する処理を例にとって、画像の特徴を表す特徴量を各画像から抽出する処理を説明する。ここでは、一例として、従来から良く知られている画像の色特徴(色ヒストグラム),画像のエッジ特徴および画像中のテクスチャ特徴を特徴量として抽出するものとする。
【0051】
図3は、実施の形態1に係る画像検索装置において実行される画像登録処理の概略を示すフローチャートである。図2に示した特徴抽出エンジン152は、U/I部151を介して登録対象となる画像を入力する(S11)。入力する画像は、例えば、スキャナで読み取った画像,ディジタルカメラで撮像した画像,ネットワーク112を介してダウンロードした画像,予めハードディスク110に記憶されていた画像等、いかなるものであっても良い。
【0052】
そして、特徴抽出エンジン152は、入力した画像から特徴量を抽出する処理を実行する(S12)。このステップS12において、上記3種類の特徴量が各画像から抽出されるものとする。これら3種類の特徴量は、以下に示すように従来から知られている方法を用いて各画像から抽出することができる。
【0053】
画像の色ヒストグラム(以下、単に「色」と記述する)は、適当な色空間(例えばLab,Luv,HSVなどが一般的)を選択して複数の領域に分割し、画像の各ピクセルが色空間中のどの領域に対応するかを調べ、領域毎のピクセル数を全体のピクセル数により正規化することによって得ることができる。画像のエッジ(以下、「構造」と記述する)は、例えばsobelのようなエッジ抽出フィルタを用いて得ることができる。さらに、テクスチャは、同時生起行列に基づくテクスチャ抽出によって得ることができる(参考文献:高木幹夫雄,下田陽久監修,「画像解析ハンドブック」,東京大学出版会,1991年)。
【0054】
ステップS12で画像から特徴量を抽出した後、特徴抽出エンジン152は、画像DB108に登録する元の画像に関連付けて、抽出した特徴量を画像特徴DB109に登録する(S13)。また、元の画像も画像DB108に登録される。
【0055】
なお、画像検索の高速化という観点から、画像DB108に登録する検索対象の画像については、登録時に予め特徴量を抽出して画像特徴DB109に登録しておくことが好ましい。ただし、画像検索時に検索対象の各画像から特徴量を抽出することにする場合には、予め特徴量を抽出しておく必要はない。
【0056】
図3に示した処理を実行することにより、画像DB108に登録された画像は、抽出した特徴量の種類毎に図4に示すような特徴空間にマップされることになる。画像検索時においては、後述するように問合せ画像から画像の特徴量を抽出し、同じく図4に示す特徴空間にマップする。図4に示すポイント(黒点)は、特徴空間にマップされた画像を示し、問合せ画像のポイントと各画像のポイント間の距離が画像の類似度となる。なお、画像の特徴量の多くはベクトルデータであり、類似度であるポイント間の距離の計算には一般にユークリッド距離などのベクトルの距離定義式が利用される。また、画像の特徴量の種類に合わせて独自の距離を定義することもできる。
【0057】
(2)画像検索処理
続いて、実施の形態1に係る画像検索装置において実行される画像検索処理について説明する。実施の形態1に係る画像検索装置は、単に問合せ画像を検索条件として指定するのみでは問合せ画像とユーザが検索結果として希望する画像との類似観点を装置に伝えられないという点を考慮したものであって、検索に使用する特徴量の種類毎に問合せ画像を指定することによって、ユーザが適切と考える仮想的な一つの問合せ画像を表現できるようにしたものである。なお、前述したように、ここで使用可能な特徴量の種類としては、色,構造およびテクスチャの3種類であるものとし、検索対象の画像は画像DB108に登録された画像であるものとする。
【0058】
図5は検索時に使用される検索ウインドウを示す説明図であり、図6は実施の形態1に係る画像検索処理を示すフローチャートである。図2のU/I部151は、画像検索処理を実行する際に図5に示す検索ウインドウ200aを図1に示したモニタ106上に画面表示する。検索ウインドウ200aは、画像検索に用いられる色,構造およびテクスチャの特徴量毎にそれぞれ一つの問合せ画像を指定するための画像指定欄A,BおよびCと、画像検索処理の実行を指定するための検索ボタン201と、検索結果の画像を表示する画像表示欄202と、を備えている。
【0059】
ユーザは、図5に示した各画像指定欄において、特徴量の種類毎に問合せ画像をそれぞれ指定する(S101)。問合せ画像として指定する画像は、例えば、スキャナで読み取った画像,ディジタルカメラで撮像した画像,ネットワーク112を介してダウンロードした画像,予めハードディスク110に記憶されていた画像等、いかなるものであっても良い。
【0060】
ここで、問合せ画像の指定方法について具体的に説明する。前提として、ユーザが検索結果として希望する画像を適切に表現した一枚の画像は存在しないが、例えば、検索結果として希望する画像に画像の配色の雰囲気が似た画像A,画像の構造(オブジェクトの配置等)の雰囲気が似た画像Bおよび画像中のテクスチャの雰囲気が似た画像Cが見つかったものとする。
【0061】
ユーザは、図5に示すように、これら3枚の画像A,BおよびCをそれぞれ画像指定欄A,BおよびCに問合せ画像として指定する。具体的には、検索結果として希望する画像に画像の配色の雰囲気が似ている問合せ画像Aを特徴量「色」に対応する画像指定欄Aに指定する。同様に、検索結果として希望する画像に画像の構造の雰囲気が似ている問合せ画像Bを特徴量「構造」に対応する画像指定欄Bに、画像中のテクスチャの雰囲気が似ている問合せ画像Cを特徴量「テクスチャ」に対応する画像指定欄Cに指定する。
【0062】
なお、以下の説明において、画像指定欄Aに指定された画像を問合せ画像Aと、画像指定欄Bに指定された画像を問合せ画像Bと、画像指定欄Cに指定された画像を問合せ画像Cと呼ぶことにする。
【0063】
このように、単に問合せ画像を複数指定するだけでなく、画像検索に使用される各種類の特徴量毎に問合せ画像を指定することにより、ユーザが適切と考える仮想的な一つの問合せ画像を表現できると共に、検索に対するユーザの意図を装置側に正確に伝えることが可能となる。したがって、後述する検索処理によって、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0064】
図6のフローチャートの説明に戻る。ユーザが図5の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから対応する種類の特徴量を抽出する処理を実行する(S102)。すなわち、特徴抽出エンジン152は、問合せ画像Aから色の特徴量を、問合せ画像Bから構造の特徴量を、問合せ画像Cからテクスチャの特徴量を抽出する。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0065】
なお、問合せ画像A,BおよびCから抽出した特徴量が画像特徴DB109に登録されている場合には、図6のステップS102の処理をスキップすることができる。
【0066】
続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、該当する特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度を合計して、検索対象の画像の総合類似度を求める処理を実行する(S103)。
【0067】
このステップS103における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。この画像間の距離が、二つの画像の類似度に該当し、距離が短いほど二つの画像が色の特徴において類似していることになる。マッチング・エンジン153は、同様に、構造の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて検索対象の画像と問合せ画像Cとの距離を求める。
【0068】
その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の種類の数をN、特徴量jの問合せ画像をQj、検索対象の画像をIi、特徴量jの画像間の距離式をDj()とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0069】
【数1】
【0070】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0071】
U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図5の画像表示欄202に表示する(S104)。ここでは、総合類似度として、検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0072】
なお、画像表示欄202には検索対象の画像を全て表示する必要はなく、予め定めた数の画像のみを表示したり、予め定めた閾値以下(総合類似度が画像間の距離で表されている場合)の総合類似度を得た画像のみを表示することにしても良い。すなわち、検索結果をどのように表示するかについては任意に設定・変更することが可能である(以下の実施の形態においても同様)。
【0073】
また、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、画像表示欄202に表示された画像をマウス105でクリックすることにより、画像を拡大して表示する処理を行うことも可能である。
【0074】
このように、実施の形態1に係る画像検索装置によれば、問合せ画像および検索対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの問合せ画像を指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を対応する種類の特徴量を用いて求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。
【0075】
例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。
【0076】
なお、実施の形態1の説明において、全ての種類の特徴量にそれぞれ対応して問合せ画像を指定することにしたが、必ず全ての種類の特徴量に対応して問合せ画像を指定する必要はない。また、色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類および数を限定することを意図したものではない。
【0077】
〔実施の形態2〕
実施の形態2に係る画像検索装置は、実施の形態1の場合と同様に、単に問合せ画像を検索条件として指定するのみでは問合せ画像とユーザが検索結果として希望する画像との類似観点を装置に伝えられないという点を考慮したものであって、複数の問合せ画像と検索に使用する特徴量の種類とを指定することによって、ユーザが適切と考える仮想的な一つの問合せ画像を表現できるようにしたものである。なお、実施の形態2に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
【0078】
図7は検索時に使用される検索ウインドウを示す説明図であり、図8は実施の形態2に係る画像検索処理を示すフローチャートである。図2のU/I部151は、画像検索処理を実行する際に図7に示す検索ウインドウ200bを図1に示したモニタ106上に画面表示する。検索ウインドウ200bは、複数の問合せ画像を指定するための画像指定欄A,BおよびCと、各画像指定欄に指定した問合せ画像毎に、検索対象の画像との類似度を求める際に使用する特徴量の種類を指定するための特徴量指定ボタン203と、画像検索処理の実行を指定するための検索ボタン201と、検索結果の画像を表示する画像表示欄202と、を備えている。
【0079】
実施の形態1で説明したように、前提として、ユーザが検索結果として希望する画像を適切に表現した一枚の画像は存在しないが、例えば、検索結果として希望する画像に画像の配色の雰囲気が似た画像A,画像の構造の雰囲気が似た画像Bおよび画像中のテクスチャの雰囲気が似た画像Cが見つかったものとする。
【0080】
ユーザは、図7に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定する(S201)。
【0081】
具体的に、ユーザは、図7に示すように3枚の画像A,BおよびCを画像指定欄A,BおよびCに問合せ画像として指定する。そして、ユーザは、検索結果として希望する画像に画像の配色の雰囲気が似ている問合せ画像Aについては、特徴量指定ボタン203において「色」を指定する。同様に、検索結果として希望する画像に画像の構造の雰囲気が似ている問合せ画像Bについては「構造」を、画像中のテクスチャの雰囲気が似ている問合せ画像Cについては「テクスチャ」を指定する。
【0082】
このように、単に問合せ画像を複数指定するだけでなく、指定した各問合せ画像毎にユーザが重視する画像の特徴に該当する特徴量を指定することにより、ユーザが適切と考える仮想的な一つの問合せ画像を表現できると共に、検索に対するユーザの意図を装置側に正確に伝えることが可能となる。したがって、後述する検索処理によって、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0083】
ただし、図7においては、各問合せ画像に対してそれぞれ異なる種類の特徴量を指定することにしたが、同一種類の特徴量を指定しても良い。すなわち、複数の問合せ画像全てに同一種類の特徴量を指定しても良い。
【0084】
そして、ユーザが図7の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびC,ならびに特徴量の種類を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから指定された種類の特徴量を抽出する処理を実行する(S202)。すなわち、特徴抽出エンジン152は、問合せ画像Aから色の特徴量を、問合せ画像Bから構造の特徴量を、問合せ画像Cからテクスチャの特徴量を抽出する。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0085】
なお、問合せ画像A,BおよびCから抽出した特徴量が画像特徴DB109に登録されている場合には、図8のステップS202の処理をスキップすることができる。
【0086】
続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、ユーザが指定した種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S203)。
【0087】
このステップS203における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。この画像間の距離が、二つの画像の類似度に該当し、距離が短いほど二つの画像が色の特徴において類似していることになる。マッチング・エンジン153は、同様に、構造の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて検索対象の画像と問合せ画像Cとの距離を求める。
【0088】
その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの指定の有無をtjk(指定されていれば1、指定されていなければ0)とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0089】
【数2】
【0090】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0091】
U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図7の画像表示欄202に表示する(S204)。ここでは、総合類似度として、検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0092】
なお、画像表示欄202には検索対象の全ての画像を表示する必要はなく、予め定めた数の画像のみを表示したり、予め定めた閾値以下(総合類似度が画像間の距離で表されている場合)の総合類似度を得た画像のみを表示することにしても良い。
【0093】
また、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、画像表示欄202に表示された画像をマウス105でクリックすることにより、画像を拡大して表示する処理を行うことも可能である。
【0094】
このように、実施の形態2に係る画像検索装置によれば、問合せ画像を複数指定すると共に、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定し、検索対象の画像毎に、指定された種類の特徴量を用いて各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。
【0095】
例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。加えて、指定した各問合せ画像毎にユーザが希望する特徴量を指定することができるため、実施の形態1に係る画像検索装置に比べ、検索条件を自由に設定することができる。
【0096】
なお、実施の形態2の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。すなわち、問合せ画像を1枚のみ指定しても同様の方法で検索処理を行うことができるが、実施の形態2においては複数枚指定することに意味がある。また、色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類を限定することを意図したものではない。
【0097】
〔実施の形態3〕
実施の形態3に係る画像検索装置は、実施の形態2の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。
【0098】
図9は、実施の形態3に係る画像検索装置において用いられる検索ウインドウ200cを示す説明図である。図9に示す検索ウインドウ200cは、図7に示した検索ウインドウ200bの構成に加えて、画像指定欄A,BおよびCに指定された問合せ画像毎に相対的な重要度を指定するための重要度指定バー204を備えている。
【0099】
実施の形態1および2で説明したように、前提として、ユーザが検索結果として希望する画像を適切に表現した一枚の画像は存在しないが、例えば、検索結果として希望する画像に画像の配色の雰囲気が似た画像A,画像の構造の雰囲気が似た画像Bおよび画像中のテクスチャの雰囲気が似た画像Cが見つかったものとする。
【0100】
ユーザは、図9に示すように、これら3枚の画像をそれぞれ画像指定欄A,BおよびCに問合せ画像A,BおよびCとして指定する。つぎにユーザは、検索結果として希望する画像に画像の配色の雰囲気が似ている問合せ画像Aについては特徴量指定ボタン203において「色」を指定する。同様に、検索結果として希望する画像に画像の構造の雰囲気が似ている問合せ画像Bについては「構造」を、画像中のテクスチャの雰囲気が似ている問合せ画像Cについては「テクスチャ」を指定する。
【0101】
続いて、ユーザは重要度指定バー204を用いて各問合せ画像に重要度を指定する。この重要度指定バー204は、一例として、各問合せ画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することができるように構成されている。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。
【0102】
例えば、問合せ画像A,BおよびCのうち、検索結果として希望する画像に類似する配色を持った問合せ画像Aが最も重要である、即ち、検索結果として問合せ画像Aのような配色の画像が特に欲しいとユーザが感じる場合、ユーザは重要度指定バー204を「+」方向の所望の位置に移動させ、問合せ画像Aは重要であることを指定する。このようにして重要度が指定されると、後述する検索時において、検索対象の画像と問合せ画像Aとの類似度に対し、問合せ画像Aに対して指定された重要度に応じた「+」の重み付けが行われる。
【0103】
なお、例えば、問合せ画像Cのようなテクスチャの画像は検索結果として欲しくないとユーザが感じる場合、ユーザは重要度指定バー204を「−」方向の所望の位置に移動させる。すなわち、「−」方向の重要度を指定することによりNOT条件を問合せ画像に付与することができる。したがって、こんな特徴を有する画像は検索結果として欲しくないとユーザが考える画像を問合せ画像として指定することも可能である。この場合、検索対象の画像と問合せ画像Cとの類似度に対し、問合せ画像Cに対して指定された重要度に応じた「−」の重み付けが行われることになる。
【0104】
このように、問合せ画像毎にユーザが重要度を指定することを可能にすることにより、検索に対するユーザの意図を検索条件として正確に表現することが可能となる。すなわち、後述する検索処理によって、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。なお、必ず重要度を指定しなければならないわけではなく、ユーザが希望する場合に、希望する問合せ画像に対して指定すれば良い。
【0105】
つぎに、実施の形態3に係る画像検索装置による画像検索処理について説明する。図10は、実施の形態3に係る検索処理を示すフローチャートである。ユーザは、図9に示した各画像指定欄に問合せ画像を複数指定し、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定すると共に、必要に応じて重要度を指定する(S301)。図9に示したように、ユーザは、問合せ画像A,BおよびCを指定し、各問合せ画像A,BおよびC毎に特徴量の種類および重要度を指定したものとする。
【0106】
続いて、ユーザが図9の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびC,ならびに特徴量の種類を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから指定された種類の特徴量を抽出する処理を実行する(S302)。すなわち、特徴抽出エンジン152は、問合せ画像Aから色の特徴量を、問合せ画像Bから構造の特徴量を、問合せ画像Cからテクスチャの特徴量を抽出する。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0107】
続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、ユーザが指定した種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S303)。
【0108】
このステップS303における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、重要度指定バー204で指定された問合せ画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、構造の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求め、求めた距離に対して問合せ画像Bの重要度に応じた重み付けを行うと共に、テクスチャの特徴量に基づいて検索対象の画像と問合せ画像Cとの距離を求め、求めた距離に対して問合せ画像Cの重要度に応じた重み付けを行う。
【0109】
なお、重み付けの対象となる類似度は画像同士の特徴量間の距離であるため、「+」の重要度に基づく「+」の重み付けは画像間の距離を短くする方向に働き、「−」の重要度に基づく「−」の重み付けは画像間の距離を長くする方向に働くことになる。
【0110】
その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの重要度をwjk(該当する特徴が指定されていなければ0)とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0111】
【数3】
【0112】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0113】
U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図9の画像表示欄202に表示する(S304)。ここでは、総合類似度として、検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0114】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、画像表示欄202に表示された画像をマウス105でクリックすることにより、画像を拡大して表示する処理を行うことも可能である。
【0115】
このように、実施の形態3に係る画像検索装置によれば、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0116】
なお、実施の形態3の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。ただし、実施の形態3においては、問合せ画像毎に重要度を指定するため、複数枚の問合せ画像を指定することに意味がある。
【0117】
また、詳細な説明については省略するが、実施の形態1で説明した画像検索装置においても、実施の形態3で説明したように各問合せ画像毎に重要度を指定することができるようにしても良い。
【0118】
〔実施の形態4〕
実施の形態4に係る画像検索装置は、ユーザの意図を検索条件として正確に表現するための一つの手法として、AND検索を実行可能にするものである。なお、実施の形態4に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
【0119】
図11は、実施の形態4に係る画像検索装置において用いられる検索ウインドウ200dを示す説明図である。この検索ウインドウ200dは、画像指定欄A,BおよびC,検索ボタン201ならびに画像表示欄202に加え、AND検索の実行を指定するためのAND指定ボタン205およびOR検索の実行を指定するためのOR指定ボタン206を備えている。OR検索については、後述する実施の形態8において詳細に説明することにし、ここではAND検索についてのみ説明する。また、検索の際に用いる特徴量は一種類であるものとするが、当然、複数種類の特徴量を用いることにしても良い。
【0120】
続いて、実施の形態4に係る画像検索装置による画像検索処理について説明する。図12は、実施の形態4に係る画像検索処理を示すフローチャートである。ユーザは、図11に示した各画像指定欄に問合せ画像を複数指定し、AND指定ボタン205を選択してAND条件による画像検索処理を指定する(S401)。図11に示したように、ユーザは、3枚の問合せ画像A,BおよびCを指定したものとする。
【0121】
続いて、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S402)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0122】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S403)。
【0123】
このステップS403における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、検索対象の画像と問合せ画像Cとの距離を求める。
【0124】
その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0125】
【数4】
【0126】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0127】
なお、複数種類の特徴量を用いて検索を行う場合は、各種類の特徴量毎に検索対象の画像および各問合せ画像の類似度(距離)を求め、検索対象の画像毎に、特徴量毎に求めた各問合せ画像との類似度の全てを合計して総合類似度を求めれば良い。
【0128】
続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S404)。ここでの総合類似度は、問合せ画像A,BおよびCの全てに対する検索対象の各画像の類似度を意味しているため、画像のAND検索が実行されたことになる。ただし、ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0129】
そして、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0130】
このように、実施の形態4に係る画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、AND検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。
【0131】
なお、実施の形態4の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。
【0132】
〔実施の形態5〕
実施の形態5に係る画像検索装置は、実施の形態4の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。
【0133】
図13は、実施の形態5に係る画像検索装置において用いられる検索ウインドウ200eを示す説明図である。図13に示す検索ウインドウ200eは、図11に示した検索ウインドウ200dに加えて、画像指定欄A,BおよびCに指定された各問合せ画像毎に相対的な重要度を指定する重要度指定バー207を備えている。
【0134】
この重要度指定バー207は、実施の形態3で説明したように、各問合せ画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。したがって、ユーザが重要と考える問合せ画像に対して「+」の重要度を指定し、このような画像に類似する画像は検索結果として欲しくないと考える場合は該当する問合せ画像に対して「−」の重要度を指定することができる。指定した重要度は、求めた類似度に対する重み付けとして検索結果に反映される。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。
【0135】
つぎに、実施の形態5に係る画像検索装置による画像検索処理について説明する。図14は、実施の形態5に係る検索処理を示すフローチャートである。ユーザは、図13に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に必要に応じて重要度を指定し、さらにAND指定ボタン205を選択してAND条件による画像検索処理を指定する(S501)。図13に示したように、ユーザは、問合せ画像A,BおよびCを指定し、指定した各問合せ画像A,BおよびC毎に任意の重要度を指定したものとする。
【0136】
そして、ユーザが図13の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S502)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0137】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S503)。
【0138】
このステップS503における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200eにおいて指定された問合せ画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を求め、求めた距離に対して問合せ画像Bの重要度に応じた重み付けを行うと共に、検索対象の画像と問合せ画像Cとの距離を求め、求めた距離に対して問合せ画像Cの重要度に応じた重み付けを行う。
【0139】
その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()、k番目の画像の重要度をwkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0140】
【数5】
【0141】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0142】
続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図13の画像表示欄202に表示する(S504)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0143】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0144】
このように、実施の形態5に係る画像検索装置によれば、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0145】
なお、実施の形態5の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。
【0146】
〔実施の形態6〕
実施の形態6に係る画像検索装置は、実施の形態4の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。
【0147】
図15は、実施の形態6に係る画像検索装置において用いられる検索ウインドウ200fを示す説明図である。図15に示す検索ウインドウ200fは、図11に示した検索ウインドウ200dに加えて、画像指定欄A,BおよびCに指定された各問合せ画像A,BおよびC毎に、検索に使用される特徴量の種類毎の重要度を指定する重要度指定バー208を備えている。なお、検索に使用される特徴量としては、一例として、色,構造およびテクスチャの3種類を用いるものとする。
【0148】
重要度指定バー208は、各種類の特徴量毎の重要度を各問合せ画像毎に指定することを可能とするものであって、実施の形態3の重要度指定バー204(図9参照)で説明したように「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。
【0149】
具体的に、この重要度の指定方法を図15の問合せ画像Aを例にとって説明する。例えば、問合せ画像Aにおける配色は検索結果として希望する画像に近いと考える場合、ユーザは色の重要度指定バー208を操作して「+」の重要度を指定する。一方、問合せ画像Aにおける構造は検索結果として希望する画像とはほとんど似ていないと考える場合、ユーザは構造の重要度指定バー208を操作して「−」の重要度を指定する。
【0150】
そして、後に説明する検索処理において、問合せ画像Aと検索対象の画像の類似度が色の特徴量,構造の特徴量およびテクスチャの特徴量毎に求められる。上記例においては、色の特徴量に「+」の重要度が、構造の特徴量に「−」の特徴量が指定されているため、色の特徴量を用いて求めた類似度に対して「+」の重要度に応じた「+」の重み付けが行われ、構造の特徴量を用いて求めた類似度に対して「−」の重要度に応じた「−」の重み付けが行われる。この処理は、検索対象の各画像との類似度に対して実行される。
【0151】
問合せ画像BおよびCについても、上述した特徴量毎の重要度を指定することにより、問合せ画像Aのような処理が実行されることになる。
【0152】
このように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することにより、検索に対するユーザの意図を確実に装置側に伝えることが可能となる。そして、検索処理によって、重要度は各種類の特徴量毎に求めた類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。なお、必ず重要度を指定しなければならないわけではなく、ユーザが希望する場合に、希望する問合せ画像の任意の特徴量に対して指定すれば良い。
【0153】
つぎに、実施の形態6に係る画像検索装置による画像検索処理について説明する。図16は、実施の形態6に係る検索処理を示すフローチャートである。ユーザは、図15に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に特徴量の種類毎の重要度を指定し、さらにAND指定ボタン205を選択してAND条件による画像検索処理を指定する(S601)。図15に示したように、ユーザは、問合せ画像A,BおよびCを指定し、各種類の特徴量毎の重要度を各問合せ画像A,BおよびC毎に指定したものとする。
【0154】
そして、ユーザが図15の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S602)。その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0155】
続いて、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S603)。
【0156】
このステップS603における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200fにおいて問合せ画像Aに対して指定された色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、検索ウインドウ200fで問合せ画像Aに対して指定された構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0157】
マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。
【0158】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの重要度をwjkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0159】
【数6】
【0160】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0161】
U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図15の画像表示欄202に表示する(S604)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0162】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0163】
このように、実施の形態6に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、問合せ画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することが可能であり、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0164】
なお、実施の形態6の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。
【0165】
〔実施の形態7〕
実施の形態7に係る画像検索装置は、実施の形態4の画像検索装置において、検索に対するユーザの意図を装置側が汲み取ることができるようにしたものである。
【0166】
前述した実施の形態5および6においては、ユーザが問合せ画像の重要度または問合せ画像毎に各特徴量の重要度を指定する必要があったが、実施の形態7に係る画像検索装置においては、画像検索に使用する特徴量を用いてユーザによって指定された問合せ画像間の類似度を求め、求めた特徴量毎の類似度に基づいて各問合せ画像間における特徴量毎の重要度を装置側で決定し、類似度に対する重み付けとして反映するという点が特徴となる。ここでは、例として、色,構造およびテクスチャの3種類の特徴量を用いて検索処理を行うものとし、検索条件を指定するための検索ウインドウは図11に示した検索ウインドウ200dと同一であるものとする。
【0167】
つぎに、実施の形態7に係る画像検索装置による画像検索処理について説明する。図17は、実施の形態7に係る検索処理を示すフローチャートである。ユーザは、図11に示した検索ウインドウ200dを表示させ、各画像指定欄に問合せ画像を複数指定すると共に、AND指定ボタン205を選択してAND条件による画像検索処理を指定する(S701)。ユーザは、問合せ画像A,BおよびCを指定したものとする。
【0168】
そして、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S702)。
【0169】
続いて、特徴抽出エンジン152は、抽出した3種類の特徴量毎に、各問合せ画像A,BおよびC同士の距離(類似度)を求め、求めた各特徴量毎の距離に基づいて各問合せ画像A,BおよびC間における特徴量毎の重要度を決定する(S703)。
【0170】
具体的に、特徴抽出エンジン152は、3種類の特徴量毎に、問合せ画像同士の特徴間距離を求める。各特徴量毎に求めた距離の分散が大きい場合にはその特徴量についてはユーザは関知していないことを意味し、分散が小さい場合にはユーザはその特徴量を重視していると判断できる。したがって、分散が大きい特徴量の場合には重要度を小さくし、分散が小さい場合には重要度を大きくするように設定する。
【0171】
例えば、σ2を特徴iにおける全ての問合せ画像間の距離の分散とするとi番目の特徴量の重要度wkは以下の式で決定することができる。kはwkが適正な値に収まるようにするための任意の係数である。
【0172】
【数7】
【0173】
なお、距離の分散の程度に応じて、前述した実施の形態3,5および6で説明したように、「+」の重要度や「−」の重要度を設定することも可能である。
【0174】
その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量および対応する重要度をマッチング・エンジン153に渡す。
【0175】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度を合計して検索対象の画像の総合類似度を求める処理を実行する(S704)。
【0176】
このステップS704における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0177】
マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。
【0178】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0179】
続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S705)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCとの特徴量間の距離の合計を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0180】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0181】
このように、実施の形態7に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎に各問合せ画像間の類似度を求め、求めた各種類の特徴量毎の類似度に基づいて各問合せ画像間における各種類の特徴量毎の重要度を決定し、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、決定した各種類の特徴量毎の重要度に応じた重み付けを行うことにより、装置側でユーザが指定した問合せ画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った検索結果を返すことが可能となる。したがって、ユーザが望む通りの検索処理を実現することができ、ユーザが望む検索結果を得ることができる。
【0182】
なお、実施の形態7の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。
【0183】
〔実施の形態8〕
実施の形態8に係る画像検索装置は、ユーザの意図を検索条件として正確に表現するための一つの手法として、OR検索を実行可能にするものである。実施の形態8に係る画像検索装置による画像検索処理は、実施の形態4で説明に用いた図11の検索ウインドウ200dにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
【0184】
図18は、実施の形態8に係る画像検索処理を示すフローチャートである。ユーザは、図11に示した各画像指定欄に問合せ画像を複数指定し、OR指定ボタン206を選択してOR条件による画像検索処理を指定する(S801)。ユーザは、図11に示すように3枚の問合せ画像A,BおよびCを指定したものとする。
【0185】
そして、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S802)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0186】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求めると共に、求めた各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S803)。
【0187】
このステップS803における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて検索対象の画像と問合せ画像Bとの距離を求めると共に、検索対象の画像と問合せ画像Cとの距離を求める。
【0188】
その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。換言すれば、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択する。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()とすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0189】
【数8】
【0190】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0191】
なお、複数種類の特徴量を用いて検索を行う場合は、各種類の特徴量毎に検索対象の画像および各問合せ画像の類似度(距離)を求め、検索対象の画像毎に、各種類の特徴量毎に求めた各問合せ画像との類似度の中から最も高い類似性を示す類似度(最も短い距離)を選択して総合類似度とすれば良い。
【0192】
続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S804)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0193】
なお、実施の形態8においては、検索対象の画像が問合せ画像A,BおよびCのいずれか一つと類似していれば、高い類似性を示す総合類似度が得られる。したがって、OR検索が実現されることになる。
【0194】
また、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0195】
このように、実施の形態8に係る画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度の中から最も高い類似性を示す類似度を選択し、選択した類似度に基づいて検索結果を出力することにより、OR検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。
【0196】
なお、実施の形態8の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。
【0197】
〔実施の形態9〕
実施の形態9に係る画像検索装置は、実施の形態8の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。実施の形態9に係る画像検索装置による画像検索処理は、実施の形態5で説明に用いた図13の検索ウインドウ200eにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
【0198】
図19は、実施の形態9に係る画像検索処理を示すフローチャートである。ユーザは、図13に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像毎に必要に応じて重要度を指定し、さらにOR指定ボタン206を選択してOR条件による画像検索処理を指定する(S901)。ユーザは、図13に示したように問合せ画像A,BおよびCを指定し、指定した各問合せ画像A,BおよびC毎に任意の重要度を指定したものとする。
【0199】
そして、ユーザが図13の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから所定の特徴量を抽出する処理を実行する(S902)。その後、特徴抽出エンジン152は、抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0200】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、所定の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S903)。
【0201】
このステップS903における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、所定の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200eで指定された問合せ画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を求め、求めた距離に対して問合せ画像Bの重要度に応じた重み付けを行うと共に、検索対象の画像と問合せ画像Cとの距離を求め、求めた距離に対して問合せ画像Cの重要度に応じた重み付けを行う。
【0202】
その後、マッチング・エンジン153は、検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。ここで、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、画像間の距離式をD()、k番目の画像の重要度をwkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0203】
【数9】
【0204】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0205】
続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図13の画像表示欄202に表示する(S904)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0206】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0207】
このように、実施の形態9に係る画像検索装置によれば、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0208】
なお、実施の形態9の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。
【0209】
〔実施の形態10〕
実施の形態10に係る画像検索装置は、実施の形態8の画像検索装置において、検索に対するユーザの意図をさらに正確に表現できるようにしたものである。実施の形態10に係る画像検索装置による画像検索処理は、実施の形態6で説明に用いた図15の検索ウインドウ200fにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
【0210】
図20は、実施の形態10に係る画像検索処理を示すフローチャートである。ユーザは、図15に示した各画像指定欄に問合せ画像を複数指定すると共に、指定した各問合せ画像に特徴量の種類毎の重要度を指定し、さらにOR指定ボタン206を選択してOR条件による画像検索処理を指定する(S1001)。ユーザは、図15に示したように問合せ画像A,BおよびCを指定し、各種類の特徴量毎の重要度を各問合せ画像A,BおよびC毎に指定したものとする。
【0211】
そして、ユーザが図15の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S1002)。その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0212】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S1003)。
【0213】
このステップS1003における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、検索ウインドウ200fにおいて問合せ画像Aに対して指定された色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、検索ウインドウ200fで問合せ画像Aに対して指定された構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0214】
マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、問合せ画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。
【0215】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。ここで、特徴量の数をN、問合せ画像の数をM、k番目の問合せ画像をQk、検索対象の画像をIi、特徴量jの画像間の距離式をDj()、k番目の画像の特徴量jの重要度をwjkとすると、検索対象の各画像毎の総合類似度Siは以下のように表わされる。
【0216】
【数10】
【0217】
マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0218】
続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図15の画像表示欄202に表示する(S1004)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0219】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0220】
このように、実施の形態10に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、問合せ画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することが可能であり、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行うことにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0221】
なお、実施の形態10の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。
【0222】
〔実施の形態11〕
実施の形態11に係る画像検索装置は、実施の形態8の画像検索装置において、検索に対するユーザの意図を装置側が汲み取ることができるようにしたものである。実施の形態11に係る画像検索装置による画像検索処理は、実施の形態8(実施の形態4)で説明に用いた図11の検索ウインドウ200dにおいて、AND指定ボタン205ではなく、OR指定ボタン206が指定された場合に実行される。
【0223】
図21は、実施の形態11に係る画像検索処理を示すフローチャートである。ユーザは、図11に示した各画像指定欄に問合せ画像を複数指定すると共に、OR指定ボタン206を選択してOR条件による画像検索処理を指定する(S1101)。ユーザは、図11に示したように問合せ画像A,BおよびCを指定したものとする。
【0224】
その後、ユーザが図11の検索ボタン201を指定すると、U/I部151は、問合せ画像A,BおよびCを特徴抽出エンジン152に入力し、特徴抽出エンジン152は、各問合せ画像A,BおよびCから色,構造およびテクスチャの3種類の特徴量を抽出する処理を実行する(S1102)。
【0225】
続いて、特徴抽出エンジン152は、抽出した3種類の特徴量毎に、各問合せ画像A,BおよびC同士の距離(類似度)を求め、求めた各特徴量毎の距離に基づいて各問合せ画像A,BおよびC間における特徴量毎の重要度を決定する(S1103)。
【0226】
具体的に、特徴抽出エンジン152は、3種類の特徴量毎に、ユーザが指定した複数の問合せ画像同士の特徴間距離を求める。各特徴量毎に求めた距離の分散が大きい場合にはその特徴量についてはユーザは関知していないことを意味し、分散が小さい場合にはユーザはその特徴量を重視していると判断できる。したがって、分散が大きい特徴量の場合には重要度を小さくし、分散が小さい場合には重要度を大きくするように設定する。例えば、各特徴量の重要度は、実施の形態7で示した数7を用いて決定することができる。
【0227】
その後、特徴抽出エンジン152は、3種類の特徴量毎に抽出した各問合せ画像の特徴量および対応する重要度をマッチング・エンジン153に渡す。
【0228】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、3種類の特徴量を用いて各問合せ画像A,BおよびCとの類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各問合せ画像A,BおよびCとの類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求める処理を実行する(S1104)。
【0229】
このステップS1104における処理を検索対象の一つの画像を例にとって具体的に説明する。マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、色の特徴量を用いて類似度を求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、検索対象の画像と問合せ画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離をそれぞれ求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0230】
マッチング・エンジン153は、同様に、検索対象の画像と問合せ画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、検索対象の画像と問合せ画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。
【0231】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた検索対象の画像と各問合せ画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする。マッチング・エンジン153は、このようにして検索対象の画像毎に総合類似度を求め、検索対象の画像毎の総合類似度をU/I部151に出力する。
【0232】
U/I部151は、マッチング・エンジン153によって検索対象の画像毎の総合類似度を参照し、例えば総合類似度の高い順に検索対象の画像を図11の画像表示欄202に表示する(S1105)。ここでは総合類似度として検索対象の画像と問合せ画像A,BおよびCのいずれか一つとの特徴量間の距離を用いているため、実際には、総合類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、総合類似度は0以上の値を持ち、総合類似度が0のときはいずれか一つの問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0233】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。
【0234】
このように、実施の形態11に係る画像検索装置によれば、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎に各問合せ画像間の類似度を求め、求めた各種類の特徴量毎の類似度に基づいて各問合せ画像間における各種類の特徴量毎の重要度を決定し、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、決定した各種類の特徴量毎の重要度に応じた重み付けを行うことにより、装置側でユーザが指定した問合せ画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った検索結果を返すことが可能となる。したがって、ユーザが望む通りの検索処理を実現することができ、ユーザが望む検索結果を得ることができる。
【0235】
なお、実施の形態11の説明において、問合せ画像として3枚の画像を用いたが、問合せ画像の枚数は3枚に限定されるものではない。また、特徴量の種類は、色,構造およびテクスチャの3種類に限定されるものではなく、いかなる種類の特徴量の組み合わせであっても良い。
【0236】
〔実施の形態12〕
実施の形態12に係る画像検索装置は、前述した実施の形態1〜11と異なる視点で画像検索を行うことを可能にするものである。なお、実施の形態12に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
【0237】
実施の形態12に係る画像検索装置は、検索時に使用する特徴量の粗さのレベル(視点の細かさ)をユーザが指定できるようにし、ユーザによって指定された粗さのレベルに対応する特徴量を利用して、問合せ画像および検索対象の画像の類似度を求めるというものである。ここで、特徴量の粗さとは、画像から抽出された特徴量が、抽出対象の画像の所定の特徴をどの程度忠実に表現しているかの度合いを示すものであると定義することにする。そこで、以下では、
1.特徴量抽出処理
2.画像検索処理
の順で実施の形態12に係る画像検索装置によって実行される処理について説明する。
【0238】
1.特徴量抽出処理
ここでは、検索対象の画像については粗さの異なる複数の特徴量を予め抽出しておくことにし、問合せ画像のうち、特徴量が抽出されていない問合せ画像については検索実行時に特徴量を抽出することにする。検索対象の画像から特徴量を抽出するタイミングは、実施の形態1で説明したように、検索対象の画像を画像DB108に登録するときとする。そこで、図3を参照しつつ各画像から特徴量を抽出する処理について説明する。
【0239】
図2の特徴抽出エンジン152は、U/I部151を介して登録対象となる画像を入力し(S11)、入力した画像から特徴量を抽出する処理を実行する(S12)。
【0240】
実施の形態12においては、例えば、少なくとも画像を何分割するかを表す分割数を特徴量の粗さのレベルとして段階的に定義した抽出基準に基づいて、特徴抽出エンジン152が画像から粗さの異なる特徴量を抽出できるようにしている。具体的に、抽出基準として例えば以下のような特徴量の粗さのレベルが定義されており、特徴抽出エンジン152は、ステップS11で入力した画像から同一の特徴(色,構造等)について異なる粗さのレベルの特徴量を抽出する。なお、抽出される特徴量は粗さが異なるのみであって、特徴量の種類(例えば、色,構造等)は同一である
【0241】
・レベル1:図22(a)に示すように、画像全体から特徴量1を抽出する。
・レベル2:図22(b)に示すように、画像を4分割して分割画像A〜Dを生成し、各分割画像A〜Dからそれぞれ特徴量A〜Dを抽出することにより、一つの画像から特徴量A〜Dからなる特徴量2(特徴量群)を抽出する。
・レベル3:図22(c)に示すように、画像を8分割して分割画像A〜Hを生成し、各分割画像A〜Hからそれぞれ特徴量A〜Hを抽出することにより、一つの画像から特徴量A〜Hからなる特徴量3(特徴量群)を抽出する。
・レベル4:図22(d)に示すように、画像を16分割して分割画像A〜Pを生成し、各分割画像A〜Pからそれぞれ特徴量A〜Pを抽出することにより、一つの画像から特徴量A〜Pからなる特徴量4(特徴量群)を抽出する。
【0242】
ここで、画像の構造(エッジ)および色(色ヒストグラム)を特徴量として抽出する処理を例にとって、画像からレベル1〜4の特徴量を抽出する処理を具体的に説明する。
【0243】
(1)構造
▲1▼ レベル1
例えばsobelのようなエッジ抽出フィルタを用いて、ステップS11で入力した画像からエッジ情報を抽出する。抽出したエッジ情報から、エッジの位置,エッジの強度および方向を得ることができる。エッジの強度については適当な閾値で2値化し、上下左右斜め方向のエッジ成分のエッジ画像データを得る。一例として、図23に示す画像から得た上下左右斜め方向のエッジ成分のエッジ画像データを図24(a)〜図24(d)に示す。
【0244】
図24(a)〜図24(d)のエッジ画像データについて、エッジ部分を黒画素、その他を白画素と仮定し、
・画像全体に対する黒画素の割合
・黒画素の重心
・黒画素の分散
・黒画素の連結矩形のサイズの平均
・黒画素の連結矩形のサイズの分散
というようなエッジ情報を各エッジ画像データから抽出し、これを画像全体の構造の特徴量1とする。
【0245】
▲2▼ レベル2
図24(a)〜図24(d)のエッジ画像データをそれぞれ図22(b)に示すように分割画像A〜Dに分割し(4分割)、各分割画像A〜Dから▲1▼で説明したエッジ情報を抽出して分割画像単位の構造の特徴量A〜Dを得る。その結果、特徴量A〜Dからなる特徴量2を画像から抽出することができる。
【0246】
▲3▼ レベル3および4
また、レベル3については図24(a)〜図24(d)のエッジ画像データをそれぞれ図22(c)に示したように分割画像A〜Hに分割し(8分割)、レベル4については図22(d)に示したように分割画像A〜Pに分割し(16分割)、レベル2の場合と同様の方法でそれぞれ特徴量A〜Hからなる特徴量3および特徴量A〜Pからなる特徴量4を画像から抽出することができる。
【0247】
(2)色
つぎに、画像の色(色ヒストグラム)を特徴量として抽出する処理を説明する。
【0248】
▲1▼ レベル1
適当な色空間(例えばLab,Luv,HSV等)を選択して複数の領域に分割し、ステップS11で入力した画像の各ピクセルが色空間中のどの領域に対応するかを調べ、領域毎のピクセル数を画像全体のピクセル数で正規化することによって図22(a)に示した画像全体を対象とした特徴量1を抽出する。
【0249】
▲2▼ レベル2
適当な色空間(例えばLab,Luv,HSV等)を選択して複数の領域に分割すると共に、ステップS11で入力した画像を図22(b)に示したように分割画像A〜Dに分割する(4分割)。そして、分割画像Aの各ピクセルが色空間中のどの領域に対応するかを調べ、領域毎のピクセル数を分割画像A全体のピクセル数で正規化することによって特徴量Aを抽出することができる。他の分割画像B〜Dについても同様な処理を行ってそれぞれ特徴量B〜Dを抽出し、特徴量A〜Dからなる特徴量2をステップS11で入力した画像から抽出する。
【0250】
▲3▼ レベル3およびレベル4
レベル3についてはステップS11で入力した画像を図22(c)に示したように分割画像A〜Hに分割し(8分割)、レベル4については図22(d)に示したように分割画像A〜Pに分割し(16分割)、レベル2の場合と同様の方法でそれぞれ特徴量A〜Hからなる特徴量3および特徴量A〜Pからなる特徴量4を画像から抽出する。
【0251】
このように、分割数を変化させて同一の画像から特徴量を抽出することにより、例えば、ある画像は全体的には青であるが、詳細に見ると青と少しの赤が混じっているといったような、視点の細かさに依存した特徴量を抽出することができる。例えば、青を中心とする画像中のいずれの位置に赤が分散しているかという情報を含む特徴量を抽出することができる。
【0252】
このようにして、ステップS11で入力した画像から各レベルの特徴量を抽出した後、図3のフローチャートに示すように、特徴抽出エンジン152は、画像DB108に登録する元の画像に関連付けて、抽出した特徴量を画像特徴DB109に登録する(S13)。
【0253】
なお、ここでは、画像の構造および色の特徴を特徴量として抽出することを例にとって説明したが、他の種類の特徴を特徴量として抽出することにしても良い。また、例えば画像を4分割するといった場合であっても、図22(b)に示した分割方法以外にも様々な方法が考えられる(例えば、画像を縦長または横長に4分割する等)。したがって、分割方法は任意に設定することが可能である。
【0254】
2.画像検索処理
図25は、実施の形態12に係る画像検索装置で使用される検索ウインドウ200gの一例を示す説明図である。検索ウインドウ200gは、画像指定欄A〜C,検索ボタン201および画像表示欄202に加え、検索に使用する特徴量の種類を指定する特徴指定欄209と、特徴指定欄209で指定された種類の特徴量のうち、いずれのレベル(粗さ)の特徴量を用いるかを指定する粗さレベル指定欄210と、を備えている。特徴指定欄209では、例えば構造の特徴量および色の特徴量のいずれか一方または両方を指定することができ、粗さレベル指定欄210では、例えばレベル1〜4の少なくとも一つを指定することができるものとする。粗さレベル指定欄210で指定可能なレベルは、前述した特徴量の抽出基準の各レベルに対応している。
【0255】
なお、特徴指定欄209において、いずれの特徴量も指定されなかった場合には、構造および色の両方の特徴量を用いて検索処理が行われるものとし、粗さレベル指定欄210においていずれのレベルも指定されなかった場合には、全てのレベルの特徴量を用いて検索処理が行われるものとする。また、使用可能な種類の特徴量を全て指定できるようにするため、特徴指定欄209に「全て」というボタンを用意することにしても良い。同様に、レベルを全て指定できるようにするため、粗さレベル指定欄210に「全て」というボタンを用意することにしても良い。
【0256】
続いて、実施の形態12に係る画像検索処理について説明する。なお、ここでは、検索ウインドウ200gにおける検索条件の指定の仕方に応じて異なる処理が行われることになることから、最初に図26のフローチャートを参照しつつ画像検索処理の概略を説明した後、異なる検索条件毎に場合分けして個別に説明することにする。
【0257】
(1)画像検索処理の概略
まず、実施の形態12に係る画像検索処理の概略を説明する。ユーザは、図25に示した画像指定欄に問合せ画像を少なくとも一つ指定すると共に、特徴指定欄209および粗さレベル指定欄210において、検索時に使用する特徴量の種類および使用する特徴量の粗さのレベルを指定する(S1201)。
【0258】
続いて、ユーザが図25の検索ボタン201を指定すると、U/I部151は、問合せ画像,特徴量の種類および粗さのレベルの種類を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、指定された特徴量の種類および粗さのレベルに応じて問合せ画像から特徴量を抽出する(S1202)。ただし、ユーザによって指定された問合せ画像から既に特徴量が抽出されている場合には、このステップS1202の処理をスキップすることができる。また、検索対象の画像について特徴量を抽出していない場合は、この時点で特徴量を抽出することにしても良い。その後、特徴抽出エンジン152は、抽出した問合せ画像の特徴量をマッチング・エンジン153に渡す(図4の特徴空間にそれぞれマップする)。
【0259】
マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、検索ウインドウ200gにおいて指定されたレベルの特徴量を用いて問合せ画像との類似度を求める処理を実行する(S1203)。すなわち、マッチング・エンジン153は、該当するレベルの特徴量に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像との距離を各特徴毎に定義された距離定義式を用いて求める。
【0260】
特徴量Fは通常、ベクトルとしてF={f1,f2,f3,・・・,fn}であらわされ、画像a、bから抽出した特徴量をそれぞれFa、Fbとすると、以下の数11で示す差分距離式D(Fa,Fb)が一般に距離定義式として用いられる。
【0261】
【数11】
【0262】
「構造」、「色」の特徴量の場合にもこの距離式が利用できるが、「構造」での「画像全体に対する黒画素の割合」をヒストグラムとして特徴量とした場合には、画像中のエッジが十分にある場合には適切な類似度を得ることが可能であるが、画像中のエッジが少ない場合には適切な類似度を得られない。
【0263】
人間のエッジに対する類似感覚では、たとえば画像中にエッジがない画像と少しでもある画像の場合には大きな違いを感じるが、画像が十分にエッジを持っている場合には、その量が多少異なっていてもその違いには鈍感である。そこで、差分距離式よりも距離の精度を高めるためにヒストグラムを全エッジ画素数で正規化する(正規化距離式)ことによって、この問題を解決することが可能である。
【0264】
つまり、ヒストグラムの要素は以下の式で与えられる。
foi=fi/N
なお、foiは正規化されたヒストグラムの要素である。また、全画素数Nは、数12の式で与えられる。
【0265】
【数12】
【0266】
なお、ベクトル要素がすべて0でS=0の時は正規化はおこなわない。つまり、正規化距離式は数13の式で与えられる。
【0267】
【数13】
【0268】
画像中のエッジが少ない場合には上記式が有効であるが、多い場合には従来のヒストグラムの方が適切な類似度を得ることができる。そこで、エッジが多い場合には従来式に近い計算式になり、少ない場合には上記式に近い計算式になるような数14の式を考案した。
【0269】
【数14】
【0270】
なお、正規化のための値を全画素数により以下の数15のように変動させる。
【0271】
【数15】
kは定数であり、対象とする画像集合によって適宜指定する。
【0272】
以上のような計算を検索時に行うだけでなく、予め特徴量の抽出時に正規化や半正規化で得られるベクトルに変換してデータベースに登録することで、検索時には単純な差分式を用いて距離を求めることができ、高速な検索をおこなうことも可能である。
【0273】
上記半正規化式により画像中のエッジの多い少ないに関わらず適切な類似度を算出することができるが、検索時に計算する場合には式が複雑な分、時間がかかるという問題がある。そこで、エッジ数および要求される検索速度に従い従来の差分距離式と正規化距離式を選択し算出する。
【0274】
たとえば、以下のように場合分けが可能である。
1)両方の画像のエッジ割合がある閾値A以上の場合
差分距離式を選択
2)どちらか一方が閾値Aより下の場合
a)高速性が要求される場合
差分距離式を選択
b)高速性が要求されない場合
正規化距離式を利用
【0275】
ただし、この方式では場合分けにより、異なる式を選択するので結果として得られる距離空間は距離の公理を満たさない。距離の公理を満たす必要がある場合には半正規化式が望ましい。
【0276】
続いて、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。ただし、ここでは類似度として検索対象の画像と問合せ画像との特徴量間の距離を用いているため、実際には、類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、類似度は0以上の値を持ち、類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0277】
(2)画像検索処理の具体例
つぎに、前述した図26のフローチャートに対応させつつ、
▲1▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル1」が指定された場合
▲2▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル2」が指定された場合
▲3▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして二つ以上のレベルが指定された場合
▲4▼ 複数種類の特徴量が指定された場合
▲5▼ 複数の問合せ画像が指定された場合
の順で具体的に実施の形態12に係る画像検索処理を説明する。
【0278】
▲1▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル1」が指定された場合
図25に示した検索ウインドウ200gにおいて、ユーザが、一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル1」を指定したものとする(S1201)。
【0279】
特徴抽出エンジン152は、図22(a)に示すように、問合せ画像全体を対象として、特徴量「色」について「レベル1」に該当する特徴量である「特徴量1」を抽出する(S1202)。
【0280】
そして、マッチング・エンジン153は、特徴抽出エンジン152において抽出された問合せ画像および検索対象の画像の特徴量1に基づいて、検索対象の画像毎に問合せ画像との類似度を求める(S1203)。具体的には、該当する特徴量1に基づいて図4に示した特徴量空間中にプロットされた検索対象の画像と問合せ画像との距離を各特徴毎に定義された距離定義式を用いて求める。
【0281】
その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。
【0282】
このように、レベル1のような粗さの特徴量を選択して画像検索処理を実行することができるようにすることにより、例えば、色の特徴量を用いて検索を
場合にあっては、全体的に青い画像を検索するというような検索処理を実行することが可能となる。
【0283】
なお、詳細な説明については省略するが、特徴量として「構造」や他の種類の特徴量が指定された場合であっても、同様な処理で検索処理を行うことができる。
【0284】
▲2▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル2」が指定された場合
図25に示した検索ウインドウ200gにおいて、ユーザが、一つの問合せ画像,特徴量として「色」および粗さレベルとして「レベル2」を指定したものとする(S1201)。
【0285】
特徴抽出エンジン152は、図22(b)に示すように、問合せ画像を分割画像A〜Dに分割し、各分割画像A〜Dからそれぞれ「色」の特徴量A〜Dを抽出する(S1202)。その結果、特徴量「色」について「レベル2」に該当する特徴量であって、特徴量A〜Dからなる「特徴量2」が問合せ画像から抽出されることになる。
【0286】
そして、マッチング・エンジン153は、特徴抽出エンジン152において抽出された問合せ画像および検索対象の画像の特徴量2に基づいて、検索対象の画像毎に問合せ画像との類似度を求める(S1203)。具体的には、検索対象の画像および問合せ画像の分割画像A同士,分割画像B同士,分割画像C同士および分割画像D同士の類似度を求める。より詳細には、特徴抽出エンジン152において抽出された特徴量2に基づいて、図4に示した特徴量空間中にプロットされた分割画像A同士,分割画像B同士,分割画像C同士および分割画像D同士の距離を各特徴毎に定義された距離定義式を用いて求める。ここでは分割画像A〜Dのそれぞれについて類似度を求めることになるため、4つの類似度を得ることになる。
【0287】
続いて、マッチング・エンジン153は、求めた4つの類似度を用いて、検索対象の画像および問合せ画像の類似度を決定する。類似度の決定方法としては、例えば以下のような方法が考えられる。
▲2▼−1 4つの類似度の二乗和により検索対象の画像および問合せ画像の類似度を決定する。
▲2▼−2 4つの類似度を合計することにより、検索対象の画像および問合せ画像の類似度を決定する(AND検索参照)。
▲2▼−3 4つの類似度の中から最も高い(値の小さい)類似度を選択することにより、検索対象の画像および問合せ画像の類似度を決定する(OR検索参照)。
なお、▲2▼−1〜▲2▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。
【0288】
その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。
【0289】
このように、レベル2のような粗さの特徴量を選択して画像検索処理を実行することができるようにすることにより、例えば、色の特徴量を用いて検索を行う場合にあっては、全体的に青いがある部分には赤が混じっている画像を検索するというような検索処理を実行することが可能となる。すなわち、どの色が画像のどの位置に存在するかを踏まえた検索処理が可能となり、画像全体を対象として抽出した特徴量(レベル1)を用いた検索では行うことができない細かい視点で検索処理を行うことができる。
【0290】
なお、詳細な説明については省略するが、特徴量として「構造」や他の種類の特徴量が指定された場合にあっても、同様な処理で検索処理を行うことができる。また、粗さレベルのレベル3および4が指定された場合であっても、前述したレベル2の処理と同様な処理で検索処理を行うことが可能であるため、ここでは説明を省略する。
【0291】
▲3▼ 一つの問合せ画像,特徴量として「色」および粗さレベルとして二つ以上のレベルが指定された場合
ここでは、粗さレベルとして二つ以上のレベルが指定された場合の一例として、粗さレベルが全て指定された場合に基づいて画像検索処理を説明する。そこで、図25に示した検索ウインドウ200gにおいて、ユーザが、一つの問合せ画像,特徴量として「色」および全ての粗さレベルを指定したものとする(S1201)。前述したように、粗さレベル指定欄210においていずれのレベルも指定しない場合または全てのレベルを指定した場合に、粗さレベルを全て指定したことになる。
【0292】
特徴抽出エンジン152は、図22(a)〜図22(d)に示すように、検索ウインドウ200gにおいて指定された問合せ画像から、レベル1〜4に応じて特徴量1〜4を抽出する(S1202)。なお、レベル1に対応する特徴量1は▲1▼の項で説明した方法で、レベル2〜4に対応する特徴量2〜4は▲2▼の項で説明した方法で抽出することができる。
【0293】
そして、マッチング・エンジン153は、特徴抽出エンジン152において抽出された問合せ画像および検索対象の画像の特徴量1〜4を用いて、検索対象の画像毎に問合せ画像との類似度を求める(S1203)。ここでは、各特徴量(レベル)毎に検索対象の画像および問合せ画像の類似度を求めることになり、その結果、検索対象の画像毎に問合せ画像に対する4つの類似度が得られることになる。なお、特徴量1(レベル1)を用いて検索対象の画像および問合せ画像の類似度を求める処理は、▲1▼の項で説明した処理と同様である。また、特徴量2〜4(レベル2〜4)を用いて検索対象の画像および問合せ画像の類似度を求める処理は、それぞれ▲2▼の項で説明した処理と同様である。
【0294】
続いて、マッチング・エンジン153は、検索対象の画像毎に各レベルに応じて求めた問合せ画像との4つの類似度を用いて、問合せ画像との最終的な類似度を決定する。最終的な類似度の決定方法としては、例えば以下のような方法が考えられる。
▲3▼−1 4つの類似度の二乗和により、問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲3▼−2 4つの類似度を合計することにより、問合せ画像との最終的な類似度を決定する(AND検索を参照)。
▲3▼−3 4つの類似度の中から最も高い(値の小さい)類似度を選択することにより、問合せ画像との最終的な類似度を決定する(OR検索を参照)。
【0295】
▲3▼−1および▲3▼−2の方法で問合せ画像との最終的な類似度を決定することにする場合にあっては、例えば、全体的に青く、かつ、ある部分に赤が混じっている画像を検索するというような検索処理(AND検索)を実行することが可能となる。すなわち、全ての(二つ以上の)粗さのレベルの特徴量を用いるため、特定のレベルの特徴量のみを用いて検索を行う場合に比べて、高い精度で希望する画像を検索することができる。また、▲3▼−3の方法で問合せ画像との最終的な類似度を決定することにする場合にあっては、例えば、全体的に青い画像および全体的に青くある部分に赤が混じっている画像のいずれかを検索するというような検索処理(OR検索)を実行することが可能となる。
【0296】
なお、▲3▼−1〜▲3▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。
【0297】
その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との類似度を参照し、例えば類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。
【0298】
このように、粗さの異なる特徴量を複数選択して画像検索処理を実行することができるようにすることにより、特定の粗さの特徴量を一つ用いる場合に比べて、検索に対する視点が異なる様々な方法で検索処理を実行することが可能となる。なお、詳細な説明については省略するが、特徴量として「構造」や他の種類の特徴量が指定された場合にあっても、同様な処理で検索処理を行うことができる。
【0299】
▲4▼ 複数種類の特徴量が指定された場合
特徴指定欄209において複数種類の特徴量が指定された場合、特徴抽出エンジン152は、検索ウインドウ200gで指定された種類およびレベルの特徴量を問合せ画像からそれぞれ抽出する(S1202)。例えば、構造および色の特徴量が指定された場合、特徴抽出エンジン152は、問合せ画像から、構造の特徴量について該当する粗さレベルの特徴量を抽出すると共に、色の特徴量について該当するレベルの特徴量を抽出する(図22参照)。
【0300】
そして、マッチング・エンジン153は、検索対象の画像毎に、問合せ画像との類似度を特徴量の種類毎に求め、求めた特徴量の種類毎の類似度を用いて、問合せ画像との最終的な類似度を決定する(S1203)。
【0301】
最終的な類似度の決定方法としては、例えば以下のような方法が考えられる。
▲4▼−1 特徴量の種類毎に求めた類似度の二乗和により、問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲4▼−2 特徴量の種類毎に求めた類似度を合計することにより、問合せ画像との最終的な類似度を決定する(AND検索を参照)。この方法を用いる場合は、複数種類の特徴量に応じたAND検索を実行することが可能となる。
▲4▼−3 特徴量の種類毎に求めた類似度の中から最も高い(値の小さい)類似度を選択することにより、問合せ画像との最終的な類似度を決定する(OR検索を参照)。この方法を用いる場合は、複数種類の特徴量に応じたOR検索を実行することが可能となる。
なお、▲4▼−1〜▲4▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。
【0302】
また、例えば、問合せ画像が一つ、構造および色の特徴量ならびに粗さレベル1および2が指定された場合には、検索対象の画像毎に、レベル1の構造の特徴量を用いて得た類似度,レベル2の構造の特徴量を用いて得た類似度,レベル1の色の特徴量を用いて得た類似度およびレベル2の色の特徴量を用いて得た類似度が得られることになる。このような場合、得られた全ての類似度を合計して問合せ画像との最終的な類似度を決定することにしても良いし(▲4▼−2(▲4▼−1)の方法を参照)、得られた類似度の中から最も高い(値の小さい)類似度を選択して問合せ画像との最終的な類似度を決定することにしても良い(▲4▼−3の方法を参照)。また、これに代えて、特徴量の種類毎に各レベルの類似度を合計し、または各レベルの類似度の中から最も高い(値の小さい)類似度を選択して、特徴量の種類毎の問合せ画像に対する類似度を求めた後、前述した▲4▼−1〜▲4▼−3のいずれかの方法を用いて問合せ画像との最終的な類似度を決定することにしても良い。
【0303】
その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。
【0304】
▲5▼ 複数の問合せ画像が指定された場合
複数の問合せ画像が指定された場合、特徴抽出エンジン152は、検索ウインドウ200gで指定された種類およびレベルの特徴量を各問合せ画像からそれぞれ抽出する(S1202)。そして、マッチング・エンジン153は、▲1▼〜▲4▼のいずれかの項で説明したようにして検索対象の画像毎に各問合せ画像との類似度を求めた後、検索対象の画像の総合類似度を求める(S1203)。
【0305】
総合類似度を求める方法としては、例えば以下のような方法がある。
▲5▼−1 各検索対象の画像毎に、各問合せ画像との類似度の二乗和を総合類似度とする(AND検索の変形)。
▲5▼−2 各検索対象の画像毎に、各問合せ画像との類似度を合計して総合類似度とする(AND検索を参照)。この方法を用いる場合は、AND検索を実行することが可能となる。
▲5▼−3 各検索対象の画像毎に、各問合せ画像との類似度の中から最も高い(値の小さい)類似度を選択して総合類似度とする(OR検索を参照)。この方法を用いる場合は、OR検索を実行することが可能となる。
【0306】
なお、▲5▼−1〜▲5▼−3のいずれの方法を利用するかを検索ウインドウ200gで指定することができるようにしても良い。
場合
【0307】
その後、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた総合類似度を参照し、例えば総合類似度の高い(値の小さい)順に検索対象の画像を図25の画像表示欄202に表示する(S1204)。
【0308】
以上説明したように、実施の形態12に係る画像検索装置によれば、問合せ画像を少なくとも一つ指定すると共に、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定し、抽出基準に基づいて、問合せ画像および複数の検索対象の画像から少なくとも指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出し、検索対象の画像毎に、指定された粗さのレベルに応じた特徴量を用いて問合せ画像との類似度を求め、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索精度の異なる複数種類の検索処理を実行することが可能となる。すなわち、ユーザが検索に使用する特徴量の粗さのレベルを少なくとも一つ指定することができるため、検索に対するユーザの視点の細かさを検索条件として表現でき、ユーザの意図を検索条件として正確に表現することができる。したがって、ユーザが望む通りの画像検索処理を行うことが可能となる。
【0309】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、特徴量の種類を構造および色としたが、構造のみ、または色のみを用いることにしても良いし、他の種類の特徴量を用いることにしても良い。また、複数の問合せ画像や複数種類の特徴量を指定する場合に、他の実施の形態で説明したように重要度を指定することができるようにしても良い。
【0310】
また、実施の形態12においては、画像を何分割するかによって特徴量の粗さを定義することにしたが、画像のみではなく、画像中に存在するオブジェクトも特徴量の抽出対象とし、オブジェクトを何分割するかによってオブジェクト単位の特徴量の粗さを定義することにしても良い。画像中に存在するオブジェクトも特徴量の抽出対象とする場合の検索処理は、前述した検索処理と同様であるため、ここでは詳細な説明を省略する。
【0311】
さらに、前述したように、画像を分割して得た分割画像毎に特徴量を抽出することを利用して、以下のような画像検索処理を実現することも可能である。ここでは、説明の便宜上、画像を4分割する場合を例として、実施の形態12に係る画像検索装置の変形例を説明する。
【0312】
(変形例1)
前述した実施の形態12においては、問合せ画像および検索対象の画像の分割画像をそれぞれ一対一対応で比較して類似度を求めることにより、問合せ画像および検索対象の画像の類似度を求めていた。これに対し、変形例1は、例えば、図27に示すように問合せ画像の分割画像の一つを指定し、指定した分割画像と検索対象の画像の各分割画像との類似度を求めることにより、検索対象の画像の中から、問合せ画像の特定の分割画像と類似する分割画像を有する画像を探し出すことができるようにするものである。
【0313】
(変形例2)
変形例2は、例えば、図28に示すように、問合せ画像全体と検索対象の画像の各分割画像との類似度を求めることにより、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができるようにするものである。
【0314】
詳細な説明については省略するが、このような変形例1および変形例2のような検索処理を可能とすることにより、様々な方法で画像の検索を行うことが可能となる。
【0315】
〔実施の形態13〕
実施の形態13に係る画像検索装置は、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができるようにすることにより、前述した実施の形態1〜12と異なる視点で画像検索を行うことを可能にするものである。なお、実施の形態13に係る画像検索装置において、実施の形態1で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像検索処理についても共通する点については適宜説明を省略する。
【0316】
具体的に、実施の形態13に係る画像検索装置は、問合せ画像を少なくとも一つ指定し、検索対象の画像毎に、検索対象の画像中の所定のサイズの領域と問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理を検索対象の画像全体にわたって繰り返し実行することにより、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができるようにするものである。
【0317】
実施の形態13に係る画像検索装置において、検索対象の画像中の所定のサイズの領域と問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理については様々な手法を用いることが可能であるが、ここでは図29および図30に示すような手法を用いることにする。例えば、図29に示すように、問合せ画像を4分割して分割画像a〜dを生成し、各分割画像から所定の種類の特徴量を抽出し、また、検索対象の画像を16分割して分割画像A〜Pを生成し、各分割画像から問合せ画像の場合と同様の種類の特徴量を抽出する。ただし、問合せ画像および検索対象の画像の分割数を、それぞれ8および16に限定するものではなく、問合せ画像の分割数<検索対象の画像の分割数という関係にあれば良い。そして、各分割画像から抽出した特徴量を用いて、図30(a)〜図30(i)に示すように、問合せ画像と検索対象の画像の一部との類似度を順次求める。図30は、それぞれ図29に示した検索対象の画像を示し、検索対象の画像中の斜線部分は問合せ画像と比較されている領域に該当する。なお、問合せ画像および検索対象の画像の分割数を逆にすれば(例えば、問合せ画像を16分割し、検索対象の画像を8分割する。すなわち、問合せ画像の分割数>検索対象の画像の分割数)、問合せ画像中に含まれている画像を検索することが可能となる。
【0318】
以下、実施の形態13に係る画像検索装置による画像検索処理について具体的に説明する。なお、前提として、少なくとも検索対象の画像については、図29に示したように各分割画像からそれぞれ特徴量が抽出されているものとする。特徴量を抽出する具体的な処理については、実施の形態12で説明した通りであるため、ここでは詳細な説明を省略する。また、抽出する特徴量の種類は、色,構造等いかなるものであっても良い。
【0319】
図31は、実施の形態13に係る画像検索処理のフローチャートであり、図32は、検索ウインドウ200hの一例を示す説明図である。ユーザは、図32に示す画像指定欄A〜Cのいずれかに問合せ画像を少なくとも一つ指定する(S1301)。ここでは、説明を単純にするために、問合せ画像が一つ指定されたものとする。
【0320】
続いて、ユーザが図32の検索ボタン201を指定すると、U/I部151は、問合せ画像を特徴抽出エンジン152に入力し、特徴抽出エンジン152は、問合せ画像から所定の種類の特徴量を抽出する(S1302)。特徴抽出エンジン152は、図29に示したように、問合せ画像を分割して分割画像a〜dを生成し、各分割画像から所定の種類の特徴量を抽出する。ただし、ユーザによって指定された問合せ画像から既に特徴量が抽出されている場合には、このステップS1302の処理をスキップすることができる。
【0321】
そして、マッチング・エンジン153は、画像DB108に登録されている検索対象の画像毎に、特徴抽出エンジン152で抽出した特徴量を用い、検索対象の画像中の所定の領域と問合せ画像との類似度を求める処理を検索対象の画像の全体にわたって実行し、問合せ画像との類似度を求める(S1303)。
【0322】
このステップS1303において実行される処理の一例について、図30を参照しつつ詳細に説明する。例えば、図30(a)に着目して説明すると、マッチング・エンジン153は、特徴抽出エンジン152で予め抽出した問合せ画像および検索対象の画像の各分割画像の特徴量を用いて、
・問合せ画像の分割画像aと検索対象の画像の分割画像Aとの類似度
・問合せ画像の分割画像bと検索対象の画像の分割画像Bとの類似度
・問合せ画像の分割画像cと検索対象の画像の分割画像Eとの類似度
・問合せ画像の分割画像dと検索対象の画像の分割画像Fとの類似度
をそれぞれ求める。換言すれば、図4に示した特徴量空間中にプロットされた分割画像同士の距離を各特徴毎に定義された距離定義式を用いて求める。ここでは4つの分割画像毎に類似度を求めるため、4つの類似度が得られることになる。
【0323】
続いて、マッチング・エンジン153は、求めた4つの類似度を用いて、図30(a)に示した検索対象の画像の領域と問合せ画像との類似度を決定する。類似度の決定方法としては、例えば以下のような方法が考えられる。
▲1▼−1 4つの類似度の二乗和により検索対象の画像の領域と問合せ画像との類似度を決定する。
▲1▼−2 4つの類似度を合計することにより、検索対象の画像の領域と問合せ画像との類似度を決定する(AND検索を参照)。
▲1▼−3 4つの類似度の中から最も高い(値の小さい)類似度を選択することにより、検索対象の画像の領域と問合せ画像との類似度を決定する(OR検索を参照)。
なお、▲1▼−1〜▲1▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
【0324】
マッチング・エンジン153は、図30(b)〜図30(i)に示す場合についても前述した処理を実行し、検索対象の画像の各領域と問合せ画像との類似度を決定する。
【0325】
図30(a)〜図30(i)のように、検索対象の画像の各領域と問合せ画像との類似度を求めた結果、検索対象の画像毎に、問合せ画像との9つの類似度が得られることになる。そこで、マッチング・エンジン153は、検索対象の画像毎に、9つの類似度を用いて問合せ画像との最終的な類似度を決定する処理を実行する。最終的な類似度の決定方法としては、例えば以下のような方法が考えられる。
【0326】
▲2▼−1 9つの類似度の二乗和により、検索対象の画像と問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲2▼−2 9つの類似度を合計することにより、検索対象の画像と問合せ画像との最終的な類似度を決定する(AND検索を参照)。
▲2▼−3 9つの類似度の中から最も高い(値の小さい)類似度を選択することにより、検索対象の画像と問合せ画像との最終的な類似度を決定する(OR検索を参照)。
なお、▲2▼−1〜▲2▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
【0327】
図31のフローチャートの説明に戻り、U/I部151は、マッチング・エンジン153によって検索対象の画像毎に求められた問合せ画像との最終的な類似度を参照し、例えば類似度の高い順に検索対象の画像を図32の画像表示欄202に表示する(S1304)。ここでは類似度として検索対象の画像と問合せ画像との特徴量間の距離を用いているため、実際には、類似度の値の小さい順に検索対象の画像が画像表示欄202に表示されることになる。すなわち、類似度は0以上の値を持ち、類似度が0のときは各問合せ画像の特徴量および検索対象の画像の特徴量が等しいということを意味する。
【0328】
なお、以上の説明は、指定された問合せ画像が一つで検索に用いられる特徴量の種類も一種類であったが、複数種類の特徴量を用いることもできるし、問合せ画像を複数指定することもできる。
【0329】
そこで、複数種類の特徴量を用いる場合の処理の一例を簡単に説明する。マッチング・エンジン153は、前述したように、同一種類の特徴量毎に検索対象の画像と問合せ画像との類似度を求める。そして、マッチング・エンジン153は、例えば以下のような方法で異なる種類の特徴量毎に求めた類似度を用いて、検索対象の画像毎に、問合せ画像との類似度を決定することができる。
【0330】
▲3▼−1 特徴量の種類毎に求めた類似度の二乗和により、問合せ画像との最終的な類似度を決定する(AND検索の変形)。
▲3▼−2 特徴量の種類毎に求めた類似度を合計することにより、問合せ画像との最終的な類似度を決定する。この方法を用いる場合は、複数種類の特徴量に応じたAND検索を実行することが可能となる。
▲3▼−3 特徴量の種類毎に求めた類似度の中から最も高い(値の小さい)類似度を選択することにより、問合せ画像との最終的な類似度を決定する。この方法を用いる場合は、複数種類の特徴量に応じたOR検索を実行することが可能となる。
なお、▲3▼−1〜▲3▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
【0331】
また、複数の問合せ画像が指定された場合の処理の一例を簡単に説明する。マッチング・エンジン153は、前述したように、検索対象の画像と各問合せ画像との類似度を求める。そして、マッチング・エンジン153は、例えば以下のような方法を用いて、検索対象の画像毎に、各問合せ画像に対する検索対象の画像の類似度を決定することができる。
【0332】
▲4▼−1 各検索対象の画像毎に、各問合せ画像との類似度の二乗和を検索対象の画像の総合類似度とする(AND検索の変形)。この方法を用いると、問合せ画像としての複数の画像を含む画像を検索することが可能となる。
▲4▼−2 各検索対象の画像毎に、各問合せ画像との類似度を合計して検索対象の画像の総合類似度とする。この方法を用いる場合は、複数の問合せ画像を用いたAND検索を実行することが可能となる。すなわち、問合せ画像としての複数の画像を含む画像を検索することが可能となる。
▲4▼−3 各検索対象の画像毎に、各問合せ画像との類似度の中から最も高い(値の小さい)類似度を選択して検索対象の画像の総合類似度とする。この方法を用いる場合は、複数の問合せ画像を用いたOR検索を実行することが可能となる。すなわち、問合せ画像としての複数の画像のいずれかを含む画像を検索することができる。
なお、▲4▼−1〜▲4▼−3のいずれの方法を利用するかを検索ウインドウ200hで指定することができるようにしても良い。
【0333】
以上説明したように、実施の形態13に係る画像検索装置によれば、問合せ画像を少なくとも一つ指定し、検索対象の画像毎に、検索対象の画像中の所定のサイズの領域と指定された問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理を検索対象の画像全体にわたって繰り返し実行し、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができる。したがって、ユーザの意図するような画像検索を実現する一つの手法を提供することができる。
【0334】
なお、画像表示欄202に表示された検索結果の画像を参照した結果、絞込み検索を行いたい場合には、画像表示欄202に表示された画像を問合せ画像として指定して同様の検索処理を行うこともできる。また、複数の問合せ画像や複数種類の特徴量を指定する場合に、他の実施の形態で説明したように重要度を指定することができるようにしても良い。
【0335】
〔実施の形態14〕
続いて、本発明に係る画像分類装置について説明する。この画像分類装置は、前述した画像検索装置と同様に、画像間の類似度を用いて画像を分類するものである。画像を予め分類しておくことで、分類を辿るだけでユーザが所望する画像を探し出すことができる。こうすることで画像検索とは異なる方法で容易にユーザの所望する画像を探すことが可能となる。
【0336】
本発明の実施の形態14に係る画像分類装置は、実施の形態1で説明した画像検索処理を応用して画像を分類するものである。したがって、実施の形態1で説明した点と共通する点については適宜説明を省略することにする。
【0337】
図33は、実施の形態14に係る画像分類装置のブロック構成図である。図33において、図1に示した画像検索装置と同一の構成については同一の符号を付し、ここでは異なる点についてのみ説明する。図33に示す画像分類装置は、図1に示した画像検索装置と異なる点として、本発明の画像分類装置としての機能をCPU101(コンピュータ100)に実行させるための画像分類ソフト301と、分類項目(後述するフォルダ),分類対象の画像を各分類項目に分類するための分類条件,分類した結果の画像情報等が登録される分類木DB302と、を備えている。
【0338】
図34は、図33に示した画像分類装置において実行される処理を示すブロック図であり、図2に対応するものである。ユーザ・インターフェイス(U/I)部151(本発明の設定手段,指定手段および表示手段に該当する)は、ユーザに対して画像分類を行うための分類項目設定画面,分類結果表示画面等を表示して、分類条件の入力,分類結果の出力処理等を実行する。特徴抽出エンジン152は、画像DB108に登録する画像(分類対象の画像)および後述する分類基準として設定される画像から画像の特徴量を抽出する処理を実行する。さらに、マッチング・エンジン153(本発明の演算手段,決定手段,分類手段および検索手段に該当する)は、基準画像と分類対象の画像との類似度を求め、求めた類似度に基づいて分類対象の画像の分類先となる分類項目を決定する処理(例えば、分類木DB302に登録された分類項目に画像のIDを登録して分類する)を実行する。
【0339】
つぎに、前述した構成を有する画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。ここでは画像DB108に登録された複数の画像を分類対象の画像とする。また、画像を分類する際に用いる特徴量は画像の色,構造およびテクスチャであり、画像DB108中の分類対象の画像からは、図3を用いて実施の形態1で説明した処理によって既に各種類の特徴量が抽出されているものとする。
【0340】
(1)分類項目設定処理
図35は、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウ350aの一例を示す説明図である。図34のU/I部151は、ユーザによって画像分類ウインドウ350aの表示が指定されると、図35に示すような画像分類ウインドウ350aを表示し、ユーザの指示に応じて後述するフォルダの作成や分類条件の設定等の処理を実行する。
【0341】
この図35には、既に画像を管理するための項目(以下「フォルダ」と記述する)が設定されている様子が示されているが、ここではルートに当たる画像DBフォルダ351のみが存在しているものと仮定し、各フォルダを設定する処理を説明する。
【0342】
図35中の画像DBフォルダ351は、画像DB108中に登録された画像の全てを管理するフォルダである。なお、この画像DBフォルダ351の設定を変更することにより、分類対象の画像を画像DB中の画像から別の画像に変更することができる。例えば、実施の形態1〜13で説明した画像検索装置で検索した結果の画像を指定して分類することも可能である。
【0343】
ユーザは、この画像DBフォルダ351の下位に画像DB108の画像を分類する分類先となる新たなフォルダを設定する。例えば、ユーザは、図示しないメニューから「フォルダ作成」を選択し、画像DBフォルダ351の下位にフォルダ352を作成する。
【0344】
そして、ユーザは、フォルダ352に分類対象の画像(画像DB108中の画像)を分類するための分類条件を設定するため、フォルダ352を選択すると共に、図示しないメニューから「分類条件設定」を選択し、図35に示されている分類条件設定ウィンドウ360aを表示させる。
【0345】
分類条件設定ウインドウ360aは、図5に示した検索ウインドウ200aの一部とほぼ同一の構成であり、分類条件設定ウインドウ360aには、実施の形態1で説明した検索条件と同様の方法で分類条件を設定することができる。分類条件設定ウインドウ360aは、画像を分類する際に使用される例えば色,構造およびテクスチャの特徴量毎に、分類対象の画像を分類するための基準として用いられる複数の基準画像(画像検索の問合せ画像に該当する)を指定するための画像指定欄A,BおよびCと、所望のフォルダに対して分類条件の設定を指定するための設定ボタン361と、を備えている。
【0346】
基準画像として指定する画像としては、例えば、スキャナで読み取った画像,ディジタルカメラで撮像した画像,ネットワーク112を介してダウンロードした画像,予めハードディスク110に記憶されていた画像,画像DB108に登録されている画像等、いかなるものであっても良い。
【0347】
ユーザは、実施の形態1で説明したように、例えば3枚の画像を各種類の特徴量に対応させ、それぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定する。また、図示することは省略するが、分類条件設定ウインドウ360aからフォルダ毎に、基準画像および検索対象の画像の類似度の閾値を設定することができる。後述するように、フォルダに設定された基準画像との類似度が閾値を超えた分類対象の画像がそのフォルダに分類されることになる。ここではフォルダ毎に閾値を設定することにするが、フォルダ全体を対象として一つの閾値を設定することにしても良い。
【0348】
そして、ユーザが設定ボタン361を選択すると、U/I部151は、指定された基準画像および閾値を分類条件としてフォルダ352に設定する。なお、基準画像として設定された画像から特徴量を抽出していない場合にあっては、分類条件をフォルダに設定する際に特徴抽出エンジン152が特徴量を抽出する処理を行うことにしても良い。もちろん、画像を分類する処理を行う際に各基準画像から必要な特徴量を抽出することにしても良い。
【0349】
なお、ユーザは、フォルダ354〜357のように、作成したフォルダ(例えばフォルダ353)に分類される画像をさらに分類するためのフォルダ(例えば、フォルダ353に対してフォルダ354および355)を作成し、同様に分類条件を設定することができる。
【0350】
このようにして、図35に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。U/I部151は、作成したフォルダや対応する分類条件をフォルダ情報として、フォルダの階層構造に関する情報と共に分類木DB302に登録する。
【0351】
実施の形態1で説明したように、各フォルダ毎に単に基準画像を複数指定するだけでなく、画像を分類する際に使用される各種類の特徴量に対応させて各問合せ画像を指定できるため、ユーザが適切と考える仮想的な一つの基準画像を表現できると共に、分類に対するユーザの意図を分類基準として正確に表現することが可能となる。したがって、後述する分類処理によって、ユーザの意図が反映された分類結果の画像を得ることが可能となる。
【0352】
(2)画像分類処理
図36は、実施の形態14の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、対応する種類の特徴量を用いて各基準画像および分類対象の画像との類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1401)。
【0353】
このステップS1401における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図35の分類条件設定ウインドウ360aを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、構造の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて分類対象の画像と基準画像Cとの距離を求める。
【0354】
その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数1を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0355】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1401で求めた分類対象の画像の総合類似度が閾値を超えるか否かを判定する(S1402)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0356】
そして、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1403)。すなわち、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超える場合、そのフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0357】
以上説明したステップS1401〜S1403の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。なお、フォルダ毎に得られた総合類似度に応じて、分類対象の画像は2以上のフォルダに分類されることもあり得る。
【0358】
図37は、画像DB108中の画像を各フォルダ352〜358に分類した後の画像分類ウインドウ350aの様子を示す説明図である。各フォルダ352〜358には、マッチング・エンジン153によって選択された代表画像が表示されている。また、ユーザが特定のフォルダを選択すると、そのフォルダに分類された画像が画像分類ウインドウ350aの右側に一覧表示される。
【0359】
このように、実施の形態14に係る画像分類装置によれば、分類項目を設定し、設定した分類項目それぞれに対し、基準画像および分類対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの基準画像を設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を対応する種類の特徴量を用いて求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。
【0360】
例えば、基準画像として適切な画像が存在しない場合であっても、分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの問合せ画像として使用することができる。
【0361】
なお、ここでは色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類を限定することを意図したものではない。
【0362】
また、図37に示したように、フォルダ毎に代表画像を表示することにしたが、これに代えて、フォルダ名を表示したり、フォルダに設定した基準画像を表示することにしても良い。
【0363】
さらに、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。
【0364】
〔実施の形態15〕
実施の形態15に係る画像分類装置は、実施の形態2で説明した画像検索処理を応用して画像を分類するものである。なお、実施の形態15に係る画像分類装置において、実施の形態14で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像分類装置の動作についても共通する点については適宜説明を省略する。
【0365】
以下に、実施の形態15に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
【0366】
(1)分類項目設定処理
図38は、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウ350bの一例を示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図38に示すような分類条件設定ウインドウ360bを表示させる。
【0367】
図38に示す分類条件設定ウインドウ360bは、図7に示した検索ウインドウ200bの一部とほぼ同一の構成であり、分類条件設定ウインドウ360bには、実施の形態2で説明した検索条件と同様の方法で分類条件を設定することができる。分類条件設定ウインドウ360bは、分類対象の画像を分類するための基準として用いられる複数の基準画像(画像検索の問合せ画像に該当する)を指定するための画像指定欄A,BおよびCと、各画像指定欄に指定した基準画像毎に、分類対象の画像との類似度を求める際に使用する特徴量の種類を指定する特徴量指定ボタン362と、対応するフォルダに対して分類条件の設定を指定するための設定ボタン361と、を備えている。
【0368】
ユーザは、実施の形態2で説明したように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、各基準画像A,BおよびC毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を指定する。図38に示す分類条件設定ウインドウ360bは、一例として色・構造・テクスチャの中から所望の特徴量を指定することができるようになっている。
【0369】
また、図示することは省略するが、分類条件設定ウインドウ360bからフォルダ毎に、基準画像および検索対象の画像の類似度の閾値を設定することができる。後述するように、フォルダに設定された基準画像との類似度が閾値を超えた分類対象の画像がそのフォルダに分類されることになる。ここではフォルダ毎に閾値を設定することにするが、フォルダ全体を対象として一つの閾値を設定することにしても良い。
【0370】
そして、ユーザが設定ボタン361を選択すると、U/I部151は、指定された基準画像,特徴量の種類および閾値を分類条件としてフォルダ352に設定する。なお、基準画像として設定された画像から特徴量を抽出していない場合にあっては、分類条件をフォルダに設定する際に特徴抽出エンジン152が特徴量を抽出する処理を行うことにしても良い。もちろん、画像を分類する処理を行う際に各基準画像から必要な特徴量を抽出することにしても良い。
【0371】
なお、ユーザは、フォルダ354〜357のように、作成したフォルダ(例えばフォルダ353)に分類される画像をさらに分類するためのフォルダ(例えば、フォルダ353に対してフォルダ354および355)を作成し、同様に分類条件を設定することができる。
【0372】
このようにして、図38に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。U/I部151は、作成したフォルダや対応する分類条件をフォルダ情報として、フォルダの階層構造に関する情報と共に分類木DB302に登録する。
【0373】
実施の形態2で説明したように、各フォルダ毎に単に基準画像を複数指定するだけでなく、指定した各基準画像毎にユーザが重視する画像の特徴に該当する特徴量を指定できるため、ユーザが適切と考える仮想的な一つの基準画像を表現できると共に、分類に対するユーザの意図を分類基準として正確に表現することが可能となる。したがって、後述する分類処理によって、ユーザの意図が反映された分類結果の画像を得ることが可能となる。
【0374】
(2)画像分類処理
実施の形態15の画像分類処理について図36を参照しつつ説明する。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、ユーザが指定した種類の特徴量を用いて各基準画像および分類対象の画像との類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1401)。
【0375】
このステップS1401における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図38の分類条件設定ウインドウ360bを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、構造の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、テクスチャの特徴量に基づいて分類対象の画像と基準画像Cとの距離を求める。
【0376】
その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数2を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0377】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1401で求めた分類対象の画像の総合類似度が閾値を超えるか否かを判定する(S1402)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0378】
そして、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1403)。すなわち、マッチング・エンジン153は、分類対象の画像の総合類似度が閾値を超える場合、そのフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0379】
以上説明したステップS1401〜S1403の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。なお、フォルダ毎に得られた総合類似度に応じて、分類対象の画像は2以上のフォルダに分類されることもあり得る。画像の分類処理が実行されると、図38の画像分類ウインドウ350bの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0380】
このように、実施の形態15に係る画像分類装置によれば、フォルダを設定し、設定したフォルダ毎に、基準画像を複数設定すると共に、設定した各基準画像毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を設定し、フォルダ毎に、設定された種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して総合類似度を求め、フォルダ毎に求めた総合類似度および予め設定された分類先決定基準に基づいて分類対象の画像の分類先となるフォルダを決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。
【0381】
例えば、基準画像として適切な画像が存在しない場合であっても、分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの問合せ画像として使用することができる。
【0382】
なお、ここでは色,構造およびテクスチャの3種類の特徴量を用いることにしたが、これらはあくまでも例示であって、特徴量の種類を限定することを意図したものではない。
【0383】
さらに、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。
【0384】
〔実施の形態16〕
実施の形態16に係る画像分類装置は、実施の形態15の画像分類装置において、実施の形態3で説明した画像検索処理を応用することにより、分類に対するユーザの意図をさらに正確に表現できるようにしたものである。なお、実施の形態16において、実施の形態14で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像分類装置の動作についても共通する点については適宜説明を省略する。
【0385】
以下に、実施の形態16に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
【0386】
(1)分類項目設定処理
図39は、実施の形態16に係る画像分類装置において用いられる画像分類ウインドウ350cを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図39に示すような分類条件設定ウインドウ360cを表示させる。
【0387】
図39に示す分類条件設定ウインドウ360cは、図38に示したものに加えて(実施の形態3の検索ウインドウ200cに示すように)、画像指定欄A,BおよびCに指定された各基準画像毎に相対的な重要度を指定する重要度指定バー363を備えている。
【0388】
ユーザは、図39に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、指定した基準画像A,BおよびC毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を指定する。
【0389】
続いて、実施の形態3の重要度指定バー204で説明したように、ユーザは重要度指定バー363を用いて各基準画像に重要度を指定する。この重要度指定バー363は、各基準画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能とするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。
【0390】
このように、基準画像毎にユーザが重要度を指定することにより、分類に対するユーザの意図を正確に表現することが可能となる。すなわち、後述する分類処理によって、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された分類結果の画像を得ることが可能となる。
【0391】
さらに、ユーザはフォルダ352の閾値を指定し、設定ボタン361を選択すると、U/I部151は、基準画像,特徴量の種類,重要度および閾値を分類条件としてフォルダ352に設定する。
【0392】
このような処理を各フォルダに対して行うことにより、図39に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。設定されたフォルダのフォルダ情報は、分類木DB302に登録される。
【0393】
(2)画像分類処理
図40は、実施の形態16の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、ユーザが指定した種類の特徴量を用いて各基準画像および分類対象の画像との類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1601)。
【0394】
このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図39の分類条件設定ウインドウ360cを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが指定した基準画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、構造の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求め、求めた距離に対して基準画像Bの重要度に応じた重み付けを行うと共に、テクスチャの特徴量に基づいて分類対象の画像と基準画像Cとの距離を求め、求めた距離に対して基準画像Cの重要度に応じた重み付けを行う。
【0395】
その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数3を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0396】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0397】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0398】
以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図39の画像分類ウインドウ350cの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0399】
このように、実施の形態16に係る画像分類装置によれば、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、フォルダ毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。
【0400】
なお、詳細な説明については省略するが、実施の形態14で説明した画像分類装置においても、実施の形態16で説明したように各問合せ画像毎に重要度を指定することができるようにしても良い。
【0401】
〔実施の形態17〕
実施の形態17に係る画像分類装置は、ユーザの意図を分類条件として正確に表現するための一つの手法として、実施の形態4で説明したAND検索を応用した画像分類処理を行うものである。なお、実施の形態17に係る画像分類装置において、実施の形態14で既に説明した構成については同一の符号を使用して詳細な説明を省略し、画像分類装置の動作についても共通する点については適宜説明を省略する。また、実施の形態17に係る画像分類装置においては、画像間の類似度を求める際に用いる特徴量は一種類であるものとするが、当然、複数種類の特徴量を用いることにしても良い。
【0402】
以下に、実施の形態17に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
【0403】
(1)分類項目設定処理
図41は、実施の形態17に係る画像分類装置において用いられる画像分類ウインドウ350dを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図41に示すような分類条件設定ウインドウ360dを表示させる。
【0404】
図41に示す分類条件設定ウインドウ360dは、画像指定欄A,BおよびC,ならびに設定ボタン361に加え、AND条件を指定するためのAND指定ボタン364およびOR条件を指定するためのOR指定ボタン365が設けられている点である。なお、OR条件については、後述する実施の形態21において詳細に説明する。
【0405】
ユーザは、図41に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、AND指定ボタン364を選択してAND条件を指定する。さらに、ユーザがフォルダ352の閾値を指定し、設定ボタン361を指定すると、U/I部151は、基準画像,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。
【0406】
このような処理を各フォルダに対して行うことにより、図41に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定されたフォルダのフォルダ情報は、分類木DB302に登録される。
【0407】
(2)画像分類処理
実施の形態17の画像分類処理について図36を参照しつつ説明する。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1401)。
【0408】
このステップS1401における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、分類対象の画像と基準画像Cとの距離を求める。
【0409】
その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数4を参照)。なお、複数種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求める場合は、各種類の特徴量毎に分類対象の画像および各基準画像の類似度(距離)を求め、分類対象の画像毎に、各基準画像に対する全ての類似度を合計して総合類似度を求めれば良い。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0410】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1401で求めた総合類似度が閾値を超えるか否かを判定する(S1402)。ただし、ここでは、類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0411】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1403)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0412】
以上説明したステップS1401〜S1403の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ検索対象の画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0413】
このように、実施の形態17に係る画像分類装置によれば、フォルダを設定し、設定したフォルダ毎に、基準画像を複数設定し、フォルダ毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して総合類似度を求め、フォルダ毎に求めた総合類似度および予め設定された分類先決定基準に基づいて分類対象の画像の分類先となるフォルダを決定するため、AND検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。
【0414】
なお、実施の形態17においては、特徴量の種類を特に示さなかったが、色,構造およびテクスチャ等、いかなる種類の特徴量であっても単独でまたは複数組み合わせて用いることができる。
【0415】
さらに、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。
【0416】
〔実施の形態18〕
実施の形態18に係る画像分類装置は、実施の形態17の画像分類装置において、実施の形態5で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。
【0417】
以下に、実施の形態18に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
【0418】
(1)分類項目設定処理
図42は、実施の形態18に係る画像分類装置において用いられる画像分類ウインドウ350eを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図42に示すような分類条件設定ウインドウ360eを表示させる。
【0419】
図42に示す分類条件設定ウインドウ360eは、図41に示した分類条件設定ウインドウ360dに加えて、画像指定欄A,BおよびCに指定された各基準画像間の相対的な重要度を指定する重要度指定バー366を備えている。
【0420】
ユーザは、図42に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定すると共に、重要度指定バー366を用いて基準画像A,BおよびC毎に重要度を指定する。この重要度指定バー366は、実施の形態5の重要度指定バー207で説明したように、各基準画像毎に「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。
【0421】
このように、基準画像毎にユーザが重要度を指定することにより、分類に対するユーザの意図を正確に表現することが可能となる。すなわち、後述する分類処理によって、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された分類結果の画像を得ることが可能となる。
【0422】
さらに、ユーザがAND指定ボタン364を選択してAND条件を指定すると共に、フォルダ352の閾値を指定した後、設定ボタン361を指定すると、U/I部151は、基準画像,重要度,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。
【0423】
このような処理を各フォルダに対して行うことにより、図42に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定された各フォルダのフォルダ情報は、分類木DB302に登録される。
【0424】
(2)画像分類処理
実施の形態18の画像分類処理について図40を参照しつつ説明する。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像との類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して総合類似度を求める処理を実行する(S1601)。
【0425】
このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図42の分類条件設定ウインドウ360eを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが指定した基準画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求め、求めた距離に対して基準画像Bの重要度に応じた重み付けを行うと共に、所定の特徴量に基づいて分類対象の画像と基準画像Cとの距離を求め、求めた距離に対して基準画像Cの重要度に応じた重み付けを行う。
【0426】
その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数5を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0427】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0428】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0429】
以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図42の画像分類ウインドウ350eの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0430】
このように、実施の形態18に係る画像分類装置によれば、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、フォルダ毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。
【0431】
〔実施の形態19〕
実施の形態19に係る画像分類装置は、実施の形態17の画像分類装置において、実施の形態6で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。なお、実施の形態19に係る画像分類装置においては、例として、色,構造およびテクスチャの3種類の特徴量を用いて分類処理を行うものとする。
【0432】
以下に、実施の形態19に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
【0433】
(1)分類項目設定処理
図43は、実施の形態19に係る画像分類装置において用いられる画像分類ウインドウ350fを示す説明図である。ここで、ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図43に示すような分類条件設定ウインドウ360fを表示させる。
【0434】
図43に示す分類条件設定ウインドウ360fは、図41に示した分類条件設定ウインドウ360dに加えて、画像指定欄A,BおよびCに指定された各基準画像毎に、分類対象の画像との類似度を求める際に使用される特徴量の種類毎の重要度を指定するための重要度指定バー367を備えている。
【0435】
ユーザは、図43に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、指定した基準画像A,BおよびC毎に、特徴量の種類毎の重要度を指定する。この重要度指定バー367は、実施の形態6で説明したように、各基準画像の特徴量の種類毎に、「0」を中心にして「+」の重要度および「−」の重要度を指定することを可能にするものである。なお、重要度として「+」方向および「−」方向の両方ではなく、「+」方向のみ、または「−」方向のみを指定できるようにしても良い。
【0436】
このように、各種類の特徴量毎の重要度を各基準画像毎に指定することにより、分類に対するユーザの意図を正確に表現することが可能となる。すなわち、後述する分類処理によって、重要度は各種類の特徴量毎に求めた類似度に対する重み付けとして反映されるため、ユーザの意図が反映された分類結果の画像を得ることが可能となる。
【0437】
さらに、ユーザは、AND指定ボタン364を選択してAND条件を指定すると共に、フォルダ352の閾値を指定した後、設定ボタン361を選択すると、U/I部151は、基準画像,重要度,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。
【0438】
このような処理を各フォルダに対して行うことにより、図43に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定された各フォルダのフォルダ情報は、分類木DB302に登録される。
【0439】
(2)画像分類処理
実施の形態19に係る画像分類処理について図40を参照しつつ説明する。ユーザが分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1601)。
【0440】
このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図43の分類条件設定ウインドウ360fを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが基準画像Aに対して指定した色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aとの距離を構造の特徴量およびテクスチャの特徴量を用いてそれぞれ求め、求めた各距離に対し、ユーザが基準画像Aに対して指定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0441】
マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。
【0442】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする(数6を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0443】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0444】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0445】
以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図43の画像分類ウインドウ350fの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0446】
このように、実施の形態19に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、基準画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各基準画像毎に設定することが可能であり、フォルダそれぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。
【0447】
なお、特徴量の種類は、色,構造およびテクスチャの3種類に限定するものではなく、いかなる種類の特徴量の組み合わせであっても良い。
【0448】
〔実施の形態20〕
実施の形態20に係る画像分類装置は、実施の形態17の画像分類装置において、実施の形態7で説明した画像検索処理を応用することにより、分類に対するユーザの意図を装置側が汲み取ることができるようにしたものである。なお、実施の形態20に係る画像分類装置は、例として、色,構造およびテクスチャの3種類の特徴量を用いて分類処理を行うものとする。
【0449】
前述した実施の形態18および19においては、ユーザが基準画像の重要度または各基準画像に特徴量毎の重要度を指定する必要があったが、実施の形態20に係る画像分類装置においては、ユーザによってフォルダ毎に指定された基準画像間の類似度を、基準画像および分類対象の画像の類似度を求める際に使用する特徴量を用いて求め、求めた特徴量毎の類似度に基づいて各基準画像間における特徴量毎の重要度を装置側で決定し、類似度に対する重み付けとして反映するという点が特徴となる。
【0450】
以下に、実施の形態20に係る画像分類装置の動作について、
(1)分類項目設定処理
(2)画像分類処理
の順で説明する。
【0451】
(1)分類項目設定処理
図41を用いて分類項目設定処理について説明する。ユーザは、フォルダ352を作成したものとし、フォルダ352に分類条件を設定するため、図41に示すような分類条件設定ウインドウ360dを表示させる。
【0452】
ユーザは、図41に示すように、例えば3枚の画像をそれぞれ画像指定欄A,BおよびCに基準画像A,BおよびCとして指定し、AND指定ボタン364を選択してAND条件を指定する。さらに、ユーザがフォルダ352の閾値を指定し、設定ボタン361を選択すると、特徴抽出エンジン152は、色,構造およびテクスチャの3種類の特徴量毎に、各基準画像A,BおよびC間の距離(類似度)を求め、求めた各特徴量毎の距離に基づいて各基準画像A,BおよびC間における特徴量毎の重要度を決定する。
【0453】
具体的に、特徴抽出エンジン152は、3種類の特徴量毎に、基準画像同士の特徴間の距離を求める。各特徴量毎に求めた距離の分散が大きい場合にはその特徴量についてはユーザは関知していないことを意味し、分散が小さい場合にはユーザはその特徴量を分類基準として重視していると判断できる。したがって、分散が大きい特徴量の場合には重要度を小さくし、分散が小さい場合には重要度を大きくするようにする(数7を参照)。
【0454】
特徴抽出エンジン152は、3種類の特徴量毎の重要度をU/I部151に入力し、U/I部151は、基準画像,特徴抽出エンジン152で決定された重要度,AND条件の指定および閾値を分類条件としてフォルダ352に設定する。
【0455】
このような処理を各フォルダに対して行うことにより、図41に示すような複数のフォルダ352〜358が分類対象の画像を分類するための分類項目として設定される。なお、設定されたフォルダのフォルダ情報は分類木DB302に登録される。
【0456】
(2)画像分類処理
つぎに、実施の形態20の画像分類処理について図40を参照しつつ説明する。ユーザが分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度を合計して分類対象の画像の総合類似度を求める処理を実行する(S1601)。
【0457】
このステップS1601における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離を求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0458】
マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。
【0459】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離を合計し、距離の合計値を総合類似度とする。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0460】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS1601で求めた総合類似度が閾値を超えるか否かを判定する(S1602)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0461】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S1603)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0462】
以上説明したステップS1601〜S1603の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358に分類された画像のうち、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0463】
このように、実施の形態20に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、分類項目毎に、設定された各基準画像間の類似度を各種類の特徴量毎に求め、各種類の特徴量毎に求めた類似度に基づいて各基準画像間における各特徴量毎の重要度を決定し、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、決定された重要度に応じた重み付けを行うことにより、装置側でユーザが指定した基準画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った画像の分類結果を返すことが可能となる。したがって、ユーザが望む通りの分類処理を実現することができ、ユーザが望む分類結果を得ることができる。
【0464】
なお、特徴量の種類は、色,構造およびテクスチャの3種類に限定するものではなく、いかなる種類の特徴量の組み合わせであっても良い。
【0465】
〔実施の形態21〕
実施の形態21に係る画像分類装置は、ユーザの意図を分類条件として正確に表現するための一つの手法として、実施の形態8で説明したOR検索を応用した画像分類処理を行うものである。
【0466】
実施の形態21に係る画像分類装置による画像の分類処理は、実施の形態17で説明に用いた図41の分類条件設定ウインドウ360dにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態17における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。
【0467】
なお、OR条件の指定と共に、図41に示したフォルダ352には、実施の形態17の場合と同様に基準画像A,BおよびC,ならびに閾値が分類条件として設定されたものとする。
【0468】
図44は、実施の形態21の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2101)。
【0469】
このステップS2101における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求めると共に、分類対象の画像と基準画像Cとの距離を求める。
【0470】
その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度を求める(数8を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に最も高い類似性を示す類似度を選択して総合類似度を求める。
【0471】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS2101で選択した類似度が閾値を超えるか否かを判定する(S2102)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0472】
そして、マッチング・エンジン153は、選択した類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2103)。すなわち、マッチング・エンジン153は、選択した類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0473】
以上説明したステップS2101〜S2103の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い類似度(ステップS2101で選択された類似度のことであり、距離で表現すれば最も小さい類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0474】
なお、実施の形態21の画像分類処理においては、分類対象の画像が、あるフォルダに設定された各基準画像のいずれかに対して閾値以上の類似度が得られる程類似していればそのフォルダに分類されることになる。したがって、実施の形態21の画像分類処理にOR検索が応用されていることがわかる。
【0475】
このように、実施の形態21に係る画像分類装置によれば、フォルダを設定し、設定したフォルダ毎に、基準画像を複数設定し、フォルダ毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択し、各フォルダ毎に選択した類似度および予め設定された分類先決定基準に基づいて分類対象の画像の分類先となるフォルダを決定するため、OR検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。
【0476】
なお、詳細な説明については省略するが、画像DB108に新たに画像が登録された場合、その画像についても分類処理を行うことにより、画像DB108中の画像を常に分類した状態に保つことができる。例えば、U/I部151が画像DB108の状態を監視することにすれば、人手を要することなく、画像DB108中の画像を常に分類した状態に保つことができる。
【0477】
〔実施の形態22〕
実施の形態22に係る画像分類装置は、実施の形態21の画像分類装置において、実施の形態9で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。
【0478】
実施の形態22に係る画像分類装置による画像の分類処理は、実施の形態18で説明に用いた図42の分類条件設定ウインドウ360eにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態18における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。
【0479】
なお、OR条件の指定と共に、図42に示したフォルダ352には、実施の形態18の場合と同様に基準画像A,BおよびC,各基準画像の重要度ならびに閾値が分類条件として設定されたものとする。
【0480】
図45は、実施の形態22の画像分類処理を示すフローチャートである。ユーザが分類処理の開始を指示すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、所定の特徴量を用いて各基準画像および分類対象の画像との類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2201)。
【0481】
このステップS2201における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図42の分類条件設定ウインドウ360eを参照)および分類対象の画像の類似度を所定の特徴量を用いて求める。すなわち、マッチング・エンジン153は、所定の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが指定した基準画像Aの重要度に応じて重み付けを行う。マッチング・エンジン153は、同様に、所定の特徴量に基づいて分類対象の画像と基準画像Bとの距離を求め、求めた距離に対して基準画像Bの重要度に応じた重み付けを行うと共に、所定の特徴量に基づいて分類対象の画像と基準画像Cとの距離を求め、求めた距離に対して基準画像Cの重要度に応じた重み付けを行う。
【0482】
その後、マッチング・エンジン153は、分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度を求める(数9を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0483】
続いて、マッチング・エンジン153は、フォルダ352〜358毎に、ステップS2201で求めた総合類似度が閾値を超えるか否かを判定する(S2202)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0484】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2203)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0485】
以上説明したステップS2201〜S2203の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図42の画像分類ウインドウ350eの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0486】
このように、実施の形態22に係る画像分類装置によれば、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、フォルダ毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。
【0487】
〔実施の形態23〕
実施の形態23に係る画像分類装置は、実施の形態21の画像分類装置において、実施の形態10で説明した画像検索処理を応用することにより、分類に対するユーザの意図を正確に表現できるようにしたものである。
【0488】
実施の形態23に係る画像分類装置による画像の分類処理は、実施の形態19で説明に用いた図43の分類条件設定ウインドウ360fにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態19における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。
【0489】
なお、OR条件の指定と共に、図43に示したフォルダ352には、実施の形態19の場合と同様に基準画像A,BおよびC,各基準画像について特徴量の種類毎に指定された重要度ならびに閾値が分類条件として設定されたものとする。
【0490】
つぎに、実施の形態23に係る画像分類処理について図45を参照しつつ説明する。ユーザが画像分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2201)。
【0491】
このステップS2201における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図43の分類条件設定ウインドウ360fを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、ユーザが基準画像Aに対して指定した色の特徴量の重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aとの距離を構造の特徴量およびテクスチャの特徴量を用いて求め、求めた各距離に対し、ユーザが基準画像Aに対して指定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0492】
マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Bに対して指定された各特徴量毎の重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、基準画像Cに対して指定された各特徴量毎の重要度に応じた重み付けを行う。
【0493】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度とする(数10を参照)。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0494】
続いて、マッチング・エンジン153は、分類木DB302を参照して、フォルダ352〜358毎に、ステップS2201で求めた総合類似度が閾値を超えるか否かを判定する(S2202)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0495】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2203)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0496】
以上説明したステップS2201〜S2203の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図43の画像分類ウインドウ350fの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0497】
このように、実施の形態23に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、基準画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各基準画像毎に設定することが可能であり、フォルダそれぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、設定された重要度に応じた重み付けを行うことにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。
【0498】
〔実施の形態24〕
実施の形態24に係る画像分類装置は、実施の形態21の画像分類装置において、実施の形態11で説明した画像検索処理を応用することにより、分類に対するユーザの意図を装置側が汲み取ることができるようにしたものである。
【0499】
実施の形態24に係る画像分類装置による画像の分類処理は、実施の形態20で説明に用いた図41の分類条件設定ウインドウ360dにおいて、AND指定ボタン364ではなく、OR指定ボタン365が選択された場合に実行される。そこで、実施の形態20における「(1)分類項目設定処理」の説明において、OR指定ボタン365が選択されたものとして、以下にOR条件による画像分類処理を説明する。
【0500】
なお、OR条件の指定と共に、図41に示したフォルダ352には、実施の形態20の場合と同様に基準画像A,BおよびC,特徴量の種類毎に特徴抽出エンジン152で決定された重要度ならびに閾値が分類条件として設定されたものとする。
【0501】
つぎに、実施の形態24の画像分類処理について図45を参照しつつ説明する。ユーザが画像分類処理の開始を指定すると、図34のマッチング・エンジン153は、フォルダ352〜358毎に、3種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求め、求めた各類似度に対して重要度に応じた重み付けを行い、各類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求める処理を実行する(S2201)。
【0502】
このステップS2201における処理についてフォルダ352を例にとって具体的に説明する。マッチング・エンジン153は、分類木DB302のフォルダ情報を参照し、フォルダ352に設定された基準画像A(図41の分類条件設定ウインドウ360dを参照)および分類対象の画像の類似度を色の特徴量を用いて求める。すなわち、マッチング・エンジン153は、色の特徴量に基づいて図4に示した特徴量空間中にプロットされた分類対象の画像と基準画像Aとの距離を例えばユークリッド距離などのベクトルの距離定義式を用いて求める。続いて、マッチング・エンジン153は、求めた距離に対し、特徴抽出エンジン152で色の特徴量について決定した重要度に応じて重み付けを行う。さらに、マッチング・エンジン153は、分類対象の画像と基準画像Aについて、構造の特徴量およびテクスチャの特徴量を用いた距離を求め、求めた各距離に対し、特徴抽出エンジン152で決定した構造の特徴量の重要度およびテクスチャの特徴量の重要度に応じて重み付けを行う。
【0503】
マッチング・エンジン153は、同様に、分類対象の画像と基準画像Bとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。また、分類対象の画像と基準画像Cとの距離を3種類の特徴量毎に求め、求めた各距離に対し、各種類の特徴量毎に決定された重要度に応じた重み付けを行う。
【0504】
その後、マッチング・エンジン153は、3種類の特徴量毎に求めた分類対象の画像と各基準画像A,BおよびCとの距離の中から最も短い距離を選択して総合類似度を求める。マッチング・エンジン153は、このようにしてフォルダ352〜358毎に総合類似度を求める。
【0505】
続いて、マッチング・エンジン153は、分類木DB302を参照して、フォルダ352〜358毎に、ステップS2201で求めた総合類似度が閾値を超えるか否かを判定する(S2202)。ただし、ここでは類似度として距離を用いており、距離が短い(距離の値が小さい)ほど類似性が高いことになるため、実際には、総合類似度が閾値以下(または未満)であるか否かを判定することになる。
【0506】
そして、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダに分類対象の画像を分類する(S2203)。すなわち、マッチング・エンジン153は、求めた総合類似度が閾値を超えるフォルダを分類対象の画像の分類先として決定し、分類木DB302中に登録された該当するフォルダのフォルダ情報に関連付けて分類対象の画像のID(予め設定されているものとする)を分類木DB302に登録する。
【0507】
以上説明したステップS2201〜S2203の処理を画像DB108中に登録されている各画像に対して実行することにより、画像DB108中の画像を分類することができる。また、マッチング・エンジン153は、各フォルダ352〜358それぞれに分類された画像の中から、最も高い総合類似度(距離で表現すれば最も小さい総合類似度)を持つ画像を代表画像として選択し、該当するフォルダ情報に関連付けて分類木DB302に登録する。画像の分類処理が実行されると、図41の画像分類ウインドウ350dの各フォルダ352〜358には、図37に示すように代表画像が表示される。
【0508】
このように、実施の形態24に係る画像分類装置によれば、複数種類の特徴量を用いて基準画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、分類項目毎に、設定された各基準画像間の類似度を各種類の特徴量毎に求め、各種類の特徴量毎に求めた類似度に基づいて各基準画像間における各特徴量毎の重要度を決定し、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、決定された重要度に応じた重み付けを行うことにより、装置側でユーザが指定した基準画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザが望む通りの画像分類処理を実現することができ、ユーザが望む画像の分類結果を得ることができる。
【0509】
〔実施の形態25〕
つぎに、実施の形態25に係る画像分類装置について説明する。実施の形態25に係る画像分類装置は、ユーザが希望する基準で画像を動的に分類していき、所望の画像を探し出すことができるようにするものである。
【0510】
なお、実施の形態25に係る画像分類装置の構成および画像分類ソフトの構成は図33および図34の通りであるため、ここではこれらについての説明を省略し、画像分類処理についてのみ説明することにする。また、分類対象となる画像は、ここでは画像DB108に登録されている画像であるものとし、これらの画像からは色,構造およびテクスチャの特徴量が抽出されて画像特徴DB109に登録されているものとする。
【0511】
図46〜図48は、実施の形態25における画像分類処理の説明図である。ユーザが図示しないメニューから「画像分類処理」を選択すると、図34のU/I部151は、図46に示す画像分類ウインドウ400を画面表示する。
【0512】
図46に示す画像分類ウインドウ400には、初期状態として、画像DB108中の全ての画像を対象とした分類項目401と、画像DB108中に登録された画像を動的に分類していく際に使用する特徴量の種類を表す分類項目402a,403aおよび404aとが示されている。ユーザが分類項目402a,403aおよび404aのいずれかを選択することにより、画像DB108中の画像が動的に分類されることになる。
【0513】
ここで、分類項目402aは、色の特徴量を用いて画像を分類する際に使用する項目であり、分類項目403aは、構造の特徴量を用いて画像を分類する際に使用する項目であり、分類項目404aは、テクスチャの特徴量を用いて画像を分類するための項目である。
【0514】
図46において、ユーザが分類項目402aを指定したものとすると、U/I部151は、色の特徴量が指定されたことをマッチング・エンジン153に通知する。マッチング・エンジン153は、色の特徴空間(図4参照)において画像DB108中の画像をNearest Neighbor法やK−平均アルゴリズム等の一般的なクラスタリング手法を用いてクラスタリングする(類似する画像同士のグループに分類する)と共に、個々のクラスタから代表画像を選択する。なお、代表画像については、例えばクラスタの中心の画像を代表画像として選択する等、代表画像同士が非類似であれば選択方法はいかなるものであっても良い。
【0515】
そして、U/I部151は、マッチング・エンジン153からクラスタリングの結果を入力し、図47に示すように、ユーザによって選択された分類項目402aに関連付けて代表画像405〜408を表示する。図47においては、代表画像が4枚表示されているため、画像DB108の画像が色の特徴量により4つのクラスタに分類されたことが示されている。つまり、実施の形態25においては、特徴量の種類を指定することによって生成されるクラスタが実質的な分類項目ということになる。ユーザは必要に応じて代表画像以外の各クラスタに属する画像を表示して見ることができる。
【0516】
図48は、代表画像407のクラスタを色の特徴空間でさらにクラスタリングして分類した結果を示している。このように、段階的に特徴量の種類を指定していくことにより、ユーザは目的の画像にたどり着くことができる。
【0517】
なお、色以外の特徴量については詳細な説明を省略するが、構造やテクスチャの特徴量が選択された場合であっても、同様に特徴空間でクラスタリングが行われ、画像が分類されていくことになる。
【0518】
このように、実施の形態25に係る画像分類装置によれば、特徴量の種類が指定されると、指定された種類の特徴量を用いて分類対象の各画像間の類似度を求め、求めた分類対象の各画像間の類似度に基づいて、分類対象の各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示し、さらに、表示された代表画像の一つが指定されるとと共に、特徴量の種類が指定されると、指定された種類の特徴量を用いて代表画像の属するグループに分類された各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示することにより、画像を分類したい時にユーザが希望する基準で画像を動的に分類していくことが可能となるため、画像の分類を利用して所望の画像を探し出すことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。
【0519】
また、特徴量の種類を分類項目402,403および404として画面表示し、指定された分類項目に関連付けて、分類された各グループの代表画像を画面表示することにより、図48に示すように画像DB108中の画像を分類した結果を木構造で画面表示できるため、ユーザが画像分類処理の様子を一目で認識でき、動的な画像分類処理の利便性の向上を図ることができる。
【0520】
なお、実施の形態25の画像分類処理によって画像を分類した結果を、例えば分類履歴として分類木DB302に登録しておくことにより、再利用することができる。
【0521】
また、分類対象の画像は画像DB108中の画像に限定されるものではなく、例えば実施の形態1〜13の画像検索装置で検索した結果の複数の画像を分類対象の画像として用いることもできる。
【0522】
〔実施の形態26〕
つぎに、実施の形態26の画像分類装置について説明する。実施の形態26に係る画像分類装置は、実施の形態14〜25で説明した画像分類装置の一部または全てを一つの画像分類装置として統合したものである。すなわち、実施の形態14〜25における説明から明らかなように、これらの装置は図33および図34に示したような共通の構成で実現可能なものであるため、容易に統合することができる。
【0523】
実施の形態14〜25で説明した画像分類装置を一つに統合することにより、各フォルダ毎に異なる方法で分類条件を設定することができる。例えば、図35において、フォルダ352には実施の形態14で説明した分類条件を、フォルダ353には実施の形態17で説明した分類条件を、フォルダ358には実施の形態21で説明した分類条件をそれぞれ設定することができる。
【0524】
なお、分類条件の設定処理や画像の分類処理については各実施の形態の項で説明した通りであるため、ここでは説明を省略する。
【0525】
このように、実施の形態14〜25で説明した画像分類装置を一つに統合することにより、さまざまな視点で分類条件を設定することができ、分類条件の設定に関する自由度を増すことができる。
【0526】
なお、画像分類装置の場合と同様の理由で、実施の形態1〜13で説明した画像検索装置を一つの装置として統合することも可能である。これにより、異なる検索方法を組み合わせて所望の画像を検索することが可能となる。
【0527】
〔実施の形態27〕
さらに、実施の形態1〜25で説明した画像検索装置および画像分類装置の一部または全てを一つの装置として統合することもできる(画像検索装置または画像分類装置のマッチング・エンジン153に画像検索処理および画像分類処理の両方の機能を持たせるということ)。つまり、本発明の実施の形態で説明した画像検索処理および画像分類処理においては、図2および図34に示したマッチング・エンジン153が画像から抽出した特徴量を用いて画像間の類似度を求めることが基本となっていることから、実施の形態1〜25で説明した画像検索装置および画像分類装置を一つの装置に容易に統合することが可能である。
【0528】
詳細な説明については省略するが、実施の形態1〜25で説明した画像検索装置および画像分類装置を一つの装置に統合することによって以下のような処理を行うことが可能となる。
【0529】
(1)実施の形態14〜25で説明したいずれかの画像分類処理で各フォルダ(分類項目)に分類した画像の中から選択した画像を問合せ画像として指定して、実施の形態1〜13で説明したいずれかの画像検索処理で画像検索を行うことができる。
(2)実施の形態1〜13で説明したいずれかの画像検索処理で検索された検索結果の画像を分類対象とし、実施の形態14〜25(または26)で説明したいずれかの画像分類処理で分類することができる。
(3)実施の形態14〜25で説明したいずれかの画像分類処理で特定のフォルダ(分類項目)に分類された複数の画像を検索対象とし、実施の形態1〜13で説明したいずれかの画像検索処理で所望の画像を検索することができる。
【0530】
このように、実施の形態1〜25で説明した画像検索装置および画像分類装置の一部または全てを一つの装置に統合することにより、自由に画像検索処理や画像分類処理を実行することが可能となる。
【0531】
以上説明したように、本発明に係る画像処理装置および画像分類装置は、各フローチャートに基づく手順に従って、予め用意されたプログラムをコンピュータで実行することによって実現される。このプログラムは、前述した各実施の形態毎、または任意に組み合わせて提供することが可能である。
【0532】
このプログラムは、ハードディスク,フロッピーディスク,CD−ROM,MO,DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供される。そして、図49(a)に示すように、プログラムは、記録媒体450からCPU101(コンピュータ100)によって読み出され、CPU101がプログラムに基づく処理を実行することによって本発明に係る画像検索装置および/または画像分類装置が実現される。
【0533】
また、このプログラムは、図49(b)に示すように、サーバ451の記録媒体からインターネットやLANのようなネットワークを介してダウンロードし、CPU101に読み込むという形態においても実行可能なものである。また、ネットワークではなく、例えば放送波でプログラムを配信することによってもダウンロードして実行することができる。
【0534】
また、前述した各実施の形態においては特に言及しなかったが、本発明の画像検索装置および画像分類装置は、静止画に限らず、動画像にも適用することができる。これは、動画像は連続する静止画からなるものであるからである。
【0535】
また、実施の形態1〜3で説明した画像検索処理は実施の形態4〜7で説明したAND検索と同様の手法を用いたものであるといえ、それらに対して実施の形態8〜11で説明したOR検索を適用することも可能であることから、検索ウインドウ200a,200bおよび200c(図5,図7および図9)において、AND条件およびOR条件を指定できるようにしても良い。実施の形態14〜16で説明した画像分類装置においても、同様に、分類条件の一つしてAND条件およびOR条件を指定できるようにしても良い。
【0536】
また、実施の形態4〜7で説明した画像検索装置,実施の形態8〜11で説明した画像検索装置,実施の形態17〜20で説明した画像分類装置,および実施の形態21〜24で説明した画像分類装置においては、それぞれAND条件またはOR条件を指定することにしているが、AND条件またはOR条件の指定は必須のものではない。換言すれば、AND条件またはOR条件を指定しなくても、各実施の形態で説明した処理を実行するように装置を構成することができる。
【0537】
また、詳細な説明については省略するが、実施の形態14〜24で説明した画像分類装置において、例えば図35に示したフォルダ354に画像を分類する処理を実行するタイミングは、フォルダ353に画像が分類された後となる。なぜなら、フォルダ354はフォルダ353に分類された画像をさらに分類するためのものであるからである。加えて、画像を分類するためのフォルダの追加・削除や、フォルダに設定した分類条件の変更等の処理を自由に行うこともできる。
【0538】
さらに、詳細な説明については省略するが、例えばクライアント・サーバシステムにおいて、サーバに各実施の形態で説明した画像検索装置または画像分類装置の機能を持たせるようにして、クライアントから検索条件を指定したり、分類された画像をクライアントの画面に表示させたりすることが可能であることは明らかである。
【0539】
(1)以上説明したように、上記実施形態の画像検索装置によれば、問合せ画像および検索対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの問合せ画像を指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を対応する種類の特徴量を用いて求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。具体的には、例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。
【0540】
(2)また、上記実施形態の画像検索装置によれば、問合せ画像を複数指定すると共に、指定した各問合せ画像毎に検索対象の画像との類似度を求める際に使用する特徴量の種類を指定し、検索対象の画像毎に、指定された種類の特徴量を用いて各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて検索結果を出力することにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、検索に対するユーザの意図を確実に装置に伝えることができるため、検索に対するユーザの意図を正確に反映した検索結果を得ることができ、ユーザが望む通りの精度の高い画像検索処理を行うことができる。具体的には、例えば、問合せ画像として適切な画像が存在しない場合であっても、検索結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を問合せ画像として指定し、これらの画像を合わせたものを一つの問合せとして使用することができる。
【0541】
(3)また、上記実施形態の画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度を合計して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて、検索結果を出力することにより、AND検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。
【0542】
(4)また、上記実施形態の画像検索装置によれば、問合せ画像を複数指定し、検索対象の画像毎に、指定された各問合せ画像との類似度を求めると共に、求めた各問合せ画像との類似度の中から最も高い類似性を示す類似度を選択して検索対象の画像の総合類似度を求め、検索対象の画像毎に求めた総合類似度に基づいて、検索結果を出力することにより、OR検索を行うことが可能となるため、ユーザの意図を検索条件として正確に表現するための一つの手法を提供することができる。
【0543】
(5)また、上記実施形態の画像検索装置によれば、さらに、求めた類似度に対し、問合せ画像の種類に応じて任意の重み付けを行うことができるように、各問合せ画像毎に重要度を指定することが可能であり、検索対象の画像毎に、各問合せ画像との類似度を求め、求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0544】
(6)また、上記実施形態の画像検索装置によれば、さらに、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、問合せ画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各問合せ画像毎に指定することが可能であり、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、指定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を検索条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された検索結果の画像を得ることが可能となる。
【0545】
(7)また、上記実施形態の画像検索装置によれば、さらに、複数種類の特徴量を用いて問合せ画像および検索対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎に、指定された各問合せ画像間の類似度を求め、求めた各種類の特徴量毎の類似度に基づいて各問合せ画像間における各種類の特徴量毎の重要度を決定し、検索対象の画像それぞれについて、各種類の特徴量毎に各問合せ画像との類似度を求め、各種類の特徴量毎に求めた各問合せ画像との類似度に対し、決定した各種類の特徴量毎の重要度に応じた重み付けを行った後、総合類似度を求めることにより、装置側でユーザが指定した問合せ画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った検索結果を返すことが可能となる。したがって、ユーザが望む通りの検索処理を実現することができ、ユーザが望む検索結果を得ることができる。
【0546】
(8)また、上記実施形態の画像検索装置によれば、問合せ画像を少なくとも一つ指定すると共に、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定し、抽出基準に基づいて、問合せ画像および複数の検索対象の画像から少なくとも指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出し、検索対象の画像毎に、指定された粗さのレベルに応じた特徴量を用いて問合せ画像との類似度を求め、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索精度の異なる複数種類の検索処理を実行することが可能となる。すなわち、ユーザが検索に使用する特徴量の粗さのレベルを少なくとも一つ指定することができるため、検索に対するユーザの視点の細かさを検索条件として表現でき、ユーザの意図を検索条件として正確に表現することができる。したがって、ユーザが望む通りの画像検索処理を行うことが可能となる。
【0547】
(9)また、上記実施形態の画像検索装置によれば、さらに、抽出基準が、少なくとも画像を何分割するかを表す分割数を粗さのレベルとして段階的に定義しており、段階的に定義された粗さのレベルのいずれか一つに応じて特徴量を抽出する場合、該当する分割数に基づいて画像を分割して複数の分割画像を生成し、生成した各分割画像から特徴量をそれぞれ抽出することにより、問合せ画像および検索対象の画像から分割画像単位の特徴量からなる特徴量群を抽出し、特徴量群を利用して問合せ画像および検索対象の画像の類似度を求める場合、問合せ画像および検索対象の画像の対応する分割画像毎の類似度を該当する特徴量を用いてそれぞれ求めることにより、問合せ画像および検索対象の画像の類似度を求めるようにしたため、画像の分割数で特徴量の粗さのレベルを容易に定義することができ、各分割画像毎に類似度を求めることによって画像検索に画像特徴の位置関係という概念を導入することが可能となる。したがって、精度の高い画像検索処理を実行することが可能となる。
【0548】
(10)また、上記実施形態の画像検索装置によれば、さらに、抽出基準が、段階的に定義された粗さのレベル中の最も粗い特徴量を示すレベルとして、画像を分割することなく、画像全体を特徴量の抽出対象とするレベルを含み、画像全体を特徴量の抽出対象とするレベルに応じて特徴量を抽出する場合、問合せ画像および検索対象の画像から画像全体を対象として特徴量を抽出するため、画像特徴の位置関係を無視した単純なレベルでの検索処理を含めることが可能となる。
【0549】
(11)また、上記実施形態の画像検索装置によれば、さらに、抽出基準が、画像中に存在するオブジェクトを特徴量の抽出対象とする場合に、オブジェクトから抽出する特徴量の粗さのレベルの定義を含むため、さらに異なる視点で検索条件を指定することが可能となり、ユーザの意図を検索条件として正確に表現することができる。
【0550】
(12)また、上記実施形態の画像検索装置によれば、さらに、複数の検索対象の画像については抽出基準で定義された全ての粗さのレベルに応じた特徴量を予め抽出しておき、指定された問合せ画像のうち、特徴量が抽出されていない問合せ画像については類似度を求める処理を実行する前に指定された粗さのレベルに応じた特徴量を抽出するようにしたため、画像検索処理の高速化を図ることができる。
【0551】
(13)また、上記実施形態の画像検索装置によれば、さらに、問合せ画像を少なくとも一つ指定し、検索対象の画像毎に、検索対象の画像中の所定のサイズの領域と指定された問合せ画像との類似度を予め抽出した所定の特徴量を用いて求める処理を検索対象の画像全体にわたって繰り返し実行し、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索対象の画像の中から、問合せ画像を含む画像を探し出すことができる。したがって、ユーザの意図するような画像検索を実現する一つの手法を提供することができる。
【0552】
(14)また、上記実施形態の画像検索装置によれば、さらに、検索結果の画像を問合せ画像として指定できるため、さらに詳細な絞込み検索を行うことができ、ユーザが望む通りの検索処理を実現することができる。
【0553】
(15)また、上記実施形態のコンピュータ読み取り可能な記録媒体によれば、上記実施形態のいずれか1つに記載の画像検索装置の各手段としてコンピュータを機能させるためのプログラムを記録したため、このプログラムをコンピュータに実行させることにより、検索条件を指定する際にユーザの視点を確実に装置に伝えることを可能とすると共に、ユーザの視点に合った検索結果を返すことを可能とする画像検索装置を実現することが可能となる。すなわち、ユーザが望む通りの検索処理を実現することができる画像検索装置を実現することが可能となる。
【0554】
(16)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目それぞれに対し、基準画像および分類対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの基準画像を設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を対応する種類の特徴量を用いて求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。すなわち、基準画像として適切な画像が存在しない場合であっても、例えば分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの基準画像として使用するため、分類条件を指定する際にユーザの視点を確実に装置に伝えることができると共に、このような基準画像を使用して分類処理を実行するため、ユーザの望む分類先に画像を適切に分類することが可能となる。
【0555】
(17)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目毎に、基準画像を複数設定すると共に、設定した各基準画像毎に分類対象の画像との類似度を求める際に使用する特徴量の種類を設定し、分類項目毎に、設定された種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定することにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることができると共に、分類に対するユーザの意図を確実に装置に伝えることができるため、分類に対するユーザの意図を正確に反映した分類結果を得ることができ、ユーザが望む通りの分類処理を実現することができる。すなわち、基準画像として適切な画像が存在しない場合であっても、例えば分類結果として望む画像に色の雰囲気が似た画像やオブジェクトの形状の雰囲気が似た画像を基準画像として指定し、これらの画像を合わせたものを一つの基準画像として使用するため、分類条件を指定する際にユーザの視点を確実に装置に伝えることができると共に、このような基準画像を使用して分類処理を実行するため、ユーザの望む分類先に画像を適切に分類することが可能となる。
【0556】
(18)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目毎に、基準画像を複数設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定するため、AND検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。
【0557】
(19)また、上記実施形態の画像分類装置によれば、分類項目を設定し、設定した分類項目毎に、基準画像を複数設定し、分類項目毎に、設定された各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択して分類対象の画像の総合類似度を求め、分類項目毎に求めた分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、分類対象の画像の分類先となる分類項目を決定するため、OR検索処理を応用した画像分類処理を行うことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。
【0558】
(20)また、上記実施形態の画像分類装置によれば、さらに、求めた類似度に対し、基準画像の種類に応じて任意の重み付けを行うことができるように、各基準画像毎に重要度を設定することが可能であり、分類項目毎に、各基準画像および分類対象の画像の類似度を求め、求めた類似度に対し、設定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。
【0559】
(21)また、上記実施形態の画像分類装置によれば、さらに、複数種類の特徴量を用いて基準画像および分類対象の画像の類似度を求める場合に、求めた類似度に対し、基準画像および特徴量の種類に応じて任意の重み付けを行うことができるように、各種類の特徴量毎の重要度を各基準画像毎に設定することが可能であり、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、設定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、ユーザの意図を分類条件として正確に表現できるため、ユーザの意図を正確に装置に伝えることが可能となると共に、重要度は類似度に対する重み付けとして反映されるため、ユーザの意図が反映された画像の分類結果を得ることが可能となる。
【0560】
(22)また、上記実施形態の画像分類装置によれば、さらに、複数種類の特徴量を用いて基準画像および分類対象の画像の類似度を求める場合に、求めた類似度に対し、特徴量の種類に応じて任意の重み付けを行うことができるように、分類項目毎に、設定された各基準画像間の類似度を各種類の特徴量毎に求め、各種類の特徴量毎に求めた類似度に基づいて各基準画像間における各特徴量毎の重要度を決定し、分類項目それぞれについて、各種類の特徴量毎に各基準画像および分類対象の画像の類似度を求め、各種類の特徴量毎に求めた類似度に対し、決定された重要度に応じた重み付けを行った後、総合類似度を求めることにより、装置側でユーザが指定した基準画像間における各種類の特徴量の重要度を判断し、判断した重要度を画像間の類似度に反映させるため、ユーザの意図に合った画像の分類結果を返すことが可能となる。したがって、ユーザが望む通りの分類処理を実現することができ、ユーザが望む分類結果を得ることができる。
【0561】
(23)また、上記実施形態の画像分類装置によれば、さらに、分類項目毎に分類された画像をさらに分類するための分類項目を設定できるため、詳細な画像の分類処理を実行することが可能となる。
【0562】
(24)また、上記実施形態の画像分類装置によれば、特徴量の種類が指定されると、指定された種類の特徴量を用いて分類対象の各画像間の類似度を求め、求めた分類対象の各画像間の類似度に基づいて、分類対象の各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示し、さらに、表示された代表画像の一つを指定すると共に、特徴量の種類を指定すると、指定された種類の特徴量を用いて代表画像の属するグループに分類された各画像を類似する画像同士のグループに分類し、分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示することにより、画像を分類したい時にユーザが希望する基準で画像を動的に分類していくことが可能となるため、画像の分類を利用して所望の画像を探し出すことが可能となる。したがって、新たな分類方法で画像を分類可能な画像分類装置を提供することができる。
【0563】
(25)また、上記実施形態の画像分類装置によれば、さらに、指定可能な特徴量の種類を画面表示し、指定された特徴量の種類に関連付けて各グループの代表画像を画面表示し、分類対象の複数の画像を分類した結果を木構造で画面表示するため、ユーザが画像分類処理の様子を一目で認識でき、動的な画像分類処理の利便性の向上を図ることができる。
【0564】
(26)また、上記実施形態の画像分類装置によれば、さらに、分類項目毎に分類された任意の画像を問合せ画像として用いて、問合せ画像と同一または類似の画像を検索するため、装置の利便性の向上を図ることができる。
【0565】
(27)また、上記実施形態の画像分類装置によれば、さらに、上記実施形態のいずれか一つに記載の画像検索装置を用いて検索を行うため、検索条件を指定する際にユーザの視点を確実に装置に伝えることが可能となると共に、ユーザの視点に合った検索結果を返すことが可能となり、装置の利便性の向上を図ることができる。
【0566】
(28)また、上記実施形態の画像分類装置によれば、さらに、分類対象の画像が検索結果の画像であるため、例えば、画像の分類を検索結果の絞込みに応用することが可能となる。
(29)また、上記実施形態のコンピュータ読み取り可能な記録媒体によれば、上記実施形態のいずれか一つに記載の画像分類装置の各手段としてコンピュータを機能させるためのプログラムを記録したため、このプログラムを実行することにより、分類条件を指定する際にユーザの視点を確実に装置に伝えることを可能とすると共に、ユーザの視点に合った分類項目に画像を分類することを可能とする画像分類装置を実現することが可能となる。すなわち、ユーザの望む分類先に画像を適切に分類することが可能となる画像分類装置を実現することができる。
【0567】
【発明の効果】
本発明の画像分類装置によれば、問合せ画像を少なくとも一つ指定すると共に、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定し、抽出基準に基づいて、問合せ画像および複数の検索対象の画像から少なくとも指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出し、検索対象の画像毎に、指定された粗さのレベルに応じた特徴量を用いて問合せ画像との類似度を求め、検索対象の画像毎に求めた類似度に基づいて検索結果を出力するため、検索精度の異なる複数種類の検索処理を実行することが可能となる。すなわち、ユーザが検索に使用する特徴量の粗さのレベルを少なくとも一つ指定することができるため、検索に対するユーザの視点の細かさを検索条件として表現でき、ユーザの意図を検索条件として正確に表現することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1に係る画像検索装置のブロック構成図である。
【図2】本発明の実施の形態1に係る画像検索装置において実行される処理を示すブロック図である。
【図3】本発明の実施の形態1に係る画像検索装置において実行される画像登録処理の概略を示すフローチャートである。
【図4】本発明に係る画像検索装置において、画像から抽出した特徴量に応じて各画像を特徴空間にマップした様子を示す説明図である。
【図5】本発明の実施の形態1に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図6】本発明の実施の形態1に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図7】本発明の実施の形態2に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図8】本発明の実施の形態2に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図9】本発明の実施の形態3に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図10】本発明の実施の形態3に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図11】本発明の実施の形態4に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図12】本発明の実施の形態4に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図13】本発明の実施の形態5に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図14】本発明の実施の形態5に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図15】本発明の実施の形態6に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図16】本発明の実施の形態6に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図17】本発明の実施の形態7に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図18】本発明の実施の形態8に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図19】本発明の実施の形態9に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図20】本発明の実施の形態10に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図21】本発明の実施の形態11に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図22】本発明の実施の形態12に係る画像検索装置において、問合せ画像および検索対象の画像から抽出する特徴量の粗さのレベルを説明する説明図である。
【図23】本発明の実施の形態12に係る画像検索装置における特徴量抽出処理(エッジ特徴の抽出)を説明する説明図である。
【図24】本発明の実施の形態12に係る画像検索装置における特徴量抽出処理(エッジ特徴の抽出)を説明する説明図である。
【図25】本発明の実施の形態12に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図26】本発明の実施の形態12に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図27】本発明の実施の形態12に係る画像検索装置において実行される画像検索処理の変形例1を示す説明図である。
【図28】本発明の実施の形態12に係る画像検索装置において実行される画像検索処理の変形例2を示す説明図である。
【図29】本発明の実施の形態13に係る画像検索装置において実行される画像検索処理の概略を説明するための説明図である。
【図30】本発明の実施の形態13に係る画像検索装置において実行される画像検索処理の概略を説明するための説明図である。
【図31】本発明の実施の形態13に係る画像検索装置において実行される画像検索処理を示すフローチャートである。
【図32】本発明の実施の形態13に係る画像検索装置において検索時に使用される検索ウインドウを示す説明図である。
【図33】本発明の実施の形態14に係る画像分類装置のブロック構成図である。
【図34】本発明の実施の形態14に係る画像分類装置において実行される処理を示すブロック図である。
【図35】本発明の実施の形態14に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。
【図36】本発明の実施の形態14に係る画像分類装置において実行される画像分類処理を示すフローチャートである。
【図37】本発明の実施の形態14に係る画像分類装置において、画像が分類された後の画像分類ウインドウの様子を示す説明図である。
【図38】本発明の実施の形態15に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。
【図39】本発明の実施の形態16に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。
【図40】本発明の実施の形態16に係る画像分類装置において実行される画像分類処理を示すフローチャートである。
【図41】本発明の実施の形態17に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。
【図42】本発明の実施の形態18に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。
【図43】本発明の実施の形態19に係る画像分類装置において、画像の分類項目の設定処理や分類後の画像の表示を行うための画像分類ウインドウの一例を示す説明図である。
【図44】本発明の実施の形態21に係る画像分類装置において実行される画像分類処理を示すフローチャートである。
【図45】本発明の実施の形態22に係る画像分類装置において実行される画像分類処理を示すフローチャートである。
【図46】本発明の実施の形態25に係る画像分類装置において実行される画像分類処理を示す説明図である。
【図47】本発明の実施の形態25に係る画像分類装置において実行される画像分類処理を示す説明図である。
【図48】本発明の実施の形態25に係る画像分類装置において実行される画像分類処理を示す説明図である。
【図49】本発明に係る画像検索装置および/または画像分類装置を実現するプログラムを記録した記録媒体およびプログラムの配布形態を示す説明図である。
【符号の説明】
100 コンピュータ
107 画像検索ソフト
108 画像DB
109 画像特徴DB
151 U/I部
152 特徴抽出エンジン
153 マッチング・エンジン
200a〜200h 検索ウインドウ
201 検索ボタン
202 画像表示欄
203,362 特徴量指定ボタン
204,207,208,363,366,367 重要度指定バー
205,364 AND指定ボタン
206,365 OR指定ボタン
209 特徴指定欄
210 粗さレベル指定欄
301 画像分類ソフト
302 分類木DB
350a〜350f 画像分類ウインドウ
351〜358 フォルダ
360a〜360f 分類条件設定ウィンドウ
361 設定ボタン
400 画像分類ウインドウ
401,402a〜404a,402b〜404b 分類項目
405〜412 代表画像
450 記録媒体
451 サーバ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image search device for searching for an image desired by a user from a large number of images and an image classification device for classifying a large number of images into a predetermined classification destination. The present invention relates to an image search device and an image classification device capable of performing search processing and image classification processing.
[0002]
[Prior art]
In recent years, with the development of computer technology and image processing technology, attempts to build an image database by accumulating a large amount of electronic images have been actively conducted. What is important when constructing an image database is an image search device for easily obtaining an image to be used from among a large amount of accumulated images.
[0003]
As one of the image search devices, a search key using words is assigned to each image, and the input keyword is matched with the search key attached to the image in the same way as the document search to match the keyword. In some cases, an image with a search key to be returned is returned as a search result.
[0004]
However, since the impression that a person receives from an image varies from person to person, it cannot be said that the search key attached to the image expresses all the impression that the person receives from the image. Therefore, in the image search using the search key by words, In many cases, a satisfactory image cannot be obtained. This is because the shape features and positional relationships of things (hereinafter referred to as “objects”) such as humans, animals, and buildings that appear in the image cannot often be expressed in appropriate words.
[0005]
Therefore, instead of searching for an image by matching a keyword with a search key by words, a specific image (hereinafter referred to as “query image”) is given as a search condition, and an image similar to the query image is stored in the image database. It is desirable to be able to search from within. In order to realize such a search device, feature quantities representing image features are extracted from the query image and the search target image, respectively, and the similarity between the query image feature quantity and the search target image feature quantity is determined. A method has been proposed in which an image having a feature amount similar to the feature amount of the inquiry image is returned as a search result. That is, this image search apparatus searches for similar images by regarding the similarity between features as the similarity of the images themselves.
[0006]
Also, instead of using the image itself as an inquiry image, the image color (color histogram), texture, object shape, etc. are extracted as a database and stored in a database, and when searching for an image, A search device that searches for an image having a specified feature amount by specifying the feature amount of the image in the database as a search condition has also been proposed (Myron Flickner et al, “Query by Imageand Video Content: The QBIC System , ”Computer, September 1995, pp23-32).
[0009]
[Problems to be solved by the invention]
However,The conventional image search apparatus is inconvenient in that there is no degree of freedom in specifying search conditions and the user's intention cannot be accurately expressed as search conditions. Therefore, it is difficult to accurately convey the user's intention to the apparatus side, and it is difficult to accurately obtain an image desired by the user. Furthermore, in order to accurately convey the user's intention to the device side and perform the search process as intended by the user, various search methods are prepared so that the user can perform the search process in a desired manner. There must be.
[0011]
The present invention has been made in view of the above, and is an image search apparatus capable of accurately expressing a user's intention as a search condition and performing high-precision image search processing.Image classification device that applies image search processing to image classification processing, and can accurately express user's intention as a classification condition that is a reference for image classification, and can perform highly accurate image classification processingThe purpose is to provide.
[0031]
[Means for Solving the Problems]
The image classification device of the present invention sets a reference image that is a classification reference for the classification target image for each classification item that is a classification destination of the classification target image, and the reference image set for each of the classification items and the By using at least one type of feature amount representing the characteristics of the images extracted from the images to be classified, the similarity between the reference image and the image to be classified is obtained for each classification item, and based on the obtained similarity An image classification device for classifying the image to be classified into one of the classification items, wherein the classification item is set, and the similarity between the reference image and the classification target image is set for each of the set classification items. Setting means for setting one reference image for each type of feature amount used when obtaining, and each reference image and classification target image set by the setting means for each classification item And calculating the total similarity of the images to be classified by calculating the similarities using the corresponding types of feature quantities, and calculating the similarity for each classification item by the calculation means Determination means for determining a classification item to be a classification destination of the classification target image based on a total similarity of the classification target image and a preset classification destination determination criterion, and an arbitrary classification for each classification item A search unit that searches for an image that is the same as or similar to the query image by using the image as a query image, and the search unit includes:Specify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level, and a roughness designated by at least the designation means based on the extraction criteria when extracting at least one type of feature quantity from the inquiry image and a plurality of search target images; A feature extraction unit that extracts a feature amount corresponding to the level of the image at a predetermined timing, and at least one feature amount extracted according to the roughness level designated by the designation unit for each image to be searched Search means for obtaining the similarity to the query image using the search means, and output means for outputting the search result based on the similarity obtained for each image to be searched by the search means. It was.
[0032]
BookThe image classification device of the invention sets a reference image that is a classification reference of the classification target image for each classification item that is a classification destination of the classification target image, and the reference image set for each of the classification items and the classification By using at least one type of feature amount representing the feature of the image extracted from each target image, the similarity between the reference image and the classification target image is obtained for each classification item, and based on the obtained similarity An image classification apparatus for classifying the image to be classified into any of the classification items, wherein the classification item is set, a plurality of reference images are set for each set classification item, and each set reference image is set Setting means for setting the type of feature amount used when obtaining the similarity to the image to be classified for each time, and each reference using the feature amount of the type set by the setting means for each classification item Calculating the similarity between the image and the image to be classified, and calculating the total similarity of the images to be classified by adding the obtained similarities, and the classification object obtained for each classification item by the calculating means Determination means for determining a classification item to be a classification destination of the image to be classified based on the overall similarity of the images and a preset classification destination determination criterion, and an arbitrary image classified for each classification item A search unit that searches for an image that is the same as or similar to the query image by using it as a query image;Specify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level, and a roughness designated by at least the designation means based on the extraction criteria when extracting at least one type of feature quantity from the inquiry image and a plurality of search target images; A feature extraction unit that extracts a feature amount corresponding to the level of the image at a predetermined timing, and at least one feature amount extracted according to the roughness level designated by the designation unit for each image to be searched Search means for obtaining the similarity to the query image using the search means, and output means for outputting the search result based on the similarity obtained for each image to be searched by the search means. It was.
[0033]
BookThe image classification device of the invention sets a reference image that is a classification reference of the classification target image for each classification item that is a classification destination of the classification target image, and the reference image set for each of the classification items and the classification By using at least one type of feature amount representing the feature of the image extracted from each target image, the similarity between the reference image and the classification target image is obtained for each classification item, and based on the obtained similarity An image classification device for classifying the image to be classified into any of the classification items, wherein the classification item is set, setting means for setting a plurality of reference images for each set classification item, and the classification item Calculation means for obtaining the similarity between each reference image set by the setting means and the image to be classified for each time, and calculating the total similarity of the images to be classified by adding the obtained similarities And determining a classification item to be a classification destination of the classification target image based on a total similarity of the classification target image obtained for each classification item by the computing unit and a preset classification destination determination criterion. And a search unit that searches for an image that is the same as or similar to the query image by using an arbitrary image classified for each classification item as a query image, the search unit includes:Specify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level, and a roughness designated by at least the designation means based on the extraction criteria when extracting at least one type of feature quantity from the inquiry image and a plurality of search target images; A feature extraction unit that extracts a feature amount corresponding to the level of the image at a predetermined timing, and at least one feature amount extracted according to the roughness level designated by the designation unit for each image to be searched Search means for obtaining the similarity to the query image using the search means, and output means for outputting the search result based on the similarity obtained for each image to be searched by the search means. It was.
[0034]
BookThe image classification device of the invention sets a reference image that is a classification reference of the classification target image for each classification item that is a classification destination of the classification target image, and the reference image set for each of the classification items and the classification By using at least one type of feature amount representing the feature of the image extracted from each target image, the similarity between the reference image and the classification target image is obtained for each classification item, and based on the obtained similarity An image classification device for classifying the image to be classified into any of the classification items, wherein the classification item is set, setting means for setting a plurality of reference images for each set classification item, and the classification item Every time, the similarity between each reference image set by the setting means and the image of the classification target is obtained, and the similarity indicating the highest similarity is selected from the obtained similarities, and the classification target is selected. Based on the calculation means for obtaining the overall similarity of the images, the total similarity of the classification target images obtained for each of the classification items by the calculation means, and a preset classification destination determination criterion, the classification target images A determination unit that determines a classification item to be a classification destination; and a search unit that searches for an image that is the same as or similar to the inquiry image by using an arbitrary image classified for each classification item as an inquiry image. The search means includesSpecify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level, and a roughness designated by at least the designation means based on the extraction criteria when extracting at least one type of feature quantity from the inquiry image and a plurality of search target images; A feature extraction unit that extracts a feature amount corresponding to the level of the image at a predetermined timing, and at least one feature amount extracted according to the roughness level designated by the designation unit for each image to be searched Search means for obtaining the similarity to the query image using the search means, and output means for outputting the search result based on the similarity obtained for each image to be searched by the search means. It was.
[0039]
BookThe image classification device of the invention extracts at least one type of feature amount representing the feature of an image from a plurality of images to be classified, and uses the extracted feature amount to group the images to be classified into groups of similar images. An image classification apparatus for classifying, wherein a designation unit that designates a type of the feature quantity, and a feature quantity type designated by the designation unit, the feature type of the classification target is used to designate the classification target Classification means for obtaining similarity between images and classifying the images to be classified into groups of similar images based on the obtained similarity between the images to be classified, and classified by the classification means The display means for selecting a representative image representing the group from each group and displaying it on the screen, and using any image classified for each group as the inquiry image, can be the same as the inquiry image. Search means for searching for similar images, wherein the specifying means further specifies one of the representative images displayed by the display means, and can specify the type of the feature quantity, and the classification When the designation unit designates the type of the representative image and the feature quantity, the means uses the designated type of feature quantity to compare images classified into the group to which the representative image belongs. The display means selects a representative image representing the group from each group classified by the classification means and displays it on the screen, and the search meansSpecify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level, and a roughness designated by at least the designation means based on the extraction criteria when extracting at least one type of feature quantity from the inquiry image and a plurality of search target images; A feature extraction unit that extracts a feature amount corresponding to the level of the image at a predetermined timing, and at least one feature amount extracted according to the roughness level designated by the designation unit for each image to be searched Search means for obtaining the similarity to the query image using the search means, and output means for outputting the search result based on the similarity obtained for each image to be searched by the search means. It was.
[0044]
The recording medium of the present invention also includes any one of the image classification devices of the present invention.A program for operating the computer as each means was recordedComputer-readable recording mediumIt is.
[0045]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of an image search device and an image classification device according to the present invention will be described below in detail with reference to the accompanying drawings.
[0046]
[Embodiment 1]
First, an image search apparatus according to the present invention will be described. FIG. 1 is a block configuration diagram of the image search apparatus according to the first embodiment. The image search apparatus shown in FIG. 1 includes a
[0047]
FIG. 2 is a block diagram showing processing executed in the image search apparatus shown in FIG. Although details of the processing will be described later, in FIG. 2, a user interface (U / I) unit 151 (corresponding to the designation unit and output unit of the present invention) A search condition input screen, a search result display screen, and the like are displayed, and search condition input, search result output processing, and the like are executed. The feature extraction engine 152 (corresponding to the importance determination unit and the feature extraction unit of the present invention) extracts the feature amount of the image from the image (search target image) registered in the
[0048]
In FIG. 2, a U /
[0049]
Next, regarding processing executed by the image search apparatus having the above-described configuration,
(1) Feature extraction processing
(2) Image search processing
This will be explained in the order.
[0050]
(1) Feature extraction processing
First, a process for extracting a feature amount representing a feature of an image from each image will be described using a process for registering an image to be searched in the
[0051]
FIG. 3 is a flowchart showing an outline of an image registration process executed in the image search apparatus according to the first embodiment. The
[0052]
Then, the
[0053]
An image color histogram (hereinafter simply referred to as “color”) is divided into a plurality of regions by selecting an appropriate color space (eg, Lab, Luv, HSV, etc.), and each pixel of the image is colored. It can be obtained by examining which region in the space corresponds and normalizing the number of pixels in each region by the total number of pixels. An edge of an image (hereinafter referred to as “structure”) can be obtained by using an edge extraction filter such as a sobel. Furthermore, the texture can be obtained by texture extraction based on the co-occurrence matrix (reference: Mikio Takagi, supervised by Yoshihisa Shimoda, “Image Analysis Handbook”, The University of Tokyo Press, 1991).
[0054]
After extracting the feature amount from the image in step S12, the
[0055]
From the viewpoint of speeding up the image search, it is preferable to extract the feature amount in advance and register it in the
[0056]
By executing the processing shown in FIG. 3, the image registered in the
[0057]
(2) Image search processing
Next, image search processing executed in the image search device according to
[0058]
FIG. 5 is an explanatory diagram showing a search window used at the time of search, and FIG. 6 is a flowchart showing image search processing according to the first embodiment. The U /
[0059]
The user designates an inquiry image for each type of feature amount in each image designation field shown in FIG. 5 (S101). The image designated as the inquiry image may be any image such as an image read by a scanner, an image captured by a digital camera, an image downloaded via the
[0060]
Here, a method for specifying an inquiry image will be described in detail. As a premise, there is no single image that appropriately represents an image desired by the user as a search result. For example, an image A, an image structure (object that is similar to the image color desired in the search result, and an object It is assumed that an image B having a similar atmosphere and an image C having a similar texture atmosphere in the image are found.
[0061]
As shown in FIG. 5, the user designates these three images A, B, and C as inquiry images in the image designation columns A, B, and C, respectively. Specifically, an inquiry image A whose image color atmosphere is similar to the desired image as a search result is designated in the image designation field A corresponding to the feature amount “color”. Similarly, an inquiry image B whose image structure atmosphere is similar to the desired image as a search result is displayed in the image designation field B corresponding to the feature quantity “structure”, and an inquiry image C whose texture atmosphere in the image is similar. Is designated in the image designation field C corresponding to the feature amount “texture”.
[0062]
In the following description, the image designated in the image designation field A is the query image A, the image designated in the image designation field B is the query image B, and the image designated in the image designation field C is the query image C. I will call it.
[0063]
In this way, not only simply specifying multiple query images, but also specifying a query image for each type of feature quantity used for image search, a single virtual query image considered appropriate by the user is expressed. In addition, the user's intention for the search can be accurately transmitted to the device side. Therefore, it is possible to obtain an image of a search result reflecting the user's intention by a search process described later.
[0064]
Returning to the flowchart of FIG. When the user designates the
[0065]
Note that if the feature amount extracted from the query images A, B, and C is registered in the
[0066]
Subsequently, the
[0067]
The processing in step S103 will be specifically described taking one search target image as an example. The
[0068]
Thereafter, the
[0069]
[Expression 1]
[0070]
In this way, the
[0071]
The U /
[0072]
Note that it is not necessary to display all the images to be searched in the
[0073]
As a result of referring to the image of the search result displayed in the
[0074]
Thus, according to the image search device according to the first embodiment, one query image is designated for each type of feature amount used when obtaining the similarity between the query image and the search target image. For each search target image, the similarity to each specified query image is obtained using the corresponding type of feature amount, and the similarity to each obtained query image is totaled to obtain the overall similarity of the search target image Since the user's intention can be accurately expressed as a search condition by outputting the search result based on the total similarity obtained for each image to be searched, it is possible to accurately convey the user's intention to the device. In addition, the user's intention for the search can be surely communicated to the apparatus, so that a search result accurately reflecting the user's intention for the search can be obtained, and a highly accurate image as desired by the user can be obtained. It is possible to perform the search process.
[0075]
For example, even if an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to an image desired as a search result or an image having an object shape atmosphere is specified as an inquiry image. Can be used as one query.
[0076]
In the description of the first embodiment, the query image is specified corresponding to all types of feature amounts, but it is not always necessary to specify the query image corresponding to all types of feature amounts. . In addition, although three types of feature quantities of color, structure, and texture are used, these are merely examples, and are not intended to limit the types and number of feature quantities.
[0077]
[Embodiment 2]
As in the case of the first embodiment, the image search apparatus according to the second embodiment gives the apparatus a similar viewpoint between the query image and the image desired by the user as a search result simply by specifying the query image as a search condition. In consideration of the fact that it cannot be transmitted, by specifying multiple query images and the types of features used for the search, it is possible to represent a single virtual query image that the user thinks appropriate. It is a thing. Note that in the image search device according to the second embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.
[0078]
FIG. 7 is an explanatory view showing a search window used at the time of search, and FIG. 8 is a flowchart showing image search processing according to the second embodiment. The U /
[0079]
As described in the first embodiment, as a premise, there is no single image that appropriately represents an image that the user desires as a search result. For example, an image color arrangement atmosphere exists in the image that is desired as a search result. Assume that a similar image A, an image B having a similar image structure atmosphere, and an image C having a similar texture atmosphere in the image are found.
[0080]
The user designates a plurality of inquiry images in each image designation field shown in FIG. 7 and designates the type of feature amount used for obtaining the similarity with the image to be searched for each designated inquiry image ( S201).
[0081]
Specifically, the user designates three images A, B, and C as inquiry images in the image designation fields A, B, and C as shown in FIG. Then, the user designates “color” with the feature
[0082]
In this way, not only simply specifying a plurality of query images, but specifying a feature quantity corresponding to the feature of the image that the user places importance on for each specified query image, a virtual one that the user considers appropriate It is possible to express an inquiry image and accurately convey the user's intention for the search to the apparatus side. Therefore, it is possible to obtain an image of a search result reflecting the user's intention by a search process described later.
[0083]
However, in FIG. 7, different types of feature amounts are designated for each inquiry image, but the same type of feature amounts may be designated. That is, the same type of feature amount may be specified for all of the plurality of inquiry images.
[0084]
Then, when the user designates the
[0085]
If the feature amounts extracted from the query images A, B, and C are registered in the
[0086]
Subsequently, the
[0087]
The processing in step S203 will be specifically described taking one search target image as an example. The
[0088]
Thereafter, the
[0089]
[Expression 2]
[0090]
In this way, the
[0091]
The U /
[0092]
Note that it is not necessary to display all the images to be searched in the
[0093]
As a result of referring to the image of the search result displayed in the
[0094]
As described above, according to the image search device according to the second embodiment, a plurality of query images are specified, and the type of feature amount used when obtaining the similarity with the search target image for each specified query image For each image to be searched, the similarity with each query image is calculated using the specified type of feature amount, and the total similarity is obtained by summing the similarities with each obtained query image. The user's intention can be accurately expressed as a search condition by outputting the search result based on the overall similarity obtained for each image to be searched, so that the user's intention can be accurately transmitted to the device, Since the user's intention for the search can be reliably transmitted to the apparatus, a search result that accurately reflects the user's intention for the search can be obtained, and the image search process can be performed with high accuracy as desired by the user. It is possible.
[0095]
For example, even if an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to an image desired as a search result or an image having an object shape atmosphere is specified as an inquiry image. Can be used as one query. In addition, since the feature quantity desired by the user can be specified for each specified inquiry image, the search condition can be freely set as compared with the image search apparatus according to the first embodiment.
[0096]
In the description of the second embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. That is, even if only one inquiry image is specified, the search process can be performed in the same way, but in the second embodiment, it is meaningful to specify a plurality of images. In addition, although three types of feature quantities of color, structure, and texture are used, these are merely examples and are not intended to limit the types of feature quantities.
[0097]
[Embodiment 3]
The image search device according to the third embodiment is configured so that the user's intention for the search can be expressed more accurately in the image search device of the second embodiment.
[0098]
FIG. 9 is an explanatory diagram showing a
[0099]
As described in the first and second embodiments, as a premise, there is no single image that appropriately represents an image desired by the user as a search result. Assume that an image A having a similar atmosphere, an image B having a similar image structure atmosphere, and an image C having a similar texture atmosphere in the image are found.
[0100]
The user designates these three images as inquiry images A, B, and C in the image designation columns A, B, and C, respectively, as shown in FIG. Next, the user designates “color” with the feature
[0101]
Subsequently, the user uses the
[0102]
For example, among the query images A, B, and C, the query image A having a color scheme similar to the desired image as the search result is the most important, that is, an image with a color scheme such as the query image A as the search result is particularly important. If the user feels desired, the user moves the
[0103]
For example, when the user feels that a texture image such as the query image C is not desired as a search result, the user moves the
[0104]
As described above, by enabling the user to designate the importance level for each inquiry image, the user's intention for the search can be accurately expressed as the search condition. That is, since the importance is reflected as a weighting on the similarity by a search process described later, it is possible to obtain a search result image reflecting the user's intention. Note that it is not always necessary to specify the degree of importance. When the user desires, the degree of importance may be specified for the desired inquiry image.
[0105]
Next, image search processing by the image search apparatus according to
[0106]
Subsequently, when the user designates the
[0107]
Subsequently, the
[0108]
The processing in step S303 will be specifically described taking one search target image as an example. The
[0109]
Since the similarity to be weighted is the distance between the feature amounts of the images, the weighting of “+” based on the importance of “+” works in the direction of shortening the distance between the images, and “−”. The weighting of “−” based on the importance level of the function works in the direction of increasing the distance between images.
[0110]
Thereafter, the
[0111]
[Equation 3]
[0112]
In this way, the
[0113]
The U /
[0114]
As a result of referring to the image of the search result displayed in the
[0115]
As described above, according to the image search device according to the third embodiment, the degree of importance is set for each inquiry image so that the obtained similarity can be arbitrarily weighted according to the type of inquiry image. By specifying the degree of similarity with each query image for each image to be searched and weighting the degree of similarity with each obtained query image according to the specified importance Since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so the user's intention is reflected. An image as a search result can be obtained.
[0116]
In the description of the third embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. However, in the third embodiment, it is meaningful to specify a plurality of inquiry images because the importance is specified for each inquiry image.
[0117]
Although detailed description is omitted, the image search apparatus described in the first embodiment can also specify the importance for each inquiry image as described in the third embodiment. good.
[0118]
[Embodiment 4]
The image search device according to the fourth embodiment enables AND search to be executed as one technique for accurately expressing the user's intention as a search condition. Note that in the image search device according to the fourth embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.
[0119]
FIG. 11 is an explanatory diagram showing a
[0120]
Next, image search processing by the image search apparatus according to Embodiment 4 will be described. FIG. 12 is a flowchart showing image search processing according to the fourth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 11, selects the AND
[0121]
Subsequently, when the user designates the
[0122]
The
[0123]
The processing in step S403 will be specifically described by taking one image to be searched as an example. The
[0124]
Thereafter, the
[0125]
[Expression 4]
[0126]
In this way, the
[0127]
When performing a search using a plurality of types of feature amounts, the similarity (distance) between the search target image and each query image is obtained for each type of feature amount, and for each feature amount for each search target image. The total similarity can be obtained by summing all the similarities with the respective query images obtained in the above.
[0128]
Subsequently, the U /
[0129]
As a result of referring to the image of the search result displayed in the
[0130]
As described above, according to the image search device according to the fourth embodiment, a plurality of query images are specified, and for each search target image, the similarity with each specified query image is obtained, and each obtained query image is obtained. Since the total similarity is obtained by summing the similarities and the search result is output based on the overall similarity obtained for each image to be searched, an AND search can be performed. Can be provided as a search condition.
[0131]
In the description of the fourth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the type of feature quantity is not particularly shown, but any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.
[0132]
[Embodiment 5]
The image search device according to the fifth embodiment is such that the user's intention for the search can be expressed more accurately in the image search device of the fourth embodiment.
[0133]
FIG. 13 is an explanatory diagram showing a
[0134]
As described in the third embodiment, the
[0135]
Next, image search processing by the image search apparatus according to Embodiment 5 will be described. FIG. 14 is a flowchart showing search processing according to the fifth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 13 and designates the importance as necessary for each designated inquiry image. Further, the user selects an AND
[0136]
When the user designates the
[0137]
The
[0138]
The processing in step S503 will be specifically described taking one search target image as an example. The
[0139]
Thereafter, the
[0140]
[Equation 5]
[0141]
In this way, the
[0142]
Subsequently, the U /
[0143]
As a result of referring to the image of the search result displayed in the
[0144]
As described above, according to the image search device according to the fifth embodiment, the importance is set for each inquiry image so that the obtained similarity can be arbitrarily weighted according to the type of the inquiry image. By specifying the degree of similarity with each query image for each image to be searched and weighting the degree of similarity with each obtained query image according to the specified importance Since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so the user's intention is reflected. An image as a search result can be obtained.
[0145]
In the description of the fifth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the type of feature quantity is not particularly shown, but any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.
[0146]
[Embodiment 6]
The image search device according to the sixth embodiment is such that the user's intention for the search can be expressed more accurately in the image search device of the fourth embodiment.
[0147]
FIG. 15 is an explanatory diagram showing a search window 200f used in the image search apparatus according to the sixth embodiment. The search window 200f shown in FIG. 15 is a feature used for the search for each of the inquiry images A, B, and C specified in the image specification fields A, B, and C in addition to the
[0148]
The importance
[0149]
Specifically, the importance designation method will be described with reference to the inquiry image A in FIG. For example, when it is considered that the color arrangement in the inquiry image A is close to the desired image as a search result, the user operates the color
[0150]
In the search processing described later, the similarity between the query image A and the search target image is obtained for each color feature, structure feature, and texture feature. In the above example, the importance level of “+” is specified for the color feature amount, and the feature amount of “−” is specified for the structure feature amount. “+” Is weighted according to the importance of “+”, and “−” is weighted according to the importance of “−” with respect to the similarity obtained using the structural feature amount. This process is executed for the similarity to each image to be searched.
[0151]
As for the query images B and C, the process like the query image A is executed by designating the importance for each feature amount described above.
[0152]
In this way, by specifying the importance for each type of feature amount for each inquiry image, it is possible to reliably convey the user's intention for the search to the apparatus side. Then, since the importance is reflected as a weighting on the similarity obtained for each type of feature amount by the search process, it is possible to obtain an image of a search result reflecting the user's intention. Note that it is not always necessary to specify the importance level. If the user desires, the importance level may be specified for an arbitrary feature amount of the desired query image.
[0153]
Next, image search processing by the image search apparatus according to Embodiment 6 will be described. FIG. 16 is a flowchart showing search processing according to the sixth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 15, designates the importance for each type of feature amount for each designated inquiry image, and further selects an AND
[0154]
Then, when the user designates the
[0155]
Subsequently, the
[0156]
The processing in step S603 will be specifically described taking one search target image as an example. The
[0157]
Similarly, the
[0158]
Thereafter, the
[0159]
[Formula 6]
[0160]
In this way, the
[0161]
The U /
[0162]
As a result of referring to the image of the search result displayed in the
[0163]
As described above, according to the image search device according to the sixth embodiment, when the similarity between the query image and the search target image is determined using a plurality of types of feature amounts, the query image and Importance for each feature type can be specified for each query image so that arbitrary weighting can be performed according to the type of feature amount. By calculating the similarity with each query image for each feature amount, and weighting the similarity with each query image determined for each type of feature amount according to the specified importance, Since the intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so that the search result reflecting the user's intention is reflected. Images can be obtained of.
[0164]
In the description of the sixth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and may be any type of combination of feature values.
[0165]
[Embodiment 7]
The image search device according to the seventh embodiment is the image search device according to the fourth embodiment, in which the device side can capture the user's intention for the search.
[0166]
In Embodiments 5 and 6 described above, the user needs to specify the importance of the query image or the importance of each feature amount for each query image. In the image search apparatus according to Embodiment 7, The similarity between the query images specified by the user is obtained using the feature amount used for the image search, and the importance for each feature amount between the query images is calculated on the device side based on the obtained similarity for each feature amount. This is characterized in that it is determined and reflected as a weight for similarity. Here, as an example, it is assumed that search processing is performed using three types of feature quantities of color, structure, and texture, and the search window for specifying search conditions is the same as the
[0167]
Next, image search processing by the image search apparatus according to Embodiment 7 will be described. FIG. 17 is a flowchart showing search processing according to the seventh embodiment. The user displays the
[0168]
When the user designates the
[0169]
Subsequently, the
[0170]
Specifically, the
[0171]
For example, σ2Is the variance of the distance between all query images in feature i, the importance w of the i-th feature quantitykCan be determined by the following equation. k is wkIs an arbitrary coefficient for keeping the value within a proper value.
[0172]
[Expression 7]
[0173]
Note that, as described in the third, fifth, and sixth embodiments, the importance level of “+” and the importance level of “−” can be set according to the degree of dispersion of the distance.
[0174]
Thereafter, the
[0175]
The
[0176]
The processing in step S704 will be specifically described by taking one image to be searched as an example. The
[0177]
Similarly, the
[0178]
Thereafter, the
[0179]
Subsequently, the U /
[0180]
As a result of referring to the image of the search result displayed in the
[0181]
As described above, according to the image search device according to the seventh embodiment, when the similarity between the query image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity. The degree of similarity between each query image is calculated for each type of feature quantity so that arbitrary weighting can be performed according to the type, and between each query image based on the obtained degree of similarity for each type of feature quantity The degree of importance for each type of feature quantity is determined, and for each search target image, the similarity to each query image is obtained for each type of feature quantity, and each query image obtained for each type of feature quantity is obtained. By determining the importance of each type of feature amount between the query images specified by the user on the device side, by weighting the degree of similarity with the degree of importance for each type of feature amount determined, Reflect the importance of the judgment in the similarity between images Thereby Therefore, it is possible to return search results that match the user's intention. Therefore, the search process as desired by the user can be realized, and the search result desired by the user can be obtained.
[0182]
In the description of the seventh embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and may be any type of combination of feature values.
[0183]
[Embodiment 8]
The image search device according to the eighth embodiment enables an OR search to be executed as one technique for accurately expressing the user's intention as a search condition. Image search processing by the image search apparatus according to the eighth embodiment is executed when the
[0184]
FIG. 18 is a flowchart illustrating image search processing according to the eighth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 11, selects the
[0185]
When the user designates the
[0186]
The
[0187]
The processing in step S803 will be specifically described taking one search target image as an example. The
[0188]
Thereafter, the
[0189]
[Equation 8]
[0190]
In this way, the
[0191]
When searching using a plurality of types of feature amounts, the similarity (distance) between the search target image and each query image is obtained for each type of feature amount, and each type of feature amount is determined for each search target image. What is necessary is just to select the similarity (shortest distance) which shows the highest similarity from the similarity with each inquiry image calculated | required for every feature-value, and let it be a total similarity.
[0192]
Subsequently, the U /
[0193]
In the eighth embodiment, if the search target image is similar to any one of the query images A, B, and C, an overall similarity indicating high similarity is obtained. Therefore, OR search is realized.
[0194]
As a result of referring to the image of the search result displayed in the
[0195]
Thus, according to the image search device according to the eighth embodiment, a plurality of query images are specified, and for each search target image, the degree of similarity with each specified query image is obtained, and each obtained query image is obtained. By selecting the similarity that shows the highest similarity from among the similarities and outputting the search result based on the selected similarity, it is possible to perform an OR search, so the user's intention is searched It is possible to provide one method for accurately expressing as a condition.
[0196]
In the description of the eighth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the type of feature quantity is not particularly shown, but any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.
[0197]
[Embodiment 9]
The image search device according to the ninth embodiment is such that the user's intention for the search can be expressed more accurately in the image search device of the eighth embodiment. The image search process by the image search apparatus according to the ninth embodiment is executed when the
[0198]
FIG. 19 is a flowchart illustrating image search processing according to the ninth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 13 and designates the importance as necessary for each designated inquiry image. Further, the user selects an
[0199]
When the user designates the
[0200]
The
[0201]
The processing in step S903 will be specifically described taking one search target image as an example. The
[0202]
Thereafter, the
[0203]
[Equation 9]
[0204]
In this way, the
[0205]
Subsequently, the U /
[0206]
As a result of referring to the image of the search result displayed in the
[0207]
As described above, according to the image search device according to the ninth embodiment, the degree of importance is set for each inquiry image so that the obtained similarity can be arbitrarily weighted according to the type of inquiry image. By specifying the degree of similarity with each query image for each image to be searched and weighting the degree of similarity with each obtained query image according to the specified importance Since the user's intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so the user's intention is reflected. An image as a search result can be obtained.
[0208]
In the description of the ninth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the type of feature quantity is not particularly shown, but any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.
[0209]
[Embodiment 10]
The image search device according to the tenth embodiment is configured so that the user's intention for the search can be expressed more accurately in the image search device according to the eighth embodiment. The image search processing by the image search apparatus according to the tenth embodiment is executed when the
[0210]
FIG. 20 is a flowchart showing image search processing according to the tenth embodiment. The user designates a plurality of inquiry images in each image designation field shown in FIG. 15, designates the importance for each type of feature amount in each designated inquiry image, and further selects an
[0211]
Then, when the user designates the
[0212]
The
[0213]
The processing in step S1003 will be specifically described taking one search target image as an example. The
[0214]
Similarly, the
[0215]
After that, the
[0216]
[Expression 10]
[0217]
In this way, the
[0218]
Subsequently, the U /
[0219]
As a result of referring to the image of the search result displayed in the
[0220]
As described above, according to the image search device according to the tenth embodiment, when the similarity between the query image and the search target image is determined using a plurality of types of feature amounts, the query image and Importance for each feature type can be specified for each query image so that arbitrary weighting can be performed according to the type of feature amount. By calculating the similarity with each query image for each feature amount, and weighting the similarity with each query image determined for each type of feature amount according to the specified importance, Since the intention can be accurately expressed as a search condition, it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weight for the similarity, so that the search reflecting the user's intention is performed. It is possible to obtain an image of the fruit.
[0221]
In the description of the tenth embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and may be any type of combination of feature values.
[0222]
[Embodiment 11]
The image search apparatus according to the eleventh embodiment is such that the apparatus side can fetch the user's intention for the search in the image search apparatus according to the eighth embodiment. The image search process by the image search apparatus according to the eleventh embodiment is performed by using the
[0223]
FIG. 21 is a flowchart showing image search processing according to the eleventh embodiment. The user designates a plurality of inquiry images in each image designation column shown in FIG. 11, and selects the
[0224]
Thereafter, when the user designates the
[0225]
Subsequently, the
[0226]
Specifically, the
[0227]
Thereafter, the
[0228]
The
[0229]
The processing in step S1104 will be specifically described taking one search target image as an example. The
[0230]
Similarly, the
[0231]
After that, the
[0232]
The U /
[0233]
As a result of referring to the image of the search result displayed in the
[0234]
As described above, according to the image search device according to the eleventh embodiment, when the similarity between the query image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity. The degree of similarity between each query image is calculated for each type of feature quantity so that arbitrary weighting can be performed according to the type, and between each query image based on the obtained degree of similarity for each type of feature quantity The degree of importance for each type of feature quantity is determined, and for each search target image, the similarity to each query image is obtained for each type of feature quantity, and each query image obtained for each type of feature quantity is obtained. By determining the importance of each type of feature amount between the query images specified by the user on the device side, by weighting the degree of similarity with the degree of importance for each type of feature amount determined, Determining the degree of importance against the similarity between images In order to, it is possible to return search results that match the user's intention. Therefore, the search process as desired by the user can be realized, and the search result desired by the user can be obtained.
[0235]
In the description of the eleventh embodiment, three images are used as inquiry images. However, the number of inquiry images is not limited to three. Also, the types of feature values are not limited to the three types of color, structure, and texture, and may be any type of combination of feature values.
[0236]
[Embodiment 12]
The image search apparatus according to the twelfth embodiment makes it possible to perform an image search from a viewpoint different from those of the first to eleventh embodiments. Note that in the image search device according to the twelfth embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.
[0237]
The image search apparatus according to the twelfth embodiment enables the user to specify the roughness level (the fineness of the viewpoint) of the feature amount used during the search, and the feature amount corresponding to the roughness level specified by the user Is used to obtain the similarity between the query image and the search target image. Here, the roughness of the feature amount is defined to indicate the degree to which the feature amount extracted from the image faithfully represents a predetermined feature of the image to be extracted. So, in the following,
1. Feature extraction processing
2. Image search processing
Processing executed by the image search apparatus according to Embodiment 12 will be described in this order.
[0238]
1. Feature extraction processing
Here, a plurality of feature quantities having different roughnesses are extracted in advance for the search target image, and among query images, feature quantities are extracted at the time of search execution for query images from which feature quantities have not been extracted. I will decide. The timing for extracting the feature amount from the search target image is set when the search target image is registered in the
[0239]
The
[0240]
In the twelfth embodiment, for example, the
[0241]
Level 1: As shown in FIG. 22A,
Level 2: As shown in FIG. 22B, the image is divided into four to generate divided images A to D, and feature amounts A to D are extracted from the divided images A to D, respectively. A feature amount 2 (a feature amount group) composed of feature amounts A to D is extracted from the image.
Level 3: As shown in FIG. 22C, the image is divided into eight to generate divided images A to H, and feature amounts A to H are extracted from the divided images A to H, respectively. A feature amount 3 (a feature amount group) composed of feature amounts A to H is extracted from the image.
Level 4: As shown in FIG. 22 (d), an image is divided into 16 to generate divided images A to P, and feature amounts A to P are extracted from the divided images A to P, respectively. A feature amount 4 (a feature amount group) composed of feature amounts A to P is extracted from the image.
[0242]
Here, the process of extracting the feature quantities of
[0243]
(1) Structure
▲ 1 ▼
For example, edge information is extracted from the image input in step S11 using an edge extraction filter such as sobel. From the extracted edge information, the edge position, edge strength and direction can be obtained. The edge intensity is binarized with an appropriate threshold value, and edge image data of edge components in the vertical and horizontal directions is obtained. As an example, edge image data of edge components in the vertical and horizontal directions obtained from the image shown in FIG. 23 are shown in FIGS.
[0244]
24A to 24D, assuming that the edge portion is a black pixel and the others are white pixels,
-Ratio of black pixels to the entire image
・ Black pixel center of gravity
・ Dispersion of black pixels
-Average size of connected rectangles of black pixels
・ Distribution of the size of the connected rectangle of black pixels
Such edge information is extracted from each edge image data, and this is used as the
[0245]
▲ 2 ▼ Level 2
The edge image data shown in FIGS. 24A to 24D is divided into divided images A to D (four divisions) as shown in FIG. 22B, and each divided image A to D is changed to (1). The described edge information is extracted to obtain the feature amounts A to D of the structure in units of divided images. As a result, the feature amount 2 composed of the feature amounts A to D can be extracted from the image.
[0246]
(3)
For
[0247]
(2) Color
Next, a process of extracting the image color (color histogram) as a feature amount will be described.
[0248]
▲ 1 ▼
An appropriate color space (for example, Lab, Luv, HSV, etc.) is selected and divided into a plurality of regions, and it is examined which region in the color space each pixel of the image input in step S11 corresponds to. The
[0249]
▲ 2 ▼ Level 2
An appropriate color space (for example, Lab, Luv, HSV, etc.) is selected and divided into a plurality of regions, and the image input in step S11 is divided into divided images A to D as shown in FIG. (4 divisions). Then, it is possible to extract the feature amount A by examining which region in the color space each pixel of the divided image A corresponds to and normalizing the number of pixels for each region with the number of pixels of the entire divided image A. . Similar processing is performed on the other divided images B to D to extract the feature amounts B to D, respectively, and the feature amount 2 including the feature amounts A to D is extracted from the image input in step S11.
[0250]
(3)
For
[0251]
In this way, by extracting feature values from the same image by changing the number of divisions, for example, an image is entirely blue, but blue and a little red are mixed in detail. Thus, it is possible to extract a feature amount depending on the fineness of the viewpoint. For example, it is possible to extract a feature amount including information indicating at which position in the image centered on blue that red is dispersed.
[0252]
In this manner, after extracting the feature amount of each level from the image input in step S11, the
[0253]
Here, the description has been made by taking as an example the extraction of the image structure and the color feature as the feature amount, but other types of features may be extracted as the feature amount. For example, even when an image is divided into four, various methods other than the dividing method shown in FIG. 22B are conceivable (for example, an image is divided into four vertically or horizontally). Therefore, the division method can be arbitrarily set.
[0254]
2. Image search processing
FIG. 25 is an explanatory diagram showing an example of a
[0255]
If no feature quantity is designated in the
[0256]
Subsequently, an image search process according to Embodiment 12 will be described. Here, since different processing is performed depending on how the search condition is specified in the
[0257]
(1) Outline of image search processing
First, an outline of the image search processing according to the twelfth embodiment will be described. The user designates at least one inquiry image in the image designation field shown in FIG. 25, and in the
[0258]
Subsequently, when the user designates the
[0259]
The
[0260]
The feature amount F is normally expressed as a vector F = {f1, f2, f3,..., Fn}, and the feature amounts extracted from the images a and b are represented by the following formula 11, respectively. The differential distance formula D (Fa, Fb) is generally used as the distance definition formula.
[0261]
## EQU11 ##
[0262]
This distance formula can also be used in the case of “structure” and “color” feature quantities. However, when the “ratio of black pixels to the whole image” in “structure” is used as a feature quantity as a histogram, An appropriate similarity can be obtained when there are enough edges, but an appropriate similarity cannot be obtained when there are few edges in the image.
[0263]
In the sense of similarity to human edges, for example, an image with no edges is slightly different from an image with little edges, but if the image has enough edges, the amount is slightly different. But the difference is insensitive. Therefore, this problem can be solved by normalizing the histogram with the number of all edge pixels (normalized distance equation) in order to increase the accuracy of the distance than the difference distance equation.
[0264]
That is, the elements of the histogram are given by the following formula.
foi = fi / N
Note that foi is a normalized histogram element. Further, the total number of pixels N is given by the equation (12).
[0265]
[Expression 12]
[0266]
Note that normalization is not performed when the vector elements are all 0 and S = 0. That is, the normalized distance formula is given by the formula (13).
[0267]
[Formula 13]
[0268]
When the number of edges in the image is small, the above formula is effective, but when the number is large, the conventional histogram can obtain a more appropriate similarity. Therefore, the formula of formula 14 is devised so that the formula becomes close to the conventional formula when there are many edges, and the formula becomes close to the above formula when there are few edges.
[0269]
[Expression 14]
[0270]
Note that the value for normalization is changed as shown in the following equation 15 depending on the total number of pixels.
[0271]
[Expression 15]
k is a constant and is appropriately specified depending on the target image set.
[0272]
In addition to performing the above calculation at the time of search, it is converted into a vector obtained by normalization or semi-normalization at the time of feature extraction in advance and registered in the database. It is also possible to perform a high-speed search.
[0273]
Although the above-mentioned semi-normalized expression can calculate an appropriate similarity regardless of the number of edges in the image, there is a problem that it takes time because the expression is complicated when calculating at the time of retrieval. Therefore, the conventional differential distance formula and the normalized distance formula are selected and calculated according to the number of edges and the required search speed.
[0274]
For example, cases can be classified as follows.
1) When the edge ratio of both images is greater than or equal to a threshold A
Select differential distance formula
2) When either one is below threshold A
a) When high speed is required
Select differential distance formula
b) When high speed is not required
Use normalized distance formula
[0275]
However, in this method, different formulas are selected depending on the case, so that the resulting metric space does not satisfy the distance axiom. If it is necessary to satisfy the distance axiom, a semi-normalized expression is desirable.
[0276]
Subsequently, the U /
[0277]
(2) Specific example of image search processing
Next, while corresponding to the flowchart of FIG.
(1) When one query image, “color” as the feature quantity and “
(2) When one query image, “color” as the feature quantity and “level 2” as the roughness level are specified
(3) When one query image, “color” as the feature quantity and two or more levels as the roughness level are specified
(4) When multiple types of features are specified
(5) When multiple inquiry images are specified
The image search processing according to the twelfth embodiment will be specifically described in this order.
[0278]
(1) When one query image, “color” as the feature quantity and “
In the
[0279]
As shown in FIG. 22A, the
[0280]
Then, the
[0281]
Thereafter, the U /
[0282]
As described above, by selecting a feature amount of roughness such as
In that case, it is possible to execute a search process such as searching for a blue image as a whole.
[0283]
Although a detailed description is omitted, even if “structure” or another type of feature quantity is specified as the feature quantity, the search process can be performed by the same process.
[0284]
(2) When one query image, “color” as the feature quantity and “level 2” as the roughness level are specified
In the
[0285]
As shown in FIG. 22B, the
[0286]
Then, the
[0287]
Subsequently, the
(2) -1 The similarity between the search target image and the query image is determined by the sum of squares of the four similarities.
{Circle around (2)}-2 The sum of the four similarities is used to determine the similarity between the search target image and the query image (see AND search).
(2) -3 By selecting the highest (smallest value) similarity among the four similarities, the similarity between the search target image and the query image is determined (see OR search).
Note that it may be possible to specify in the
[0288]
Thereafter, the U /
[0289]
In this way, by selecting the feature quantity of roughness such as level 2 and performing the image search process, for example, when performing a search using the color feature quantity, Thus, it is possible to execute a search process such as searching for an image in which red is mixed in a portion where blue is present as a whole. In other words, search processing based on which color is located at which position in the image is possible, and search processing is performed from a fine viewpoint that cannot be performed by search using the feature amount (level 1) extracted for the entire image. It can be carried out.
[0290]
Although detailed description is omitted, even when “structure” or another type of feature quantity is designated as the feature quantity, the search process can be performed by the same process. Further, even when the
[0291]
(3) When one query image, “color” as the feature quantity and two or more levels as the roughness level are specified
Here, as an example of the case where two or more levels are designated as the roughness level, the image search process will be described based on the case where all the roughness levels are designated. Therefore, it is assumed that in the
[0292]
As shown in FIGS. 22A to 22D, the
[0293]
Then, the
[0294]
Subsequently, the
(3) -1 The final similarity with the query image is determined by the sum of squares of the four similarities (deformation of AND search).
(3) -2 The final similarity with the query image is determined by summing the four similarities (see AND search).
(3) -3 By selecting the highest (smallest value) similarity from the four similarities, the final similarity with the query image is determined (see OR search).
[0295]
When the final similarity to the inquiry image is determined by the methods (3) -1 and (3) -2, for example, the whole image is blue and a certain portion is mixed with red. It is possible to execute a search process (AND search) such as searching for a current image. In other words, since feature values of all (two or more) roughness levels are used, a desired image can be searched with higher accuracy than when searching using only feature values of a specific level. it can. Also, in the case of determining the final similarity with the inquiry image by the method of (3) -3, for example, red is mixed in an overall blue image and an overall blue portion. It is possible to execute a search process (OR search) such as searching for any of the existing images.
[0296]
It should be noted that any one of methods (3) -1 to (3) -3 may be used in the
[0297]
Thereafter, the U /
[0298]
As described above, by selecting a plurality of feature quantities having different roughnesses and performing the image search process, the viewpoint for the search can be compared with a case where one feature quantity having a specific roughness is used. Search processing can be executed by various different methods. Although detailed description is omitted, even when “structure” or another type of feature quantity is designated as the feature quantity, the search process can be performed by the same process.
[0299]
(4) When multiple types of features are specified
When a plurality of types of feature values are specified in the
[0300]
Then, the
[0301]
As a final similarity determination method, for example, the following method can be considered.
(4) -1 The final similarity with the query image is determined based on the sum of squares of the similarity obtained for each type of feature quantity (deformation of AND search).
{Circle around (4) -2} The final similarity with the query image is determined by summing up the similarities obtained for each type of feature amount (see AND search). When this method is used, an AND search according to a plurality of types of feature amounts can be executed.
(4) -3 The final similarity with the query image is determined by selecting the highest similarity (smallest value) from the similarities obtained for each type of feature amount (see OR search) ). When this method is used, an OR search corresponding to a plurality of types of feature amounts can be executed.
Note that it may be possible to specify in the
[0302]
Further, for example, when one query image is specified and the feature amount of structure and color and
[0303]
Thereafter, the U /
[0304]
(5) When multiple inquiry images are specified
When a plurality of query images are designated, the
[0305]
As a method for obtaining the overall similarity, for example, there are the following methods.
(5) -1 For each image to be searched, the sum of squares of the similarity with each query image is set as the total similarity (deformation of AND search).
{Circle around (5)}-2 For each image to be searched, the similarity with each query image is totaled to obtain the total similarity (see AND search). When this method is used, an AND search can be executed.
(5) -3 For each image to be searched, the highest similarity (smallest value) is selected from the similarities to the respective query images to obtain the total similarity (see OR search). When this method is used, an OR search can be executed.
[0306]
It should be noted that any one of methods (5) -1 to (5) -3 may be specified in the
Case
[0307]
Thereafter, the U /
[0308]
As described above, according to the image search device according to the twelfth embodiment, at least one inquiry image is specified, and the roughness level of the feature amount extracted from the image is gradually increased from coarse to fine. Based on the defined extraction criteria, specify at least one roughness level of the feature quantity used for the search, and based on the extraction criteria, specify at least the roughness level specified from the query image and multiple search target images The feature amount corresponding to is extracted at a predetermined timing, the similarity with the query image is obtained for each search target image using the feature amount according to the specified roughness level, and for each search target image. Since the search result is output based on the obtained similarity, it is possible to execute a plurality of types of search processes with different search accuracy. In other words, since the user can specify at least one level of roughness of the feature amount used for the search, the fineness of the user's viewpoint for the search can be expressed as a search condition, and the user's intention can be accurately set as the search condition. Can be expressed. Therefore, it is possible to perform image search processing as desired by the user.
[0309]
As a result of referring to the image of the search result displayed in the
[0310]
In the twelfth embodiment, the roughness of the feature amount is defined depending on how many images are divided. However, not only the image but also an object existing in the image is a feature amount extraction target, You may decide to define the roughness of the feature-value of an object unit by how many parts are divided | segmented. The search process when an object existing in an image is also a feature amount extraction target is the same as the search process described above, and thus detailed description thereof is omitted here.
[0311]
Further, as described above, it is possible to realize the following image search processing by using the feature amount extraction for each divided image obtained by dividing the image. Here, for convenience of explanation, a modification of the image search device according to the twelfth embodiment will be described using an example in which an image is divided into four.
[0312]
(Modification 1)
In the above-described twelfth embodiment, the similarity between the inquiry image and the search target image is obtained by comparing the inquiry image and the divided images of the search target image in a one-to-one correspondence to obtain the similarity. On the other hand, in the first modification, for example, as shown in FIG. 27, one of the divided images of the inquiry image is designated, and the similarity between the designated divided image and each divided image of the search target image is obtained. Thus, an image having a divided image similar to the specific divided image of the inquiry image can be found from the search target images.
[0313]
(Modification 2)
In the second modification, for example, as shown in FIG. 28, an image including the query image is searched from the search target images by obtaining the similarity between the entire query image and each divided image of the search target image. Is to be able to.
[0314]
Although detailed description is omitted, by enabling such search processing as in the first modification and the second modification, it is possible to search for an image by various methods.
[0315]
[Embodiment 13]
The image search device according to the thirteenth embodiment enables an image search from a different viewpoint from the above-described first to twelfth embodiments by enabling an image including an inquiry image to be found from among search target images. It is possible to do. Note that in the image search device according to the thirteenth embodiment, the same reference numerals are used for the configurations already described in the first embodiment, and detailed description thereof is omitted, and common points regarding the image search processing are also described as appropriate. Is omitted.
[0316]
Specifically, the image search device according to the thirteenth embodiment designates at least one inquiry image, and for each search target image, determines the similarity between a region of a predetermined size in the search target image and the query image. By repeatedly executing the processing to be obtained using a predetermined feature amount extracted in advance over the entire image to be searched, an image including an inquiry image can be found from the images to be searched.
[0317]
In the image search device according to the thirteenth embodiment, various methods are used for the process of obtaining the similarity between a predetermined size area in a search target image and a query image using a predetermined feature amount extracted in advance. Here, a technique as shown in FIGS. 29 and 30 is used. For example, as shown in FIG. 29, the query image is divided into four to generate divided images a to d, a predetermined type of feature amount is extracted from each divided image, and the search target image is divided into 16 parts. The divided images A to P are generated, and the same type of feature quantity as that of the query image is extracted from each divided image. However, the number of divisions of the query image and the search target image is not limited to 8 and 16, respectively, but may be a relationship that the number of query image divisions <the number of search target image divisions. Then, using the feature amount extracted from each divided image, as shown in FIGS. 30A to 30I, the similarity between the query image and a part of the search target image is sequentially obtained. FIG. 30 shows the image to be searched shown in FIG. 29, and the hatched portion in the image to be searched corresponds to an area compared with the query image. Note that if the number of divisions of the query image and the search target image is reversed (for example, the query image is divided into 16 and the search target image is divided into 8. That is, the number of query image divisions> division of the search target image Number), it is possible to search for an image included in the inquiry image.
[0318]
The image search process performed by the image search apparatus according to Embodiment 13 will be specifically described below. As a premise, it is assumed that at least an image to be searched has feature values extracted from each divided image as shown in FIG. The specific processing for extracting the feature amount is as described in the twelfth embodiment, and thus detailed description thereof is omitted here. Further, the type of feature quantity to be extracted may be any color, structure, or the like.
[0319]
FIG. 31 is a flowchart of image search processing according to the thirteenth embodiment, and FIG. 32 is an explanatory diagram showing an example of a
[0320]
Subsequently, when the user designates the
[0321]
Then, the
[0322]
An example of the process executed in step S1303 will be described in detail with reference to FIG. For example, with reference to FIG. 30A, the
The similarity between the divided image a of the inquiry image and the divided image A of the search target image
The similarity between the divided image b of the inquiry image and the divided image B of the search target image
The similarity between the divided image c of the inquiry image and the divided image E of the search target image
The similarity between the divided image d of the inquiry image and the divided image F of the search target image
For each. In other words, the distance between the divided images plotted in the feature amount space shown in FIG. 4 is obtained using the distance definition formula defined for each feature. Here, since the similarity is obtained for each of the four divided images, four similarities are obtained.
[0323]
Subsequently, the
(1) -1 The similarity between the area of the image to be searched and the query image is determined by the sum of squares of the four similarities.
{Circle around (1)}-2 The sum of the four similarities is used to determine the similarity between the image area to be searched and the query image (see AND search).
(1) -3 By selecting the highest (smallest value) similarity among the four similarities, the similarity between the area of the image to be searched and the query image is determined (see OR search).
Note that it may be possible to specify in the
[0324]
The
[0325]
As shown in FIGS. 30A to 30I, as a result of obtaining the similarity between each region of the search target image and the query image, nine similarities with the query image are obtained for each search target image. Will be obtained. Therefore, the
[0326]
{Circle around (2)}-1 The final similarity between the search target image and the query image is determined based on the sum of squares of nine similarities (deformation of AND search).
(2) -2 The final similarity between the search target image and the query image is determined by adding the nine similarities (see AND search).
(2) -3 The final similarity between the search target image and the query image is determined by selecting the highest (smallest value) similarity among the nine similarities (see OR search). .
Note that it may be possible to specify in the
[0327]
Returning to the description of the flowchart in FIG. 31, the U /
[0328]
In the above description, only one specified query image is used and one type of feature amount is used for the search. However, a plurality of types of feature amounts can be used, and a plurality of query images are specified. You can also
[0329]
Therefore, an example of processing when a plurality of types of feature amounts are used will be briefly described. As described above, the
[0330]
(3) -1 The final similarity with the query image is determined based on the sum of squares of the similarity obtained for each type of feature quantity (deformation of AND search).
(3) -2 The final similarity to the inquiry image is determined by summing up the similarities obtained for each type of feature quantity. When this method is used, an AND search according to a plurality of types of feature amounts can be executed.
(3) -3 The final similarity with the query image is determined by selecting the highest similarity (smallest value) from the similarities obtained for each type of feature quantity. When this method is used, an OR search corresponding to a plurality of types of feature amounts can be executed.
Note that it may be possible to specify in the
[0331]
An example of processing when a plurality of inquiry images are specified will be briefly described. As described above, the
[0332]
(4) -1 For each image to be searched, the sum of squares of the similarity with each query image is set as the total similarity of the images to be searched (deformation of AND search). By using this method, it is possible to search for an image including a plurality of images as an inquiry image.
(4) -2 For each image to be searched, the similarity with each query image is summed to obtain the total similarity of the images to be searched. When this method is used, an AND search using a plurality of query images can be executed. That is, it is possible to search for an image including a plurality of images as an inquiry image.
(4) -3 For each image to be searched, the highest similarity (with a small value) is selected from the similarities to each query image to obtain the total similarity of the images to be searched. When this method is used, an OR search using a plurality of inquiry images can be executed. That is, it is possible to search for an image including any one of a plurality of images as an inquiry image.
It should be noted that any one of the methods (4) -1 to (4) -3 may be specified in the
[0333]
As described above, according to the image search device according to the thirteenth embodiment, at least one query image is specified, and each search target image is specified as a region of a predetermined size in the search target image. In order to repeatedly execute the process of obtaining the similarity with the query image using a predetermined feature amount extracted in advance over the entire image to be searched, and to output a search result based on the similarity obtained for each image to be searched. An image including the inquiry image can be found from the search target images. Therefore, it is possible to provide one method for realizing an image search as intended by the user.
[0334]
As a result of referring to the image of the search result displayed in the
[0335]
[Embodiment 14]
Next, the image classification device according to the present invention will be described. This image classification device classifies images using similarity between images, as in the image search device described above. By classifying images in advance, it is possible to search for a desired image by simply following the classification. By doing so, it is possible to easily search for an image desired by the user by a method different from the image search.
[0336]
The image classification device according to the fourteenth embodiment of the present invention classifies images by applying the image search processing described in the first embodiment. Therefore, description of points that are the same as those described in
[0337]
FIG. 33 is a block configuration diagram of an image classification device according to the fourteenth embodiment. 33, the same components as those in the image search apparatus shown in FIG. 1 are denoted by the same reference numerals, and only different points will be described here. The image classification apparatus shown in FIG. 33 differs from the image search apparatus shown in FIG. 1 in that
[0338]
34 is a block diagram showing processing executed in the image classification apparatus shown in FIG. 33, and corresponds to FIG. A user interface (U / I) unit 151 (corresponding to the setting means, specifying means, and display means of the present invention) displays a classification item setting screen, a classification result display screen, etc. for performing image classification for the user. Then, classification condition input, classification result output processing, and the like are executed. The
[0339]
Next, regarding the operation of the image classification apparatus having the above-described configuration,
(1) Classification item setting processing
(2) Image classification processing
This will be explained in the order. Here, a plurality of images registered in the
[0340]
(1) Classification item setting processing
FIG. 35 is an explanatory diagram showing an example of an
[0341]
FIG. 35 shows a state in which items for managing images (hereinafter referred to as “folders”) are already set. Here, only the
[0342]
An
[0343]
The user sets a new folder as a classification destination for classifying the images in the
[0344]
Then, the user selects the
[0345]
The classification
[0346]
As an image to be designated as a reference image, for example, an image read by a scanner, an image taken by a digital camera, an image downloaded via the
[0347]
As described in the first embodiment, the user associates, for example, three images with each type of feature amount, and designates them as the reference images A, B, and C in the image designation fields A, B, and C, respectively. Although not shown, a threshold value of similarity between the reference image and the search target image can be set for each folder from the classification
[0348]
When the user selects the
[0349]
The user creates folders (for example,
[0350]
In this way, a plurality of
[0351]
As described in the first embodiment, it is possible not only to specify a plurality of reference images for each folder, but also to specify each inquiry image corresponding to each type of feature amount used when classifying the images. It is possible to express one virtual reference image that the user considers appropriate, and to accurately express the user's intention for classification as a classification reference. Therefore, it is possible to obtain an image of the classification result reflecting the user's intention by the classification process described later.
[0352]
(2) Image classification processing
FIG. 36 is a flowchart illustrating image classification processing according to the fourteenth embodiment. When the user instructs the start of the classification process, the
[0353]
The processing in step S1401 will be specifically described taking the
[0354]
Thereafter, the
[0355]
Subsequently, the
[0356]
Then, the
[0357]
By executing the processes in steps S1401 to S1403 described above for each image registered in the
[0358]
FIG. 37 is an explanatory diagram showing the state of the
[0359]
As described above, according to the image classification device according to the fourteenth embodiment, the classification items are set, and each type used when obtaining the similarity between the reference image and the classification target image for each of the set classification items. For each feature item, one reference image is set, and for each classification item, the similarity between each set reference image and the classification target image is obtained using the corresponding type of feature amount, and the obtained similarity To determine the total similarity of the images to be classified, and based on the total similarity of the images to be classified obtained for each classification item and a preset classification destination determination criterion, By determining the classification item, the user's intention can be accurately expressed as a classification condition, so that the user's intention can be accurately transmitted to the device, and the user's intention for the classification can be reliably transmitted to the device. It is possible, it is possible to obtain a classification result that accurately reflects the intention of the user for the classification, it is possible to realize the classification process as the user desires.
[0360]
For example, even when an appropriate image does not exist as a reference image, an image having a color atmosphere similar to a desired image or an image having an object shape atmosphere similar to a desired image as a classification result is designated as the reference image. Can be used as one inquiry image.
[0361]
Here, three types of feature quantities of color, structure, and texture are used, but these are merely examples, and are not intended to limit the types of feature quantities.
[0362]
In addition, as shown in FIG. 37, the representative image is displayed for each folder, but instead of this, the folder name may be displayed or the reference image set for the folder may be displayed.
[0363]
Further, although detailed description is omitted, when a new image is registered in the
[0364]
[Embodiment 15]
The image classification apparatus according to the fifteenth embodiment classifies images by applying the image search process described in the second embodiment. Note that in the image classification device according to the fifteenth embodiment, the same reference numerals are used for the configurations already described in the fourteenth embodiment, and detailed description thereof is omitted, and the operations of the image classification device are also common. The description will be omitted as appropriate.
[0365]
Hereinafter, the operation of the image classification device according to the fifteenth embodiment will be described.
(1) Classification item setting processing
(2) Image classification processing
This will be explained in the order.
[0366]
(1) Classification item setting processing
FIG. 38 is an explanatory diagram showing an example of an
[0367]
The classification
[0368]
As described in the second embodiment, the user designates, for example, three images as the reference images A, B, and C in the image designation fields A, B, and C, respectively, for each reference image A, B, and C. Specifies the type of feature amount used when obtaining the similarity to the image to be classified. As an example, the classification
[0369]
Although not shown, a threshold value of similarity between the reference image and the search target image can be set for each folder from the classification
[0370]
When the user selects the
[0371]
The user creates folders (for example,
[0372]
In this way, a plurality of
[0373]
As described in the second embodiment, the user can specify not only a plurality of reference images for each folder but also a feature amount corresponding to the feature of the image that the user attaches importance to for each specified reference image. It is possible to express one virtual reference image that is considered appropriate, and to accurately express the user's intention for classification as a classification reference. Therefore, it is possible to obtain an image of the classification result reflecting the user's intention by the classification process described later.
[0374]
(2) Image classification processing
The image classification process according to the fifteenth embodiment will be described with reference to FIG. When the user instructs the start of the classification process, the
[0375]
The processing in step S1401 will be specifically described taking the
[0376]
Thereafter, the
[0377]
Subsequently, the
[0378]
Then, the
[0379]
By executing the processes in steps S1401 to S1403 described above for each image registered in the
[0380]
Thus, according to the image classification device according to the fifteenth embodiment, a folder is set, a plurality of reference images are set for each set folder, and each set reference image is similar to an image to be classified. Set the type of feature value used when calculating the degree, calculate the similarity of each reference image and the image to be classified using the set type of feature value for each folder, and total the calculated similarity The user's intention is determined based on the classification condition by determining the folder that is the classification destination of the image to be classified based on the total similarity obtained for each folder and a preset classification destination determination criterion. Since the user's intention can be accurately transmitted to the device and the user's intention for the classification can be reliably transmitted to the device, the user's intention for the classification can be expressed. It is possible to obtain a classification result that accurately reflects the, it is possible to realize the classification process as the user desires.
[0381]
For example, even when an appropriate image does not exist as a reference image, an image having a color atmosphere similar to a desired image or an image having an object shape atmosphere similar to a desired image as a classification result is designated as the reference image. Can be used as one inquiry image.
[0382]
Here, three types of feature quantities of color, structure, and texture are used, but these are merely examples, and are not intended to limit the types of feature quantities.
[0383]
Further, although detailed description is omitted, when a new image is registered in the
[0384]
[Embodiment 16]
The image classification apparatus according to the sixteenth embodiment can express the user's intention for classification more accurately by applying the image search process described in the third embodiment to the image classification apparatus according to the fifteenth embodiment. It is a thing. Note that in the sixteenth embodiment, the same reference numerals are used for the configurations already described in the fourteenth embodiment, and detailed descriptions thereof are omitted, and descriptions of points common to the operations of the image classification device are omitted as appropriate. .
[0385]
Hereinafter, the operation of the image classification apparatus according to the sixteenth embodiment will be described.
(1) Classification item setting processing
(2) Image classification processing
This will be explained in the order.
[0386]
(1) Classification item setting processing
FIG. 39 is an explanatory diagram showing an
[0387]
The classification
[0388]
As shown in FIG. 39, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, and classifies them for each designated reference image A, B, and C. Specifies the type of feature value used when obtaining the similarity to the image.
[0389]
Subsequently, as described in the importance
[0390]
As described above, when the user designates the importance level for each reference image, it is possible to accurately express the user's intention for the classification. That is, since the importance is reflected as a weighting on the similarity by the classification process described later, an image of the classification result reflecting the user's intention can be obtained.
[0390]
Further, when the user designates the threshold value of the
[0392]
By performing such processing for each folder, a plurality of
[0393]
(2) Image classification processing
FIG. 40 is a flowchart showing image classification processing according to the sixteenth embodiment. When the user instructs the start of the classification process, the
[0394]
The processing in step S1601 will be specifically described taking the
[0395]
Thereafter, the
[0396]
Subsequently, the
[0397]
Then, the
[0398]
By executing the processes in steps S1601 to S1603 described above for each image registered in the
[0399]
Thus, according to the image classification device according to the sixteenth embodiment, the degree of importance is set for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. It is possible to set the user's intention by calculating the similarity between each reference image and the image to be classified for each folder and weighting the obtained similarity according to the set importance. Can be accurately expressed as a classification condition, so it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weighting to the similarity, so the image classification result that reflects the user's intention Can be obtained.
[0400]
Although not described in detail, the image classification apparatus described in the fourteenth embodiment also allows the importance to be specified for each inquiry image as described in the sixteenth embodiment. good.
[0401]
[Embodiment 17]
The image classification apparatus according to the seventeenth embodiment performs an image classification process applying the AND search described in the fourth embodiment as one technique for accurately expressing the user's intention as a classification condition. Note that in the image classification device according to the seventeenth embodiment, the same reference numerals are used for the configurations already described in the fourteenth embodiment, and detailed descriptions thereof are omitted, and the operations of the image classification device are also common. The description will be omitted as appropriate. In the image classification device according to the seventeenth embodiment, one feature amount is used when obtaining the similarity between images. Of course, a plurality of feature amounts may be used. .
[0402]
Hereinafter, the operation of the image classification device according to the seventeenth embodiment will be described.
(1) Classification item setting processing
(2) Image classification processing
This will be explained in the order.
[0403]
(1) Classification item setting processing
FIG. 41 is an explanatory diagram showing an
[0404]
A classification
[0405]
As shown in FIG. 41, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, selects an AND
[0406]
By performing such processing for each folder, a plurality of
[0407]
(2) Image classification processing
The image classification process according to the seventeenth embodiment will be described with reference to FIG. When the user instructs the start of the classification process, the
[0408]
The processing in step S1401 will be specifically described taking the
[0409]
Thereafter, the
[0410]
Subsequently, the
[0411]
Then, the
[0412]
By executing the processes in steps S1401 to S1403 described above for each image registered in the
[0413]
Thus, according to the image classification device according to the seventeenth embodiment, a folder is set, a plurality of reference images are set for each set folder, and each set reference image and classification target image are set for each folder. The total similarity is obtained by summing the obtained similarities, and becomes a classification destination of the image to be classified based on the total similarity obtained for each folder and a preset classification destination determination criterion. In order to determine the folder, it is possible to perform image classification processing using AND search processing. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.
[0414]
In the seventeenth embodiment, the type of feature quantity is not particularly shown, but any type of feature quantity such as color, structure, texture, etc. can be used alone or in combination.
[0415]
Further, although detailed description is omitted, when a new image is registered in the
[0416]
[Embodiment 18]
The image classification apparatus according to the eighteenth embodiment can accurately express the user's intention for classification by applying the image search processing described in the fifth embodiment to the image classification apparatus according to the seventeenth embodiment. Is.
[0417]
The operation of the image classification device according to Embodiment 18 is as follows.
(1) Classification item setting processing
(2) Image classification processing
This will be explained in the order.
[0418]
(1) Classification item setting processing
FIG. 42 is an explanatory diagram showing an
[0419]
The classification
[0420]
As shown in FIG. 42, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, and uses the importance
[0421]
As described above, when the user designates the importance level for each reference image, it is possible to accurately express the user's intention for the classification. That is, since the importance is reflected as a weighting on the similarity by the classification process described later, an image of the classification result reflecting the user's intention can be obtained.
[0422]
Further, when the user selects the AND
[0423]
By performing such processing for each folder, a plurality of
[0424]
(2) Image classification processing
The image classification process according to the eighteenth embodiment will be described with reference to FIG. When the user instructs the start of the classification process, the
[0425]
The processing in step S1601 will be specifically described taking the
[0426]
Thereafter, the
[0427]
Subsequently, the
[0428]
Then, the
[0429]
By executing the processes in steps S1601 to S1603 described above for each image registered in the
[0430]
Thus, according to the image classification device according to the eighteenth embodiment, the degree of importance is set for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. It is possible to set the user's intention by calculating the similarity between each reference image and the image to be classified for each folder and weighting the obtained similarity according to the set importance. Can be accurately expressed as a classification condition, so it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weighting to the similarity, so the image classification result that reflects the user's intention Can be obtained.
[0431]
[Embodiment 19]
The image classification apparatus according to the nineteenth embodiment can accurately express the user's intention for classification by applying the image search processing described in the sixth embodiment to the image classification apparatus according to the seventeenth embodiment. Is. In the image classification apparatus according to the nineteenth embodiment, for example, the classification process is performed using three types of feature amounts of color, structure, and texture.
[0432]
The operation of the image classification device according to Embodiment 19 is as follows.
(1) Classification item setting processing
(2) Image classification processing
This will be explained in the order.
[0433]
(1) Classification item setting processing
FIG. 43 is an explanatory diagram showing an
[0434]
The classification
[0435]
As shown in FIG. 43, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, and features for each designated reference image A, B, and C. Specify the importance for each type of quantity. As described in the sixth embodiment, the importance
[0436]
Thus, by specifying the importance for each type of feature amount for each reference image, it is possible to accurately represent the user's intention for the classification. That is, since the importance is reflected as a weighting on the similarity obtained for each type of feature amount by the classification process described later, an image of the classification result reflecting the user's intention can be obtained.
[0437]
Further, when the user selects the AND
[0438]
By performing such processing for each folder, a plurality of
[0439]
(2) Image classification processing
The image classification process according to Embodiment 19 will be described with reference to FIG. When the user designates the start of the classification process, the
[0440]
The processing in step S1601 will be specifically described taking the
[0441]
Similarly, the
[0442]
Thereafter, the
[0443]
Subsequently, the
[0444]
Then, the
[0445]
By executing the processes in steps S1601 to S1603 described above for each image registered in the
[0446]
As described above, according to the image classification device according to the nineteenth embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, Importance for each type of feature can be set for each reference image so that arbitrary weighting can be performed according to the type of feature, and each type of feature for each folder The similarity of each reference image and classification target image is obtained for each type, and the user's intention is classified according to the set importance by weighting the similarity obtained for each type of feature amount. Therefore, it is possible to accurately convey the user's intention to the device, and since the importance is reflected as a weight for the similarity, the classification result of the image reflecting the user's intention is displayed. Rukoto is possible.
[0447]
Note that the types of feature quantities are not limited to the three types of color, structure, and texture, but may be any kind of combination of feature quantities.
[0448]
[Embodiment 20]
In the image classification device according to the twentieth embodiment, by applying the image search process described in the seventh embodiment to the image classification device according to the seventeenth embodiment, the device side can fetch the user's intention for the classification. It is a thing. Note that, for example, the image classification device according to the twentieth embodiment performs classification processing using three types of feature amounts of color, structure, and texture.
[0449]
In Embodiments 18 and 19 described above, the user needs to specify the importance of the reference image or the importance for each feature amount in each reference image. In the image classification device according to Embodiment 20, The similarity between the reference images designated for each folder by the user is obtained using the feature amount used when obtaining the similarity between the reference image and the classification target image, and based on the obtained similarity for each feature amount. The feature is that the importance for each feature amount between the reference images is determined on the device side and reflected as a weighting for the similarity.
[0450]
The operation of the image classification device according to Embodiment 20 is as follows.
(1) Classification item setting processing
(2) Image classification processing
This will be explained in the order.
[0451]
(1) Classification item setting processing
The classification item setting process will be described with reference to FIG. It is assumed that the user has created the
[0452]
As shown in FIG. 41, the user designates, for example, three images as reference images A, B, and C in the image designation fields A, B, and C, respectively, selects an AND
[0453]
Specifically, the
[0454]
The
[0455]
By performing such processing for each folder, a plurality of
[0456]
(2) Image classification processing
Next, the image classification process of the twentieth embodiment will be described with reference to FIG. When the user designates the start of the classification process, the
[0457]
The processing in step S1601 will be specifically described taking the
[0458]
Similarly, the
[0459]
Thereafter, the
[0460]
Subsequently, the
[0461]
Then, the
[0462]
By executing the processes in steps S1601 to S1603 described above for each image registered in the
[0463]
Thus, according to the image classification device according to the twentieth embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity degree. For each classification item, the similarity between each set reference image is obtained for each type of feature quantity, and the similarity obtained for each type of feature quantity so that arbitrary weighting can be performed according to the type. The degree of importance for each feature amount between each reference image is determined based on the degree, and for each classification item, the similarity between each reference image and the classification target image is obtained for each type of feature amount, and each type of feature is determined. The importance obtained by determining the importance of each type of feature between the reference images specified by the user on the device side by weighting the similarity obtained for each quantity according to the determined importance. To reflect the degree in the similarity between images You can return the result of classification suits image the user's intention to become. Therefore, the classification process as desired by the user can be realized, and the classification result desired by the user can be obtained.
[0464]
Note that the types of feature quantities are not limited to the three types of color, structure, and texture, but may be any kind of combination of feature quantities.
[0465]
[Embodiment 21]
The image classification apparatus according to the twenty-first embodiment performs an image classification process using the OR search described in the eighth embodiment as one method for accurately expressing the user's intention as a classification condition.
[0466]
In the image classification processing by the image classification device according to the twenty-first embodiment, the
[0467]
It is assumed that reference images A, B, and C, and threshold values are set as classification conditions in the
[0468]
FIG. 44 is a flowchart showing image classification processing according to the twenty-first embodiment. When the user instructs the start of the classification process, the
[0469]
The processing in step S2101 will be specifically described taking the
[0470]
Thereafter, the
[0471]
Subsequently, the
[0472]
Then, the
[0473]
By executing the processes in steps S2101 to S2103 described above for each image registered in the
[0474]
In the image classification process according to the twenty-first embodiment, if the image to be classified is similar to a reference image set in a certain folder so that a similarity equal to or higher than a threshold is obtained, the folder It will be classified into. Therefore, it can be seen that the OR search is applied to the image classification process of the twenty-first embodiment.
[0475]
Thus, according to the image classification device according to the twenty-first embodiment, a folder is set, a plurality of reference images are set for each set folder, and each set reference image and classification target image are set for each folder. And selecting the similarity showing the highest similarity from the obtained similarities, and selecting the image to be classified based on the similarity selected for each folder and a preset classification destination determination criterion Therefore, it is possible to perform image classification processing using OR search processing. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.
[0476]
Although a detailed description is omitted, when a new image is registered in the
[0477]
[Embodiment 22]
The image classification apparatus according to the twenty-second embodiment can accurately represent the user's intention for classification by applying the image search processing described in the ninth embodiment to the image classification apparatus according to the twenty-first embodiment. Is.
[0478]
In the image classification processing by the image classification apparatus according to the twenty-second embodiment, the
[0479]
In addition to the designation of the OR condition, in the
[0480]
FIG. 45 is a flowchart showing image classification processing according to the twenty-second embodiment. When the user instructs the start of the classification process, the
[0481]
The processing in step S2201 will be specifically described taking the
[0482]
Thereafter, the
[0483]
Subsequently, the
[0484]
Then, the
[0485]
By executing the processes in steps S2201 to S2203 described above for each image registered in the
[0486]
As described above, according to the image classification device according to the twenty-second embodiment, the importance is set for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. It is possible to set the user's intention by calculating the similarity between each reference image and the image to be classified for each folder and weighting the obtained similarity according to the set importance. Can be accurately expressed as a classification condition, so it is possible to accurately convey the user's intention to the device, and the importance is reflected as a weighting to the similarity, so the image classification result that reflects the user's intention Can be obtained.
[0487]
[Embodiment 23]
The image classification device according to the twenty-third embodiment can accurately express the user's intention for classification by applying the image search processing described in the tenth embodiment to the image classification device of the twenty-first embodiment. Is.
[0488]
In the image classification processing by the image classification device according to the twenty-third embodiment, the
[0489]
In addition to the specification of the OR condition, in the
[0490]
Next, an image classification process according to Embodiment 23 will be described with reference to FIG. When the user designates the start of the image classification process, the
[0491]
The processing in step S2201 will be specifically described taking the
[0492]
Similarly, the
[0493]
Thereafter, the
[0494]
Subsequently, the
[0495]
Then, the
[0496]
By executing the processes in steps S2201 to S2203 described above for each image registered in the
[0497]
Thus, according to the image classification device according to the twenty-third embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, the reference image and Importance for each type of feature can be set for each reference image so that arbitrary weighting can be performed according to the type of feature, and each type of feature for each folder The similarity of each reference image and classification target image is obtained for each type, and the user's intention is classified according to the set importance by weighting the similarity obtained for each type of feature amount. Therefore, it is possible to accurately convey the user's intention to the device, and since the importance is reflected as a weight for the similarity, the classification result of the image reflecting the user's intention is displayed. Rukoto is possible.
[0498]
[Embodiment 24]
In the image classification device according to the twenty-fourth embodiment, by applying the image search process described in the eleventh embodiment to the image classification device according to the twenty-first embodiment, the device side can fetch the user's intention for the classification. It is a thing.
[0499]
In the image classification processing by the image classification device according to the twenty-fourth embodiment, the
[0500]
In addition to the designation of the OR condition, the
[0501]
Next, the image classification process according to the twenty-fourth embodiment will be described with reference to FIG. When the user designates the start of the image classification process, the
[0502]
The processing in step S2201 will be specifically described taking the
[0503]
Similarly, the
[0504]
Thereafter, the
[0505]
Subsequently, the
[0506]
Then, the
[0507]
By executing the processes in steps S2201 to S2203 described above for each image registered in the
[0508]
As described above, according to the image classification device according to the twenty-fourth embodiment, when the similarity between the reference image and the search target image is obtained using a plurality of types of feature amounts, the feature amount is compared with the obtained similarity degree. For each classification item, the similarity between each set reference image is obtained for each type of feature quantity, and the similarity obtained for each type of feature quantity so that arbitrary weighting can be performed according to the type. The degree of importance for each feature amount between each reference image is determined based on the degree, and for each classification item, the similarity between each reference image and the classification target image is obtained for each type of feature amount, and each type of feature is determined. The importance obtained by determining the importance of each type of feature between the reference images specified by the user on the device side by weighting the similarity obtained for each quantity according to the determined importance. To reflect the degree in the similarity between images User can be realized from the image classification processing as desired, it is possible to obtain a classification result of the image desired by the user.
[0509]
[Embodiment 25]
Next, an image classification apparatus according to Embodiment 25 will be described. The image classification apparatus according to the twenty-fifth embodiment is configured to dynamically classify an image based on a criterion desired by a user and to search for a desired image.
[0510]
Note that the configuration of the image classification apparatus and the configuration of the image classification software according to the twenty-fifth embodiment are as shown in FIGS. 33 and 34, so the description thereof will be omitted here, and only the image classification processing will be described. To do. Here, the images to be classified are images registered in the
[0511]
46 to 48 are explanatory diagrams of image classification processing in the twenty-fifth embodiment. When the user selects “image classification processing” from a menu (not shown), the U /
[0512]
The
[0513]
Here, the
[0514]
In FIG. 46, if the user designates the
[0515]
Then, the U /
[0516]
FIG. 48 shows the result of further clustering and classifying the clusters of the
[0517]
Although detailed descriptions of feature quantities other than colors are omitted, clustering is similarly performed in the feature space to classify images even when structure or texture feature quantities are selected. become.
[0518]
As described above, according to the image classification device according to the twenty-fifth embodiment, when the type of feature amount is designated, the similarity between the images to be classified is obtained by using the feature amount of the designated type. Based on the similarity between the images to be classified, the images to be classified are classified into groups of similar images, and representative images representing the groups are selected from the classified groups and displayed on the screen. Further, when one of the displayed representative images is specified and the type of feature amount is specified, the images classified into the group to which the representative image belongs are similar using the specified type of feature amount. The images are classified into groups of images to be classified, and representative images representing the groups are selected from the classified groups and displayed on the screen, so that the images are dynamically classified according to the criteria desired by the user when the images are to be classified. Since it is possible gradually, using the classification of the image it is possible to find a desired image. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.
[0519]
Further, the type of feature quantity is displayed on the screen as classification items 402, 403, and 404, and a representative image of each classified group is displayed on the screen in association with the designated classification item, thereby displaying an image as shown in FIG. Since the result of classifying the images in the
[0520]
Note that the result of classifying the image by the image classification process of the twenty-fifth embodiment can be reused by registering the result in the
[0521]
Further, the images to be classified are not limited to the images in the
[0522]
[Embodiment 26]
Next, an image classification apparatus according to Embodiment 26 will be described. The image classification device according to the twenty-sixth embodiment is obtained by integrating a part or all of the image classification devices described in the fourteenth to twenty-fifth embodiments as one image classification device. That is, as is apparent from the descriptions in the fourteenth to twenty-fifth embodiments, these devices can be realized with a common configuration as shown in FIGS. 33 and 34, and can be easily integrated.
[0523]
By integrating the image classification apparatuses described in the fourteenth to twenty-fifth embodiments into one, classification conditions can be set by different methods for each folder. For example, in FIG. 35, the
[0524]
Note that the classification condition setting process and the image classification process are the same as those described in each embodiment, and thus the description thereof is omitted here.
[0525]
Thus, by integrating the image classification apparatuses described in Embodiments 14 to 25 into one, classification conditions can be set from various viewpoints, and the degree of freedom regarding the setting of classification conditions can be increased. .
[0526]
For the same reason as in the case of the image classification device, the image search devices described in the first to thirteenth embodiments can be integrated as one device. This makes it possible to search for a desired image by combining different search methods.
[0527]
[Embodiment 27]
Furthermore, part or all of the image search device and the image classification device described in
[0528]
Although detailed description is omitted, the following processing can be performed by integrating the image search device and the image classification device described in
[0529]
(1) In the first to thirteenth embodiments, an image selected from images classified into each folder (classification item) by any one of the image classification processes described in the fourteenth to twenty-fifth embodiments is designated as an inquiry image. An image search can be performed by any of the described image search processes.
(2) Any of the image classification processes described in the fourteenth to twenty-fifth (or twenty-sixth) embodiments, with the search result image retrieved in any one of the image retrieval processes described in the first to thirteenth embodiments as a classification target. It can be classified by.
(3) One of the images described in the first to thirteenth embodiments, with a plurality of images classified into a specific folder (category item) in any one of the image classification processes described in the fourteenth to twenty-fifth embodiments as search targets. A desired image can be searched by image search processing.
[0530]
As described above, by integrating a part or all of the image search apparatus and the image classification apparatus described in
[0531]
As described above, the image processing apparatus and the image classification apparatus according to the present invention are realized by executing a program prepared in advance by a computer according to a procedure based on each flowchart. This program can be provided for each of the embodiments described above or in any combination.
[0532]
This program is provided by being recorded on a computer-readable recording medium such as a hard disk, floppy disk, CD-ROM, MO, DVD or the like. As shown in FIG. 49A, the program is read from the
[0533]
Further, as shown in FIG. 49B, this program can also be executed in the form of downloading from the recording medium of the
[0534]
Although not particularly mentioned in the above-described embodiments, the image search device and the image classification device of the present invention can be applied not only to still images but also to moving images. This is because a moving image consists of continuous still images.
[0535]
In addition, it can be said that the image search processing described in the first to third embodiments uses the same technique as the AND search described in the fourth to seventh embodiments. Since the described OR search can be applied, the AND condition and the OR condition may be specified in the
[0536]
Also, the image search device described in the fourth to seventh embodiments, the image search device described in the eighth to eleventh embodiments, the image classification device described in the seventeenth to twenty-first embodiments, and the embodiments 21 to 24 described. In the image classification apparatus described above, an AND condition or an OR condition is designated, but the designation of the AND condition or the OR condition is not essential. In other words, the apparatus can be configured to execute the processing described in each embodiment without specifying an AND condition or an OR condition.
[0537]
Although detailed description is omitted, in the image classification apparatus described in the fourteenth to twenty-fourth embodiments, for example, when the process of classifying images into the
[0538]
Further, although detailed description is omitted, for example, in a client / server system, the server is provided with the function of the image search device or image classification device described in each embodiment, and the search condition is designated from the client. Obviously, it is possible to display classified images on the client screen.
[0539]
(1) As described above, according to the image search device of the above embodiment,Specify one query image for each type of feature quantity used to determine the similarity between the query image and the search target image, and the similarity to each specified query image for each search target image Based on the total similarity obtained for each image to be searched, by calculating the total similarity of the images to be searched by adding the similarities to the obtained query images. By outputting the search results, the user's intention can be accurately expressed as a search condition, so that the user's intention can be accurately transmitted to the device and the user's intention for the search can be reliably transmitted to the device. Therefore, it is possible to obtain a search result that accurately reflects the user's intention for the search, and to perform an image search process with high accuracy as desired by the user. Specifically, for example, even when an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to the desired image or an image having an object shape atmosphere is specified as an inquiry image as a search result. A combination of these images can be used as one query.
[0540]
(2) Moreover, according to the image search apparatus of the said embodiment,In addition to specifying multiple query images, specify the type of feature amount used to determine the similarity to the search target image for each specified query image, and specify the type of feature specified for each search target image The similarity between each query image is calculated using the amount, and the total similarity between each query image obtained is obtained to obtain the total similarity of the search target images. The total similarity calculated for each search target image By outputting the search results based on the user's intention, the user's intention can be accurately expressed as a search condition, so that the user's intention can be accurately transmitted to the device and the user's intention for the search can be reliably transmitted to the device. Therefore, it is possible to obtain a search result that accurately reflects the user's intention for the search, and to perform an image search process with high accuracy as desired by the user. Specifically, for example, even when an appropriate image does not exist as an inquiry image, an image having a color atmosphere similar to the desired image or an image having an object shape atmosphere is specified as an inquiry image as a search result. A combination of these images can be used as one query.
[0541]
(3) Moreover, according to the image search apparatus of the said embodiment,Multiple query images are specified, and for each search target image, the degree of similarity with each specified query image is obtained, and the similarity with each obtained query image is totaled to obtain the total similarity of the search target images. It is possible to perform an AND search by outputting a search result based on the total similarity obtained for each image to be obtained, and for accurately expressing the user's intention as a search condition. One approach can be provided.
[0542]
(4) Moreover, according to the image search apparatus of the said embodiment,Specify multiple query images, find the similarity to each specified query image for each image to be searched, and select the similarity that shows the highest similarity from the similarities to each query image found By calculating the overall similarity of the search target image and outputting the search result based on the total similarity calculated for each search target image, an OR search can be performed. Can be provided as a search condition.
[0543]
(5) Further, according to the image search device of the above embodiment,The degree of importance can be specified for each query image so that the obtained similarity can be arbitrarily weighted according to the type of query image. Each query can be specified for each search target image. By calculating the similarity to the image, weighting the similarity with each query image obtained according to the specified importance, and then determining the overall similarity, the user's intention can be accurately used as a search condition. Therefore, it is possible to accurately convey the user's intention to the device, and since the importance is reflected as a weighting for the similarity, it is possible to obtain a search result image reflecting the user's intention. It becomes.
[0544]
(6) Moreover, according to the image search device of the above-described embodiment,When obtaining the similarity between the query image and the image to be searched using multiple types of feature quantities, the obtained similarity can be arbitrarily weighted according to the type of query image and feature quantity The degree of importance for each type of feature can be specified for each query image, and for each search target image, the similarity to each query image is obtained for each type of feature. The user's intention can be accurately expressed as a search condition by weighting the similarity with each query image obtained for each feature amount according to the designated importance and then obtaining the overall similarity. Therefore, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so that it is possible to obtain an image of a search result reflecting the user's intention. .
[0545]
(7) Moreover, according to the image search device of the above-described embodiment,When determining the similarity between the query image and the image to be searched using multiple types of feature quantities, each type can be weighted according to the type of feature quantity. For each feature amount, the degree of similarity between each specified query image is obtained, and the importance for each type of feature amount between each query image is determined based on the obtained similarity degree for each type of feature amount. For each image to be searched, the degree of similarity with each inquiry image is obtained for each type of feature amount, and each type of feature determined for the degree of similarity with each inquiry image obtained for each type of feature amount After weighting according to the importance for each quantity, by determining the overall similarity, the importance of each type of feature quantity between the query images specified by the user on the device side is determined, and the determined importance is To reflect the similarity between images, It is possible to return the result matches of the intended search. Therefore, the search process as desired by the user can be realized, and the search result desired by the user can be obtained.
[0546]
(8) Moreover, according to the image search apparatus of the said embodiment,Specify at least one query image and use the extraction criteria that defines the level of roughness of features extracted from the image in stages from coarse to fine. At least one feature is specified, and based on the extraction criteria, feature quantities corresponding to at least the specified roughness level are extracted from the query image and the plurality of search target images at a predetermined timing, and each search target image is extracted. Since the similarity with the query image is obtained using the feature amount according to the specified roughness level, and the search result is output based on the similarity obtained for each image to be searched, a plurality of different search accuracy It is possible to execute various types of search processing. In other words, since the user can specify at least one level of roughness of the feature amount used for the search, the fineness of the user's viewpoint for the search can be expressed as a search condition, and the user's intention can be accurately set as the search condition. Can be expressed. Therefore, it is possible to perform image search processing as desired by the user.
[0547]
(9) Further, according to the image search device of the above embodiment,The extraction criterion defines at least the number of divisions indicating the number of divisions of the image as a roughness level in stages, and the feature amount is determined according to any one of the roughness levels defined in stages. When extracting, the image is divided based on the corresponding number of divisions to generate a plurality of divided images, and the feature amount is extracted from each of the generated divided images, so that a divided image unit is obtained from the query image and the search target image. When the feature amount group consisting of the feature amount is extracted and the similarity between the query image and the search target image is obtained using the feature amount group, the similarity for each of the corresponding divided images of the query image and the search target image is calculated. Since the similarity between the query image and the search target image is obtained by obtaining each using the corresponding feature amount, the level of roughness of the feature amount can be easily defined by the number of image divisions. , It is possible to introduce the concept that the position relationship between the image features in the image search by determining the similarity for each divided image. Therefore, it is possible to execute an image search process with high accuracy.
[0548]
(10) Further, according to the image search device of the above embodiment,The extraction criteria include the level that makes the entire image the target of feature extraction without dividing the image as the level indicating the coarsest feature amount among the stepwise defined roughness levels, and features the entire image When extracting feature values according to the level to be extracted, the feature values are extracted from the query image and the search target image for the entire image. Search processing can be included.
[0549]
(11) Further, according to the image search device of the above embodiment,When the extraction criterion is an object existing in the image, the feature level extraction target includes definition of the level of roughness of the feature value extracted from the object, so that the search conditions can be specified from different viewpoints. Thus, the user's intention can be accurately expressed as a search condition.
[0550]
(12) Moreover, according to the image search device of the above-described embodiment,For a plurality of search target images, feature amounts corresponding to all roughness levels defined by the extraction criteria are extracted in advance, and among the specified query images, query images from which feature amounts are not extracted Since the feature amount corresponding to the specified roughness level is extracted before executing the process for obtaining the similarity, the image search process can be speeded up.
[0551]
(13) Further, according to the image search device of the above embodiment,A process of specifying at least one query image and obtaining, for each search target image, a predetermined feature amount obtained by extracting a similarity between a predetermined size area in the search target image and the specified query image in advance. Are repeatedly executed over the entire search target image, and the search result is output based on the similarity obtained for each search target image. Therefore, an image including the query image can be found from the search target images. Therefore, it is possible to provide one method for realizing an image search as intended by the user.
[0552]
(14) Further, according to the image search apparatus of the above-described embodiment,Since the image of the search result can be designated as the query image, a more detailed narrowing search can be performed, and the search process as desired by the user can be realized.
[0553]
(15) In the above embodiment,According to the computer-readable recording mediumOf the above embodimentSince a program for causing a computer to function as each means of the image search device according to any one of the above is recorded, by causing the computer to execute the program, the user's viewpoint can be surely set in the device when specifying the search condition. It is possible to realize an image search apparatus that can transmit and return search results that match the user's viewpoint. That is, it is possible to realize an image search apparatus that can realize search processing as desired by the user.
[0554]
(16) Also, according to the image classification device of the above embodiment,Set a classification item, and for each set classification item, set one reference image for each type of feature quantity used to determine the similarity between the reference image and the image to be classified. In addition, the similarity of each set reference image and the image to be classified is obtained using the corresponding type of feature amount, and the obtained similarity is summed to obtain the overall similarity of the image to be classified, and the classification item Based on the overall similarity of the images to be classified and the classification destination determination criteria set in advance, the classification items that are the classification destinations of the images to be classified are determined, and the user's intention is accurately set as the classification condition. Therefore, it is possible to accurately convey the user's intention to the device and to reliably convey the user's intention to the device. The classification result can be obtained, it is possible to realize the classification process as the user desires. That is, even when an appropriate image does not exist as a reference image, for example, an image having a similar color atmosphere to an image desired as a classification result or an image having an object shape atmosphere is designated as a reference image. Since the combined image is used as one reference image, the user's viewpoint can be reliably transmitted to the apparatus when specifying the classification condition, and the classification process is executed using such a reference image. Therefore, it is possible to appropriately classify the image into the classification destination desired by the user.
[0555]
(17) Also, according to the image classification device of the above embodiment,Set a classification item, set a plurality of reference images for each set classification item, and set the type of feature amount used to determine the similarity to the image to be classified for each set reference image, For each classification item, the similarity between each reference image and the classification target image is calculated using the set type of feature amount, and the total similarity is calculated to obtain the total similarity of the classification target image. The user's intention is set as a classification condition by determining a classification item as a classification destination of the classification target image based on the overall similarity of the classification target image obtained for each item and a preset classification destination determination criterion. Since it can be accurately expressed, the user's intention can be accurately transmitted to the device, and the user's intention for the classification can be reliably transmitted to the device, so that the user's intention for the classification is accurately reflected. Results can be obtained, it is possible to realize the classification process as the user desires. That is, even when an appropriate image does not exist as a reference image, for example, an image having a similar color atmosphere to an image desired as a classification result or an image having an object shape atmosphere is designated as a reference image. Since the combined image is used as one reference image, the user's viewpoint can be reliably transmitted to the apparatus when specifying the classification condition, and the classification process is executed using such a reference image. Therefore, it is possible to appropriately classify the image into the classification destination desired by the user.
[0556]
(18) Also, according to the image classification device of the above embodiment,Set category items, set multiple reference images for each set category item, calculate the similarity between each set reference image and target image for each category item, and sum the calculated similarities. The classification item that is the classification destination of the classification target image based on the total similarity of the classification target image obtained for each classification item and a preset classification destination determination criterion Therefore, it is possible to perform image classification processing using AND search processing. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.
[0557]
(19) Also, according to the image classification device of the above embodiment,Set classification items, set multiple reference images for each set classification item, obtain the similarity of each set reference image and target image for each classification item, and select from the obtained similarities Select the similarity indicating the highest similarity to obtain the overall similarity of the images to be classified, and based on the overall similarity of the images to be classified obtained for each classification item and preset classification destination determination criteria, Since the classification item that is the classification destination of the image to be classified is determined, it is possible to perform image classification processing that applies OR search processing. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.
[0558]
(20) Further, according to the image classification apparatus of the above embodiment,The degree of importance can be set for each reference image so that the obtained similarity can be arbitrarily weighted according to the type of the reference image. For each classification item, each reference image and The user's intention can be accurately expressed as a classification condition by calculating the similarity of the images to be classified, weighting the calculated similarity according to the set importance, and then determining the overall similarity. Therefore, it is possible to accurately convey the user's intention to the apparatus, and the importance is reflected as a weight for the similarity, so that it is possible to obtain an image classification result that reflects the user's intention.
[0559]
(21) Further, according to the image classification device of the above embodiment,When obtaining the similarity between the reference image and the classification target image using a plurality of types of feature amounts, the obtained similarity can be arbitrarily weighted according to the type of the reference image and the feature amount. The importance for each type of feature amount can be set for each reference image, and for each classification item, the similarity between each reference image and the classification target image is obtained for each type of feature amount, The user's intention can be accurately expressed as a classification condition by weighting the similarity calculated for each type of feature quantity according to the set importance and then calculating the overall similarity. Can be accurately transmitted to the apparatus, and the importance is reflected as a weighting for the similarity, so that it is possible to obtain an image classification result reflecting the user's intention.
[0560]
(22) Further, according to the image classification device of the above embodiment,When determining the similarity between the reference image and the image to be classified using a plurality of types of feature quantities, the classification items can be arbitrarily weighted according to the types of feature quantities. Each time, the similarity between each set reference image is obtained for each type of feature amount, and the importance for each feature amount between each reference image is calculated based on the similarity obtained for each type of feature amount. For each classification item, obtain the similarity of each reference image and the image to be classified for each type of feature quantity, and according to the determined importance for the similarity degree obtained for each type of feature quantity After calculating the weights, the overall similarity is calculated to determine the importance of each type of feature quantity between the reference images specified by the user on the device side, and the determined importance is reflected in the similarity between images. Image to match the user's intention. A result it is possible to return the. Therefore, the classification process as desired by the user can be realized, and the classification result desired by the user can be obtained.
[0561]
(23) Further, according to the image classification device of the above embodiment,Since classification items for further classifying the images classified for each classification item can be set, detailed image classification processing can be executed.
[0562]
(24) Also, according to the image classification device of the above embodiment,When the type of feature quantity is specified, the similarity between the images to be classified is calculated using the specified type of feature quantity, and the classification target is calculated based on the similarity between the images to be classified. Each image is classified into a group of similar images, a representative image representing the group is selected from each classified group and displayed on the screen, and one of the displayed representative images is designated, and features When the type of quantity is specified, the images classified into the group to which the representative image belongs are classified into groups of similar images using the specified type of feature quantity, and the group is represented from each group classified. By selecting a representative image and displaying it on the screen, it is possible to dynamically classify the image according to the criteria desired by the user when it is desired to classify the image. It is possible to find out to become. Therefore, it is possible to provide an image classification device that can classify images by a new classification method.
[0563]
(25) Moreover, according to the image classification device of the above-described embodiment,To display the types of feature quantities that can be specified on the screen, display the representative images of each group in association with the specified types of feature quantities, and display the results of classifying multiple images to be classified in a tree structure The user can recognize the state of the image classification process at a glance, and the convenience of the dynamic image classification process can be improved.
[0564]
(26) Further, according to the image classification device of the above embodiment,Since any image classified for each classification item is used as an inquiry image to search for an image that is the same as or similar to the inquiry image, the convenience of the apparatus can be improved.
[0565]
(27) Moreover, according to the image classification device of the above-described embodiment,Since the search is performed using the image search device according to any one of the above embodiments, it is possible to reliably convey the user's viewpoint to the device when specifying the search condition, and to match the user's viewpoint. Search results can be returned, and the convenience of the apparatus can be improved.
[0566]
(28) Moreover, according to the image classification device of the above embodiment,Since the image to be classified is a search result image, for example, it is possible to apply image classification to search result narrowing.
(29) According to the computer-readable recording medium of the above embodiment, since the program for causing the computer to function as each unit of the image classification device according to any one of the above embodiments is recorded, the program By executing the above, it is possible to reliably convey the user's viewpoint to the apparatus when specifying the classification condition, and to classify the image into the classification items suitable for the user's viewpoint Can be realized. That is, it is possible to realize an image classification device that can appropriately classify an image into a classification destination desired by the user..
[0567]
【The invention's effect】
Of the present inventionImage classification deviceAccording to the above, at least one query image is specified, and the feature amount to be used for the search is determined based on an extraction criterion in which the level of roughness of the feature amount extracted from the image is defined stepwise from coarse to fine. Specify at least one roughness level, and based on the extraction criteria, extract feature quantities corresponding to at least the specified roughness level from the query image and multiple search target images at a predetermined timing, and search target For each image, the similarity to the query image is obtained using the feature amount corresponding to the specified roughness level, and the search result is output based on the similarity obtained for each image to be searched. It is possible to execute a plurality of types of search processes with different accuracy. In other words, since the user can specify at least one level of roughness of the feature amount used for the search, the fineness of the user's viewpoint for the search can be expressed as a search condition, and the user's intention can be accurately set as the search condition. Can be expressed.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of an image search apparatus according to
FIG. 2 is a block diagram showing processing executed in the image search device according to
FIG. 3 is a flowchart showing an outline of image registration processing executed in the image search device according to
FIG. 4 is an explanatory diagram showing a state in which each image is mapped to a feature space in accordance with a feature amount extracted from the image in the image search device according to the present invention.
FIG. 5 is an explanatory diagram showing a search window used at the time of search in the image search apparatus according to
FIG. 6 is a flowchart showing image search processing executed in the image search device according to
FIG. 7 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 2 of the present invention.
FIG. 8 is a flowchart showing an image search process executed in the image search apparatus according to Embodiment 2 of the present invention.
FIG. 9 is an explanatory diagram showing a search window used at the time of search in the image search device according to
FIG. 10 is a flowchart showing an image search process executed in the image search apparatus according to
FIG. 11 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 4 of the present invention.
FIG. 12 is a flowchart showing image search processing executed in the image search device according to Embodiment 4 of the present invention.
FIG. 13 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 5 of the present invention.
FIG. 14 is a flowchart showing image search processing executed in the image search device according to Embodiment 5 of the present invention;
FIG. 15 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 6 of the present invention.
FIG. 16 is a flowchart showing image search processing executed in the image search device according to Embodiment 6 of the present invention;
FIG. 17 is a flowchart showing image search processing executed in the image search device according to Embodiment 7 of the present invention;
FIG. 18 is a flowchart showing an image search process executed in the image search apparatus according to
FIG. 19 is a flowchart showing an image search process executed in the image search apparatus according to
FIG. 20 is a flowchart showing image search processing executed in the image search device according to Embodiment 10 of the present invention.
FIG. 21 is a flowchart showing an image search process executed in the image search apparatus according to Embodiment 11 of the present invention.
FIG. 22 is an explanatory diagram for explaining a roughness level of a feature amount extracted from an inquiry image and a search target image in the image search device according to the twelfth embodiment of the present invention;
FIG. 23 is an explanatory diagram for explaining feature amount extraction processing (edge feature extraction) in the image search device according to the twelfth embodiment of the present invention;
FIG. 24 is an explanatory diagram illustrating feature quantity extraction processing (edge feature extraction) in the image search device according to the twelfth embodiment of the present invention;
FIG. 25 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 12 of the present invention.
FIG. 26 is a flowchart showing an image search process executed in the image search apparatus according to Embodiment 12 of the present invention.
FIG. 27 is an explanatory diagram showing a first modification of the image search process executed in the image search device according to the twelfth embodiment of the present invention;
FIG. 28 is an explanatory diagram showing a second modification of the image search process executed in the image search device according to the twelfth embodiment of the present invention.
FIG. 29 is an explanatory diagram for explaining an outline of an image search process executed in an image search device according to Embodiment 13 of the present invention;
FIG. 30 is an explanatory diagram for explaining an outline of an image search process executed in the image search device according to the thirteenth embodiment of the present invention;
FIG. 31 is a flowchart showing an image search process executed in the image search apparatus according to Embodiment 13 of the present invention.
FIG. 32 is an explanatory diagram showing a search window used at the time of search in the image search device according to Embodiment 13 of the present invention.
FIG. 33 is a block configuration diagram of an image classification device according to Embodiment 14 of the present invention;
FIG. 34 is a block diagram showing processing executed in the image classification device according to Embodiment 14 of the present invention.
FIG. 35 is an explanatory diagram showing an example of an image classification window for performing processing for setting image classification items and displaying images after classification in the image classification device according to the fourteenth embodiment of the present invention;
FIG. 36 is a flowchart showing image classification processing executed in the image classification device according to Embodiment 14 of the present invention;
FIG. 37 is an explanatory diagram showing a state of an image classification window after an image is classified in the image classification device according to Embodiment 14 of the present invention;
FIG. 38 is an explanatory diagram showing an example of an image classification window for performing processing for setting image classification items and displaying images after classification in the image classification device according to the fifteenth embodiment of the present invention;
FIG. 39 is an explanatory diagram showing an example of an image classification window for performing processing for setting image classification items and displaying images after classification in the image classification device according to the sixteenth embodiment of the present invention;
FIG. 40 is a flowchart showing image classification processing executed in the image classification device according to Embodiment 16 of the present invention;
FIG. 41 is an explanatory diagram showing an example of an image classification window for performing processing for setting image classification items and displaying images after classification in the image classification device according to Embodiment 17 of the present invention;
FIG. 42 is an explanatory diagram showing an example of an image classification window for performing processing for setting image classification items and displaying images after classification in the image classification device according to the eighteenth embodiment of the present invention;
FIG. 43 is an explanatory diagram showing an example of an image classification window for performing processing for setting image classification items and displaying images after classification in the image classification device according to the nineteenth embodiment of the present invention;
FIG. 44 is a flowchart showing image classification processing executed in the image classification device according to Embodiment 21 of the present invention;
FIG. 45 is a flowchart showing image classification processing executed in the image classification device according to Embodiment 22 of the present invention;
FIG. 46 is an explanatory diagram showing image classification processing executed in the image classification device according to Embodiment 25 of the present invention;
FIG. 47 is an explanatory diagram showing image classification processing executed in the image classification device according to Embodiment 25 of the present invention;
FIG. 48 is an explanatory diagram showing image classification processing executed in the image classification device according to Embodiment 25 of the present invention.
FIG. 49 is an explanatory diagram showing a recording medium on which a program for realizing the image search device and / or the image classification device according to the present invention is recorded and a distribution form of the program.
[Explanation of symbols]
100 computers
107 Image search software
108 Image DB
109 Image feature DB
151 U / I section
152 Feature Extraction Engine
153 Matching engine
200a-200h Search window
201 Search button
202 Image display field
203,362 Feature amount designation button
204, 207, 208, 363, 366, 367 Importance designation bar
205, 364 AND designation button
206,365 OR designation button
209 Feature specification field
210 Roughness level designation field
301 Image classification software
302 Classification tree DB
350a-350f Image classification window
351-358 folder
360a to 360f Classification condition setting window
361 Setting button
400 Image classification window
401, 402a to 404a, 402b to 404b Classification items
405-412 Representative images
450 recording media
451 server
Claims (15)
前記分類項目を設定し、設定した分類項目それぞれに対し、前記基準画像および分類対象の画像の類似度を求める際に使用される各種類の特徴量毎にそれぞれ一つの基準画像を設定する設定手段と、
前記分類項目毎に、前記設定手段で設定された各基準画像および分類対象の画像の類似度を対応する種類の特徴量を用いて求めると共に、求めた類似度を合計して前記分類対象の画像の総合類似度を求める演算手段と、
前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、
前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、
前記検索手段は、
問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、
前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、
前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、
前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、
を備えたことを特徴とする画像分類装置。A reference image that is a classification reference for the classification target image is set for each classification item that is a classification destination of the classification target image, and extracted from the reference image set for each classification item and the classification target image, respectively. By using at least one type of feature amount representing the feature of the image, the similarity between the reference image and the classification target image is obtained for each classification item, and the classification target image is determined based on the obtained similarity. An image classification device for classifying any of the classification items,
Setting means for setting the classification item and setting one reference image for each type of feature amount used when obtaining the similarity between the reference image and the image to be classified for each set classification item When,
For each classification item, the similarity between each reference image set by the setting unit and the image to be classified is obtained using a corresponding type of feature amount, and the obtained similarities are totaled to obtain the image to be classified. Means for calculating the overall similarity of
Determination means for determining a classification item to be a classification destination of the classification target image based on a total similarity of the classification target image obtained for each classification item by the calculation means and a preset classification destination determination criterion. When,
Searching means for searching for an image that is the same as or similar to the inquiry image by using any image classified for each classification item as an inquiry image,
The search means includes
Specify at least one query image and, based on the extraction criteria that define the level of roughness of features extracted from the image stepwise from coarse to fine, A designation means for designating at least one level;
When extracting at least one type of feature quantity from the inquiry image and a plurality of search target images, a feature quantity corresponding to at least the roughness level designated by the designation means based on the extraction criterion is determined at a predetermined timing. And feature extraction means for extracting with
Search means for obtaining similarity to the query image using at least one type of feature amount extracted according to the roughness level designated by the designation means for each image to be searched;
Output means for outputting a search result based on the similarity obtained for each image to be searched by the search means;
Image classification apparatus comprising the.
前記分類項目を設定し、設定した分類項目毎に、前記基準画像を複数設定すると共に、設定した各基準画像毎に前記分類対象の画像との類似度を求める際に使用する特徴量の種類を設定する設定手段と、
前記分類項目毎に、前記設定手段で設定された種類の特徴量を用いて各基準画像および分類対象の画像の類似度を求めると共に、求めた類似度を合計して前記分類対象の画像の総合類似度を求める演算手段と、
前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、
前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、
前記検索手段は、
問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、
前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、
前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、
前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、
を備えたことを特徴とする画像分類装置。A reference image that is a classification reference for the classification target image is set for each classification item that is a classification destination of the classification target image, and extracted from the reference image set for each classification item and the classification target image, respectively. By using at least one type of feature amount representing the feature of the image, the similarity between the reference image and the classification target image is obtained for each classification item, and the classification target image is determined based on the obtained similarity. An image classification device for classifying any of the classification items,
Set the classification item, set a plurality of the reference images for each set classification item, and specify the type of feature amount used when obtaining the similarity with the classification target image for each set reference image Setting means for setting;
For each classification item, the similarity between each reference image and the classification target image is obtained using the type of feature amount set by the setting unit, and the obtained similarities are totaled to obtain a total of the classification target images. A computing means for determining the similarity,
Determination means for determining a classification item to be a classification destination of the classification target image based on a total similarity of the classification target image obtained for each classification item by the calculation means and a preset classification destination determination criterion. When,
Searching means for searching for an image that is the same as or similar to the inquiry image by using any image classified for each classification item as an inquiry image,
The search means includes
Specify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level;
When extracting at least one type of feature quantity from the inquiry image and a plurality of search target images, a feature quantity corresponding to at least a roughness level designated by the designation means based on the extraction criterion is determined at a predetermined timing. And feature extraction means for extracting with
Search means for obtaining similarity to the query image using at least one type of feature amount extracted according to the roughness level designated by the designation means for each image to be searched;
Output means for outputting a search result based on the similarity obtained for each image to be searched by the search means;
Image classification apparatus comprising the.
前記分類項目を設定し、設定した分類項目毎に、前記基準画像を複数設定する設定手段と、
前記分類項目毎に、前記設定手段で設定された各基準画像および前記分類対象の画像の類似度を求めると共に、求めた類似度を合計して前記分類対象の画像の総合類似度を求める演算手段と、
前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、
前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、
前記検索手段は、
問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、
前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、
前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、
前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、
を備えたことを特徴とする画像分類装置。A reference image that is a classification reference for the classification target image is set for each classification item that is a classification destination of the classification target image, and extracted from the reference image set for each classification item and the classification target image, respectively. By using at least one type of feature amount representing the feature of the image, the similarity between the reference image and the classification target image is obtained for each classification item, and the classification target image is determined based on the obtained similarity. An image classification device for classifying any of the classification items,
Setting means for setting the classification items and setting a plurality of reference images for each set classification item;
Calculation means for obtaining the similarity between each reference image set by the setting means and the image to be classified for each classification item, and calculating the total similarity of the images to be classified by adding the obtained similarities When,
Determination means for determining a classification item to be a classification destination of the classification target image based on a total similarity of the classification target image obtained for each classification item by the calculation means and a preset classification destination determination criterion. When,
Searching means for searching for an image that is the same as or similar to the inquiry image by using any image classified for each classification item as an inquiry image,
The search means includes
Specify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level;
When extracting at least one type of feature quantity from the inquiry image and a plurality of search target images, a feature quantity corresponding to at least a roughness level designated by the designation means based on the extraction criterion is determined at a predetermined timing. And feature extraction means for extracting with
Search means for obtaining similarity to the query image using at least one type of feature amount extracted according to the roughness level designated by the designation means for each image to be searched;
Output means for outputting a search result based on the similarity obtained for each image to be searched by the search means;
Image classification apparatus comprising the.
前記分類項目を設定し、設定した分類項目毎に、前記基準画像を複数設定する設定手段と、
前記分類項目毎に、前記設定手段で設定された各基準画像および前記分類対象の画像の類似度を求めると共に、求めた類似度の中から最も高い類似性を示す類似度を選択して前記分類対象の画像の総合類似度を求める演算手段と、
前記演算手段で前記分類項目毎に求めた前記分類対象の画像の総合類似度および予め設定された分類先決定基準に基づいて、前記分類対象の画像の分類先となる分類項目を決定する決定手段と、
前記分類項目毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、
前記検索手段は、
問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、
前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、
前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、
前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、
を備えたことを特徴とする画像分類装置。A reference image that is a classification reference for the classification target image is set for each classification item that is a classification destination of the classification target image, and extracted from the reference image set for each classification item and the classification target image, respectively. By using at least one type of feature amount representing the feature of the image, the similarity between the reference image and the classification target image is obtained for each classification item, and the classification target image is determined based on the obtained similarity. An image classification device for classifying any of the classification items,
Setting means for setting the classification items and setting a plurality of reference images for each set classification item;
For each classification item, the similarity between each reference image set by the setting unit and the image to be classified is obtained, and the similarity showing the highest similarity is selected from the obtained similarities and the classification is performed. A calculation means for calculating the overall similarity of the target image;
Determination means for determining a classification item to be a classification destination of the classification target image based on a total similarity of the classification target image obtained for each classification item by the calculation means and a preset classification destination determination criterion. When,
Searching means for searching for an image that is the same as or similar to the inquiry image by using any image classified for each of the classification items as an inquiry image,
The search means includes
Specify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level;
When extracting at least one type of feature quantity from the inquiry image and a plurality of search target images, a feature quantity corresponding to at least a roughness level designated by the designation means based on the extraction criterion is determined at a predetermined timing. And feature extraction means for extracting with
Search means for obtaining similarity to the query image using at least one type of feature amount extracted according to the roughness level designated by the designation means for each image to be searched;
Output means for outputting a search result based on the similarity obtained for each image to be searched by the search means;
Image classification apparatus comprising the.
前記演算手段は、前記分類項目毎に、前記各基準画像および分類対象の画像の類似度を求め、求めた類似度に対して前記設定手段で設定された重要度に応じた重み付けを行った後、前記総合類似度を求めることを特徴とする請求項2ないし4の何れか一項に記載の画像分類装置。The setting means can set the importance for each reference image so that the similarity obtained by the calculation means can be arbitrarily weighted according to the type of the reference image. ,
The calculation means obtains the similarity between the reference image and the image to be classified for each classification item, and weights the obtained similarity according to the importance set by the setting means. The image classification apparatus according to claim 2 , wherein the total similarity is obtained.
前記演算手段は、前記分類項目それぞれについて、前記各種類の特徴量毎に前記各基準画像および分類対象の画像の類似度を求め、前記各種類の特徴量毎に求めた類似度に対して前記設定手段で設定された重要度に応じた重み付けを行った後、前記総合類似度を求めることを特徴とする請求項3または4に記載の画像分類装置。When the similarity between the reference image and the classification target image is obtained using a plurality of types of feature amounts, the setting unit determines the similarity obtained by the calculation unit according to the type of the reference image and the feature amount. It is possible to set the importance for each type of feature amount for each reference image so that arbitrary weighting can be performed,
For each of the classification items, the calculation means obtains the similarity between the reference image and the image to be classified for each type of feature amount, and the similarity calculated for each type of feature amount 5. The image classification apparatus according to claim 3 , wherein the total similarity is obtained after weighting according to the importance set by the setting unit.
前記演算手段は、前記分類項目それぞれについて、前記各種類の特徴量毎に前記各基準画像および分類対象の画像の類似度を求め、前記各種類の特徴量毎に求めた類似度に対して前記重要度決定手段で決定された重要度に応じた重み付けを行った後、前記総合類似度を求めることを特徴とする請求項3または4に記載の画像分類装置。Furthermore, when the similarity between the reference image and the classification target image is obtained using a plurality of types of feature amounts, the similarity obtained by the calculation unit is arbitrarily weighted according to the type of the feature amount. For each classification item, the similarity between the reference images set by the setting unit is obtained for each type of feature quantity, and based on the similarity obtained for each type of feature quantity. Importance determining means for determining the importance for each feature amount between the reference images,
For each of the classification items, the calculation means obtains the similarity between the reference image and the image to be classified for each type of feature amount, and the similarity calculated for each type of feature amount 5. The image classification apparatus according to claim 3 , wherein the total similarity is obtained after weighting according to the importance determined by the importance determining means.
前記特徴量の種類を指定する指定手段と、
前記指定手段で特徴量の種類が指定された場合に、指定された種類の特徴量を用いて前記分類対象の各画像間の類似度を求め、求めた分類対象の各画像間の類似度に基づいて、前記分類対象の各画像を類似する画像同士のグループに分類する分類手段と、
前記分類手段で分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示する表示手段と、
前記グループ毎に分類された任意の画像を問合せ画像として用いることにより、前記問合せ画像と同一または類似の画像を検索する検索手段と、を備え、
前記指定手段は、さらに、前記表示手段によって表示された代表画像の一つを指定すると共に、前記特徴量の種類を指定可能であり、
前記分類手段は、前記指定手段で前記代表画像および前記特徴量の種類が指定された場合に、指定された種類の特徴量を用いて前記代表画像の属するグループに分類された各画像を類似する画像同士のグループに分類し、
前記表示手段は、前記分類手段で分類された各グループからそれぞれグループを代表する代表画像を選択して画面表示し、
前記検索手段は、
問合せ画像を少なくとも一つ指定し、さらに、画像から抽出する特徴量の粗さのレベルを粗から細に向かって段階的に定義した抽出基準に基づいて、検索に利用する特徴量の粗さのレベルを少なくとも一つ指定する指定手段と、
前記問い合わせ画像及び複数の検索対象の画像から少なくとも一種類の特徴量を抽出する際に、前記抽出基準に基づいて少なくとも前記指定手段で指定された粗さのレベルに該当する特徴量を所定のタイミングで抽出する特徴抽出手段と、
前記検索対象の画像毎に、前記指定手段で指定された粗さのレベルに応じて抽出された少なくとも一種類の特徴量を用いて前記問合せ画像との類似度を求める検索手段と、
前記検索手段で前記検索対象の画像毎に求めた類似度に基づいて、検索結果を出力する出力手段と、
を備えたことを特徴とする画像分類装置。An image classification apparatus that extracts at least one type of feature amount representing a feature of an image from a plurality of images to be classified and classifies each image to be classified into a group of similar images using the extracted feature amount. And
A designation means for designating a type of the feature amount;
When the type of feature quantity is designated by the designation means, the similarity between the images to be classified is obtained using the designated type of feature quantity, and the similarity between the images to be classified is obtained. Based on the classification means for classifying the images to be classified into groups of similar images;
Display means for selecting and displaying a representative image representing each group from each group classified by the classification means;
Searching means for searching for an image that is the same as or similar to the query image by using any image classified for each group as a query image,
The designation means can further designate one of the representative images displayed by the display means, and can designate the type of the feature amount,
The classification unit resembles each image classified into the group to which the representative image belongs using the specified type of feature amount when the type of the representative image and the feature amount is specified by the specifying unit. Classify them into groups of images,
The display means selects a representative image representing the group from each group classified by the classification means and displays it on the screen,
The search means includes
Specify at least one query image, and further determine the roughness of the feature quantity used for the search based on the extraction criteria that define the level of roughness of the feature quantity extracted from the image stepwise from coarse to fine. A designation means for designating at least one level;
When extracting at least one type of feature quantity from the inquiry image and a plurality of search target images, a feature quantity corresponding to at least the roughness level designated by the designation means based on the extraction criterion is determined at a predetermined timing. And feature extraction means for extracting with
Search means for obtaining similarity to the query image using at least one type of feature amount extracted according to the roughness level designated by the designation means for each image to be searched;
Output means for outputting a search result based on the similarity obtained for each image to be searched by the search means;
Image classification apparatus comprising the.
前記特徴抽出手段は、前記段階的に定義された粗さのレベルのいずれか一つに応じて前記特徴量を抽出する場合、該当する分割数に基づいて画像を分割して複数の分割画像を生成し、生成した各分割画像から前記特徴量をそれぞれ抽出することにより、前記問合せ画像および検索対象の画像から分割画像単位の特徴量からなる特徴量群を抽出し、
前記検索手段は、前記特徴量群を利用して前記問合せ画像および検索対象の画像の類似度を求める場合、前記問合せ画像および検索対象の画像の対応する分割画像毎の類似度を該当する特徴量を用いてそれぞれ求めることにより、前記問合せ画像および検索対象の画像の類似度を求めることを特徴とする請求項1ないし11の何れか一項に記載の画像分類装置。The extraction criterion is stepwise defining at least the number of divisions representing how many images are divided as the roughness level,
When the feature extraction unit extracts the feature amount according to any one of the step-defined roughness levels, the feature extraction unit divides an image based on a corresponding division number to obtain a plurality of divided images. Generating a feature amount group composed of feature amounts in units of divided images from the query image and the search target image by extracting the feature amounts from the generated divided images,
When the search unit obtains the similarity between the query image and the search target image using the feature amount group, the search unit corresponds to the feature amount corresponding to the corresponding divided image of the query image and the search target image. image classification apparatus according by obtaining respectively, to any one of claims 1 to 11, characterized in that to determine the similarity of the query image and search target image using.
前記特徴抽出手段は、前記画像全体を特徴量の抽出対象とするレベルに応じて特徴量を抽出する場合、前記問合せ画像および検索対象の画像から画像全体を対象として特徴量を抽出することを特徴とする請求項1ないし12の何れか一項に記載の画像分類装置。The extraction criterion includes a level for extracting the entire image as a feature quantity extraction target without dividing the image as a level indicating the coarsest feature quantity in the stepwise defined roughness levels,
The feature extracting unit extracts a feature amount for the entire image from the inquiry image and a search target image when extracting the feature amount according to a level for extracting the entire image as a feature amount extraction target. The image classification device according to any one of claims 1 to 12 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35993999A JP4340367B2 (en) | 1999-01-27 | 1999-12-17 | Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11-19105 | 1999-01-27 | ||
JP1910599 | 1999-01-27 | ||
JP35993999A JP4340367B2 (en) | 1999-01-27 | 1999-12-17 | Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009005055A Division JP4674257B2 (en) | 1999-01-27 | 2009-01-13 | Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000285141A JP2000285141A (en) | 2000-10-13 |
JP4340367B2 true JP4340367B2 (en) | 2009-10-07 |
Family
ID=26355916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35993999A Expired - Fee Related JP4340367B2 (en) | 1999-01-27 | 1999-12-17 | Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4340367B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9514127B2 (en) | 2012-09-13 | 2016-12-06 | International Business Machines Corporation | Computer implemented method, program, and system for identifying non-text element suitable for communication in multi-language environment |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7027644B1 (en) | 1999-02-01 | 2006-04-11 | Lg Electronics Inc. | Multilevel image grid data structure and image search method using the same |
JP2002373177A (en) | 2001-06-15 | 2002-12-26 | Olympus Optical Co Ltd | Method and device for retrieving similar object |
JP2003076717A (en) * | 2001-09-04 | 2003-03-14 | Nippon Telegr & Teleph Corp <Ntt> | System and method for information retrieval, information retrieval program and recording medium |
US7848850B2 (en) * | 2003-11-13 | 2010-12-07 | Japan Science And Technology Agency | Method for driving robot |
JP2007527065A (en) * | 2004-03-02 | 2007-09-20 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method for generating an icon representing an image group, a computer system configured to perform the method, a computer program product and a data carrier |
JP2005354134A (en) * | 2004-06-08 | 2005-12-22 | Sony Corp | Image management method and device, recording medium, and program |
JP2006040085A (en) | 2004-07-29 | 2006-02-09 | Sony Corp | Information processing device and method therefor, storage medium, and program |
JP2006146730A (en) * | 2004-11-24 | 2006-06-08 | Casio Comput Co Ltd | Image retrieval device, image retrieval method and image retrieval device |
JP2006209260A (en) * | 2005-01-25 | 2006-08-10 | Fuji Xerox Co Ltd | System and method for retrieving articles and computer program |
JP4906044B2 (en) * | 2005-09-28 | 2012-03-28 | キヤノン株式会社 | Information retrieval apparatus, control method therefor, computer program, and storage medium |
JP4859025B2 (en) * | 2005-12-16 | 2012-01-18 | 株式会社リコー | Similar image search device, similar image search processing method, program, and information recording medium |
JP2007286864A (en) | 2006-04-17 | 2007-11-01 | Ricoh Co Ltd | Image processor, image processing method, program, and recording medium |
JP2009059133A (en) * | 2007-08-31 | 2009-03-19 | Sony Corp | Image retrieval device, image retrieval method and program |
JP5115966B2 (en) * | 2007-11-16 | 2013-01-09 | 独立行政法人産業技術総合研究所 | Music retrieval system and method and program thereof |
JP4994199B2 (en) * | 2007-11-26 | 2012-08-08 | ヤフー株式会社 | Machine learning apparatus and machine learning method |
US8099446B2 (en) * | 2007-12-12 | 2012-01-17 | International Business Machines Corporation | Digital content searching tool |
JP5374078B2 (en) * | 2008-06-16 | 2013-12-25 | オリンパス株式会社 | Image processing apparatus, image processing method, and image processing program |
JP5396926B2 (en) * | 2009-03-10 | 2014-01-22 | 株式会社ニコン | Image display device |
JP5180922B2 (en) * | 2009-07-09 | 2013-04-10 | 株式会社日立製作所 | Image search system and image search method |
JP5398519B2 (en) * | 2009-12-25 | 2014-01-29 | キヤノン株式会社 | Object identification device, object identification method, and program |
RU2595630C2 (en) * | 2010-08-16 | 2016-08-27 | Конинклейке Филипс Электроникс Н.В. | Method and device for selecting at least one media item |
JP5321564B2 (en) * | 2010-11-08 | 2013-10-23 | ソニー株式会社 | Image management method and apparatus, recording medium, and program |
JP5715010B2 (en) * | 2011-09-02 | 2015-05-07 | オリンパスメディカルシステムズ株式会社 | Image processing device |
JP6131723B2 (en) | 2012-11-26 | 2017-05-24 | 株式会社リコー | Information processing apparatus, information processing method, program, and recording medium |
WO2015136716A1 (en) * | 2014-03-14 | 2015-09-17 | オムロン株式会社 | Image processing device, image sensor, and image processing method |
KR102256057B1 (en) * | 2014-03-17 | 2021-05-25 | 에스케이플래닛 주식회사 | Apparatus for providing a search result based on posture of object, method thereof and computer readable medium having computer program recorded therefor |
JP6099593B2 (en) * | 2014-03-27 | 2017-03-22 | 富士フイルム株式会社 | Similar case search device, similar case search method, and similar case search program |
JP6099592B2 (en) * | 2014-03-27 | 2017-03-22 | 富士フイルム株式会社 | Similar case search device and similar case search program |
CN104951522B (en) * | 2015-06-10 | 2020-02-28 | 小米科技有限责任公司 | Method and device for searching |
CN106354885A (en) * | 2016-10-14 | 2017-01-25 | 百度在线网络技术(北京)有限公司 | Searching method and device |
JP7077624B2 (en) * | 2018-01-15 | 2022-05-31 | 凸版印刷株式会社 | Content classification device, content classification method, and program |
WO2020134236A1 (en) * | 2018-12-29 | 2020-07-02 | 丰疆智能科技股份有限公司 | Harvester and automatic driving method thereof |
JP2021005158A (en) * | 2019-06-25 | 2021-01-14 | 三菱電機株式会社 | Boundary line detection device and water level measurement device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06309377A (en) * | 1993-04-23 | 1994-11-04 | Nec Corp | Picture retrieving method and device |
JPH07146871A (en) * | 1993-11-24 | 1995-06-06 | Hitachi Ltd | Still picture retrieval device and method therefor |
JP3284528B2 (en) * | 1995-03-15 | 2002-05-20 | オムロン株式会社 | Image search method and apparatus |
JPH09204440A (en) * | 1996-01-29 | 1997-08-05 | Fujitsu Ltd | System and method for retrieving image and recording medium |
JPH10198683A (en) * | 1997-01-07 | 1998-07-31 | Ricoh Co Ltd | Method for sorting document picture |
JP3571162B2 (en) * | 1997-03-03 | 2004-09-29 | 日本電信電話株式会社 | Similar object search method and apparatus |
-
1999
- 1999-12-17 JP JP35993999A patent/JP4340367B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9514127B2 (en) | 2012-09-13 | 2016-12-06 | International Business Machines Corporation | Computer implemented method, program, and system for identifying non-text element suitable for communication in multi-language environment |
Also Published As
Publication number | Publication date |
---|---|
JP2000285141A (en) | 2000-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4340367B2 (en) | Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus | |
JP4674257B2 (en) | Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus | |
JP5229744B2 (en) | Image classification device and image classification program | |
US6711287B1 (en) | Image-feature extraction method and computer-readable record medium with a program for making a computer execute steps of the method recorded therein | |
US6556710B2 (en) | Image searching techniques | |
EP2278498B1 (en) | Scalable indexing for layout based document retrieval and ranking | |
US7801893B2 (en) | Similarity detection and clustering of images | |
JP5236785B2 (en) | Color image search method, color image search apparatus, color image search system, and computer executable program | |
EP1516264B1 (en) | Image retrieval by generating a descriptor for each spot of an image the cells of which having visual characteristics within a selected tolerance | |
JP4579404B2 (en) | Image processing method and apparatus | |
CN102073748B (en) | Visual keyword based remote sensing image semantic searching method | |
US6522782B2 (en) | Image and text searching techniques | |
JP4366119B2 (en) | Document processing device | |
US20040024758A1 (en) | Image classification method, image feature space displaying method, program, and recording medium | |
JP4111198B2 (en) | Image search system, image search program and storage medium, and image search method | |
JP5180922B2 (en) | Image search system and image search method | |
JP4173246B2 (en) | Similar image display method and recording medium storing similar image display processing program | |
US6522780B1 (en) | Indexing of images and/or text | |
JP6173754B2 (en) | Image search system, image search apparatus, and image search method | |
US20110200260A1 (en) | Image retrieval using texture data | |
US6522779B2 (en) | Representing an image with a posterized joint histogram | |
JP2005353101A (en) | Image-feature extraction method and computer-readable recording medium stored with program for executing on computer each step of the method | |
JP2011043954A (en) | Image processor, image processing method, and image processing program | |
US6671402B1 (en) | Representing an image with weighted joint histogram | |
JP4331882B2 (en) | Element image extraction device for search, search reference image input device, and recording medium recording program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090317 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090630 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090706 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120710 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120710 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130710 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |