JP3718967B2 - Image feature amount extraction apparatus and method, and recording medium on which image feature amount extraction program is recorded - Google Patents
Image feature amount extraction apparatus and method, and recording medium on which image feature amount extraction program is recorded Download PDFInfo
- Publication number
- JP3718967B2 JP3718967B2 JP22610197A JP22610197A JP3718967B2 JP 3718967 B2 JP3718967 B2 JP 3718967B2 JP 22610197 A JP22610197 A JP 22610197A JP 22610197 A JP22610197 A JP 22610197A JP 3718967 B2 JP3718967 B2 JP 3718967B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- periodicity
- texture
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は画像の特徴量を抽出するものであって、特に、画像からテクスチャ特徴量を抽出する画像特徴量抽出装置に関するものである。
【0002】
【従来の技術】
一般に、画像データベースは、画像データに、作成日、修正日、ファイル名、ファイルフォーマット等の属性情報と、キーワード、形状特徴、色味、音声等の検索情報とを付加し、保管・管理する。このような画像データベースにおいて、データを登録する際に、属性情報が自動的に付加されることは一般的に行われている。また、色味、テクスチャ、エッジ情報等の特徴量が画像データから抽出され、自動的に付加されることも一般的に知られている。しかし、画像データから上記各特徴量を抽出する際は、抽出のための処理時間が問題となる。特に、テクスチャ特徴量については、画像からテクスチャの情報を得るための画像処理の演算量が多く、従来から効率的な方法が要望されていた。
【0003】
【発明が解決しようとする課題】
例えば、画像からテクスチャの特徴量を抽出する方法として、特開平5−28266号公報に開示された発明がある。この発明では、画像を正方形状のブロックに分割し、各ブロック毎に特徴量を算出している。しかし、この方法では、画像全体に対してブロック化および特徴量の算出を行うため、処理対象が画像全体となり、一様なテクスチャパターンを有する画像に対しては効率的ではなかった。
【0004】
また、一般に、画像の特徴量抽出は、画像の正規化、グレー化および二値化処理が行われた後の画像データに対して行われる。従来、画像の二値化処理においては、二値化の閾値を、グレー化後の画素値分布において0値の画素と1値の画素の出現確率がほぼ同じになる中間値や、明度の平均値等に設定していた。しかし、この場合、画像中の大きな面積を占めかつ緩やかな諧調を持つ部分の画素値が閾値となりやすいため、青空や無地の背景のような一様に見える背景等を含む画像を二値化したときの画像が不自然になるという問題があった。すなわち、青空や無地の背景等を含む画像において、同じ背景でありながら、背景のうちのある部分は0に変換され、ある部分は1に変換されてしまうため、二値化後の画像が不自然に見えてしまうという問題があった。したがって、このような二値化後のデータを用いて画像の特徴量を抽出しても、画像の特徴を適切に抽出できないという問題がある。
【0005】
本発明は上記問題を解決するためになされたものであり、その目的とするところは、画像からテクスチャ特徴量を効率よく、また、画像の特徴をより正確に抽出する画像特徴量抽出装置を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る画像特徴量抽出装置は、多値化された画素情報が二次元格子状に配列されてなるテクスチャを含む画像からテクスチャ特徴量を抽出する画像特徴量抽出装置において、画像を入力する画像入力手段と、入力した画像において、所定方向に向かう線上または一定幅の領域内に存在する画素を用いて濃度共起行列を計算する手段と、濃度共起行列に基づいて慣性を計算する手段と、慣性に基づいて画像の周期性の有無を判断する判断手段と、周期性があると判断されたきに画像の周期性として画像のテクスチャ特徴量を抽出する特徴量抽出手段とを有する。
【0007】
判断手段は、慣性の最小値が所定値より小さい場合に、慣性の値が与えられる距離において周期性があると判断してもよい。
【0008】
また、前記画像特徴量抽出装置は、グレー化された画像を入力する画像入力手段と、該グレー化された画像を構成する画素の濃度に基づいて、グレー化後の画像における画素値分布の中間値から所定値だけシフトした値に設定された閾値を境として0または1で表される二値化画像に変換する二値化変換手段とを備え、該二値化変換手段により二値化された画像からテクスチャ特徴量を抽出する。
【0009】
本発明に係る画像特徴量抽出方法は、多値化された画素情報が二次元格子状に配列されてなるテクスチャを含む画像からテクスチャ特徴量を抽出する画像特徴量抽出方法において、画像を入力し、入力した画像において、所定方向に向かう線上または一定幅の領域内に存在する画素を用いて濃度共起行列を計算し、濃度共起行列に基づいて慣性を計算し、慣性に基づいて画像の周期性の有無を判断し、周期性があると判断されたきに画像の周期性として画像のテクスチャ特徴量を抽出する。
【0011】
本発明に係る記録媒体は、多値化された画素情報が二次元格子状に配列されてなるテクスチャを含む画像からテクスチャ特徴量を抽出するプログラムであって、画像を入力する手順と、入力した画像において、所定方向に向かう線上または一定幅の領域内に存在する画素を用いて濃度共起行列を計算する手順と、濃度共起行列に基づいて慣性を計算する手順と、慣性に基づいて画像の周期性の有無を判断する手順と、周期性があると判断されたきに画像の周期性として画像のテクスチャ特徴量を抽出する手順とをコンピュータに実行させるプログラムを記録する。
【0013】
【発明の実施の形態】
以下、添付の図面を用いて本発明に係る画像特徴量抽出装置の実施の形態を説明する。
【0014】
本実施形態の画像特徴量抽出装置は、画像からテクスチャの特徴量を抽出する際に、画像全体に対してではなく、一定幅の帯状領域内の画像を走査し、この領域内にある像からテクスチャの特徴量を抽出する。すなわち、画像全体ではなく、画像の一部の領域から画像特徴量を抽出することにより、特徴量抽出時の処理効率を向上させたものである。
【0015】
<画像特徴量抽出装置の全体構成>
図1に本実施形態の画像特徴量抽出装置(以下、「システム」と称す。)の概略構成図を示す。図1に示すように、システムは中央演算処理(以下、「CPU」と称す。)を備え、システム全体を制御する制御装置1を中心として構成される。CPUには例えばインテル社製のペンティアム等が用いられる。この制御装置1には、画像あるいは文字等の表示や、操作のための表示等を行うディスプレイ2と、各種入力、指示操作等を行うためのキーボード3およびマウス4と、データ保管媒体であるフロッピーディスク装置5aおよびハードディスク装置6と、文字や画像データ等を印刷するプリンタ7と、画像データを取り込むためのスキャナ8と、CD−ROM9aに格納されたデータを読み出すためのCD−ROM装置9bと、音声出力のためのスピーカ10と、音声入力のためのマイクロホン11とが接続される。
【0016】
図2に本システムのブロック図を示す。CPU201には、データバス220を介して、本システムを制御するプログラムが格納されているROM203と、CPU201が制御のために実行するプログラムやデータを一時的に格納するRAM204とが接続される。また、CPU201にデータバス220を介して接続される回路には、画像あるいは文字等の表示のためディスプレイ2を制御する表示制御回路205と、キーボード3からの入力を転送制御するキーボード制御回路206と、マウス4からの入力を転送制御するマウス制御回路207と、フロッピーディスク装置5bを制御するフロッピーディスク装置制御回路208と、ハードディスク装置6を制御するハードディスク装置制御回路209と、プリンタ7への出力を制御するプリンタ制御回路210と、スキャナ8を制御するスキャナ制御回路211と、CD−ROM装置9bを制御するCD−ROM装置制御回路212と、スピーカ10を制御するスピーカ制御回路213と、マイクロホン11を制御するマイクロホン制御回路214とがある。さらに、CPU201には、システムを動作させるために必要な基準クロックを発生させるためのクロック202が接続され、また、各種拡張ボードを接続するための拡張スロット215がデータバス220を介して接続される。なお、拡張スロット215にSCSIIボードを接続し、このSCSIIボードを介してフロッピーディスク装置5b、ハードディスク装置6、スキャナ8またはCD−ROM装置9b等を接続してもよい。
【0017】
なお、上記システムにおいて、画像データ保管媒体としてはフロッピーディスク5a、ハードディスク装置6を用いているが、光磁気ディスク(MO)等の他の情報記憶媒体でもよい。また、画像データ入力装置としてスキャナ8を用いているが、スチルビデオカメラやデジタルカメラ等の他のデータ入力装置であってもよい。さらに、出力装置としてプリンタ7を用いているが、デジタル複写機等の他の出力装置であってもよい。また、本システムでは、データの管理システムを実現するプログラムをROM203に格納する。しかし、本プログラムの一部または全部をフロッピーディスク5aやハードディスク装置6やCD−ROM9b等の情報記憶媒体に格納しておき、必要に応じて情報記憶媒体よりプログラムおよびデータをRAM204に読み出し、これを実行させてもよい。
【0018】
<画像特徴量抽出装置で用いるデータベースおよびキーワード辞書>
また、本システムは画像データを保管、管理するため、データおよびその検索キーとなる付加情報等を含む画像データベースを有する。この画像データベースはハードディスク装置6等の情報記憶媒体上に論理的に構成されている。図3に、本システムの画像データベースの構成の一例を示す。図3に示すデータベース50は、管理する画像情報である「画像データ」と、その画像データに対する検索キーの1つである「キーワード」と、画像データの特徴を示す特徴量である「特徴量1」、「特徴量2」等の情報から構成される。
【0019】
<濃度共起行列について>
ここで、本実施形態において画像特徴量の抽出の際に用いる濃度共起行列およびその慣性(inertia)について説明する。テクスチャ解析の方法として濃度共起行列を用いる方法は、広く使用されている手法である。この方法については、例えば、「画像認識の基礎[II]−特徴抽出、エッジ検出、テクスチャ解析−(森俊二・他著)」に詳しく述べられている。
【0020】
この手法は、基本的には2次元結合確率密度関数f(i,j|d,θ)の評価に基づくものである。f(i,j|d,θ)は、濃度値iをもった画素からθ方向に距離dだけ離れた画素が、濃度値jをもつ可能性を示す確率密度関数である。(d,θ)ごとにf(i,j|d,θ)を行列で表したものが濃度共起行列であり、i,jはそれぞれ行、列の位置を示す。テクスチャが粗く、距離dがテクスチャの構成要素の大きさに比べて小さい場合、(d,θ)だけ離れた一対の画素は一般に類似した濃度値を持ち、したがって、濃度共起行列の対角要素付近の値が大きくなるようになる。逆に細かいテクスチャで距離dがテクスチャの構成要素程度の大きさであれば、(d,θ)だけ離れた一対の画素はいろいろな組み合わせの濃度値をとる可能性があり、濃度共起行列の全要素にわたって比較的一様に分布するようになる。
【0021】
本実施形態では、濃度共起行列を求める際の走査方向となるθを図4の(a)〜(d)に示すように0°、45°、90°、135°にとる(詳細は後述)。ここで、濃度共起行列M(d,θ)を用いて行列Sθ(d)を以下のように定義する。
S0(d)={M(d,0°)+Mt(d,0°)}/2 …(1)
S45(d)={M(d,45°)+Mt(d,45°)}/2 …(2)
S90(d)={M(d,90°)+Mt(d,90°)}/2 …(3)
S135(d)={M(d,135°)+Mt(d,135°)}/2 …(4)
ここで、Mt(d,θ)はM(d,θ)の転置行列とする。
これらの行列を用いて種々の特徴量を計算し、特徴空間を構成し、テクスチャの識別を行うことができる。
【0022】
また、上記特徴量の1つである濃度共起行列の慣性(inertia)は上記行列を用いて以下の式で求められる。
【数1】
ここで、S θ ( i,j |d)は行列S θ (d)のi行、j列要素であり、NGは画像の濃度レベルの数である。
【0023】
テクスチャの周期性は濃度の周期性であるから、テクスチャの周期性はSθ(i,j|d)に反映されるはずである。そこで、各方向に対してdを3、4、…dmax(距離dの最大値)と変化させた場合のグラフから周期性の有無を判定する。以下にこの判定方法について説明する。まず、各方向θにおいて、各距離dに対する慣性I{Sθ(d)}を求め、各慣性I{Sθ(d)}の中から最小の慣性の値Iner(θ)を求める。ここで、Iner(θ)は次式で与えられる。
【0024】
その後、Iner(0)、Iner(45)、Iner(90)、Iner(135)の中から、最小のものと、2番目に小さいものとを選択する。選択されたそれぞれの慣性の最小値Iner(θ)が所定値より小さければ、対象とするテクスチャが周期性を持つと判断する。
【0025】
例えば、図5は、4つの方向θにおいて、ある画像に対して距離dを変化させた場合の慣性Iを求めた結果を示したものである。この図の場合、方向θ=0°では距離d=7のときに、方向θ=45°では距離d=7のときに、方向θ=90°では距離d=13のときに、方向θ=135°では距離d=6のときに、それぞれの方向での慣性の最小値Iner(θ)が求まる。各方向θに対する慣性Iの最小値Iner(θ)のうち、Iner(135)が最小となり、Iner(45)が2番目に小さい値となる。そして、Iner(45)、Iner(135)の双方とも周期性判定の閾値より低いため、この画像はθ=45°、135°の方向に対して周期性があると判断される。
【0026】
<画像特徴量抽出装置の制御動作>
以下に、本システムの具体的な制御動作についてフローチャートを用いて説明する。
【0027】
<メインフロー>
図6は本システムにおいて実行されるプログラムのメインルーチンを示すフローチャートである。本プログラムが起動されると、まず、以降の各処理で必要なフラグ等のイニシャライズや、初期メニュー画面の表示等を行う初期設定処理が行われる(S1)。図7に初期画面の一例を示す。初期メニュー画面21上では、所定の処理を選択するための選択項目23〜25がアイコンとして表示されており、この選択項目23〜25の1つがユーザにより選択されることにより所定の処理が実行される。なお、本システムにおいては、ディスプレイ2等上に表示された初期メニュー画面21等の設定画面上で、ユーザにより、キーボード3やマウス4等を介して各種処理の選択、設定値の入力等が行われる。ステップS1の後、初期メニュー画面21上でユーザによるメニュー選択がなされたか否かを判定する(S2)。ステップS2において、「テクスチャ抽出」23が選択されれば、指定された画像データからテクスチャ特徴量を抽出し、画像データベース50に登録する等の処理を行うテクスチャ抽出処理(S3)へ進み、その後、ステップS6へ進む。ステップS2において、「テクスチャ比較検索」24が選択されれば、指定された画像データと、データベース50に登録されている画像データのテクスチャを比較し、類似する画像データを抽出する処理を行うテクスチャ比較検索処理(S4)へ進み、その後、ステップS6へ進む。ステップS2において、「その他のメニュー」25が選択されれば、その他のメニュー処理を行い(S5)、その後、ステップS6へ進む。ステップS2において、メニュー選択されなければ、なにもせずにステップS6へ進む。ステップS6では、その他の処理を実行し、すべての処理が終わるとステップS2へ戻り、以後、同様の処理が繰り返される。
【0028】
ここで、その他のメニュー処理(S5)についても、一般的な検索システムと基本的に同様であり、本願発明に直接関係しないのでここでの説明は省略し、特に、テクスチャ抽出処理(ステップS3)およびテクスチャ比較検索処理(ステップS4)について以下に詳細に説明する。
【0029】
<画像特徴量抽出装置におけるテクスチャ抽出処理>
最初に、テクスチャ抽出処理(ステップS3)について説明する。図8にテクスチャ抽出処理のフローチャートを示す。図8に示すようにテクスチャ抽出処理では、画像データを画像データベース50に登録する際に、画像データから濃度共起行列を計算する濃度共起行列計算処理(S31)と、濃度共起行列計算処理の結果に基づいてテクスチャ特徴量を抽出し、この特徴量を画像データとともに画像データベース50に登録する特徴量抽出処理(S32)とを行う。以下に、それぞれのステップを図9及び図10のフローチャートを参照して説明する。
【0030】
図9は濃度共起行列計算処理(S31)のフローチャートである。図9において、まず、データベースやファイルシステムなどの記憶媒体から画像をロードし(S301)、正規化する(S302)。ここでの正規化とは、画像処理時間の短縮とノイズの削減の目的のために、取得する画像を所定の大きさに縮小または拡大することである。本実施形態では120×120ピクセルの大きさに画像が収まるように縦横比を維持したまま縮小する。
【0031】
次に、正規化されたデータをグレー画像に変換した後、二値化処理を行う(S303)。ここで、本実施形態では、従来技術で述べた二値化処理の問題を解決すべく、閾値を出現頻度の高い画素値に設定せず、その前後の値を閾値に設定するようにした。すなわち、閾値をグレー化後の画素値分布の中間値から所定値だけ前後にシフトした値に設定する。以下に具体例を用いて説明する。
【0032】
図11はグレー化後の画像の画素値に対する画素値分布を示したものである。この図では画素値は256諧調を有する。本実施形態では、図11に示すように、画素値分布において、画素値の中間値(M)から、標準偏差(s)の3分の1だけ画素値の高い方にシフトした値に閾値を設定する。このように、二値化の閾値を画素値分布の中間値から所定値だけシフトした値に設定することにより、頻度の高い画素値に閾値を設定しないため、元画像の特徴をより保持したまま二値化が可能となる。ただし、以下の場合は、上記とは異なる閾値の設定を行う。すなわち、中間値Mが128以上で、かつ、中間値での累積画素数が90%を越える場合は、画素値が中間値未満となる画素を「0」にし、中間値以上となる画素を「1」にする。また、中間値Mが128未満で、かつ、中間値での累積画素数が90%を越える場合は、画素値が中間値以下となる画素を「0」にし、中間値を越える画素を「1」にする。また、(中間値M+標準偏差s/3)となる値での累積画素数が100%になる場合は、閾値は中間値Mに設定する。このように閾値を設定し二値化処理することにより、結果として元画像のイメージに近い二値化画像が得られる。
【0033】
画像の正規化(S302)及び二値化(S303)が終了すると、次に、当該画像から濃度共起行列を計算する。まず、濃度共起行列を求める走査方向θに対応した方向番号nを初期値0に設定する(S304)。方向番号nは、0のとき0°、1のとき45°、2とき90°、3のとき135°の方向θにそれぞれ対応する。ここで、より正確な方向性を求めるならば、例えば、濃度共起行列を求める角度間隔を10°毎に設定し、方向番号が0のとき0°、1のとき10°、2のとき20°というように角度を細かく分割して走査方向θに対応させ、濃度共起行列を求めてもよい。しかし、角度を細かく分割すると計算処理が多くなり、処理時間がかかるため、ここでは45°づつに分割する。
【0034】
次に、濃度共起行列を求める時の画素の距離dを1に設定する(S305)。第n方向、距離dにおける濃度共起行列を求める(S306)。すなわち、この場合、第1方向、距離1における濃度共起行列を求めることになる。本実施形態においては、濃度共起行列を計算する際には、画像全体の画素に対して求めるのではなく、計算対象の方向と同じ方向の所定幅の帯上の画素に対して行う。帯の幅は画像の大きさに比べて処理の高速化の効果を得るために充分小さく、かつ濃度共起行列が得られるため必要な大きさであれば良い。当然、帯の幅を太くすれば計算結果の精度は上がるが計算対象の画素が増えるので処理は遅くなり、逆に帯を細くすれば処理は速くなるが計算結果の精度は下がる。
【0035】
本実施例では正規化の画像サイズが120×120であることを考慮して、帯の幅を10ピクセルとして説明していく。例えば、第0方向であれば、図4の(a)に示すように画像の中心を通り10ピクセル幅の横方向の帯になる。第1方向であれば、図4の(b)に示すように画像の中心を通り10ピクセル幅の45°方向の帯になる。第2方向であれば、図4の(c)に示すように画像の中心を通り10ピクセル幅の90°方向の帯になる。第3方向であれば、図4の(d)に示すように画像の中心を通り10ピクセル幅の135°方向の帯になる。なお、走査する画像領域は、図4に示すように連続でなくてもよく、同一方向性を有していれば、不連続な複数の線または領域からなる領域であってもよい。例えば、離散的に位置する1ピクセルづつの10本の線からなる領域を走査してもよい。画像全体に周期性があれば、このようにしても同様に周期性は求められるからである。
【0036】
ステップS306で得られた濃度共起行列から式(5)を用いて慣性の値I{Sθ(d)}を求める(S307)。ステップS307で得られた慣性の値を配列Val[d]に代入する(S308)。その後、距離dの値をインクリメントする(S309)。
【0037】
設定された距離dが、所定の距離の上限dmaxを越えているか否かを判定する(S310)。距離dが上限dmaxを越えていればS311に進む。距離dがその上限dmax以下であればステップS306に戻り、距離dがその上限dmaxを越えるまで、処理(S306〜S310)を繰り返す。ここで、距離の上限dmaxは、画像のサイズの半分程度の値までに設定する。
【0038】
ステップS310では、同一方向における、各距離dに対する慣性Val[d]の値の中から、その方向における慣性の最小値Iner[n]を求める(S311)。
【0039】
その後、次の方向を指定するため、方向番号nをインクリメントする(S312)。インクリメントされた方向番号nが3以下であるかを判定する(S313)。方向番号nが3以下であれば処理S305に戻り、上記処理を繰り返す(S305〜S313)。全ての方向番号nに対して慣性の値の計算が終了すると、処理を終了する。
【0040】
以上のようにして、濃度共起行列を用いて所定の方向に対する画像の慣性を求めると、次にこの慣性の値に基づいて画像の特徴量を抽出する。ここで、本実施形態では、画像のテクスチャの周期性をテクスチャ特徴量として抽出する。一般に、濃度共起行列から得られた慣性の値は同じ方向で見た場合、テクスチャの周期性が顕著である場合ほど距離dに対する慣性の値に周期性が見られることは良く知られている。そして、周期となる距離dでは慣性の値が0に近づく。このため、本実施形態では、周期性を判断するための閾値を決め、この閾値と慣性の最小値とを比較し、慣性の最小値が閾値より小さいときに、慣性の最小値が与えられる距離dにおいて周期性があると判断する。
【0041】
図10は特徴量抽出処理(S32)のフローチャートである。図10において、各走査方向に対して慣性の最小値を格納したIner[0]〜Iner[3]のうちから最小値を選択する(S314)。そして、この最小値が前述の周期性を判断するための閾値以下であるか否かを判断する(S315)。閾値を越えていればステップS322に進み、閾値以下であればステップS316へ進む。
【0042】
ステップS316では、周期性があると判断された最小値の慣性に対する方向番号nと周期dをテクスチャ特徴量として保存する。ここで、最小の慣性の最小値を与える周期性を「第1の周期」と呼ぶ。また、ここで得られたテクスチャ特徴量の方向と周期を第1周期特徴量と呼ぶ。
【0043】
次に、4つの走査方向に対する各慣性の最小値を格納した配列Iner[0]〜Iner[3]のうちから2番目に小さい慣性の値を選択する(S317)。この慣性の値が、周期性を持つと判断する閾値以下であるか否かを判断し(S318)、閾値を越えていればステップS322に進む。閾値以下であればステップS319へ進む。
【0044】
ステップS319では、周期性があると判断された2番目に小さい値の慣性に対する方向番号nと周期dをテクスチャ特徴量として保存する。ここで、2番目に小さい慣性の最小値を与える周期性を「第2の周期」と呼ぶ。また、ここで得られたテクスチャの方向性と周期を第2周期特徴量と呼ぶ。
【0045】
その後、ステップS320において、周期性フラグを「有」にセットし、処理を終了する。ここで、周期性フラグは「有」のとき対象画像に周期性があることを意味し、「無」のとき対象画像に周期性がないことを意味する。ステップS322では、周期性フラグを「無」にセットする。最後に、画像データを周期性フラグおよび特徴量(周期性があるとき)とともに画像データベース50に登録し(S321)、処理を終了する。
【0046】
以上の処理において、周期性フラグにより対象画像が周期性を有するか否かの情報が得られ、さらに周期性がある場合は、「第1周期」の方向と周期及び「第2周期」の方向と周期がテクスチャ特徴量として得られる。また、第1方向特徴量と第2方向特徴量だけでもテクスチャの特徴量として意味があるが、その方向と周期より部分画像を切り出しテクスチャのパターン画像とする応用も考えられる。
【0047】
<画像特徴量抽出装置のテクスチャ比較検索処理>
次にテクスチャ比較検索処理(S4)について説明する。ここでは、検索キーとなる画像(以下、キー画像と呼ぶ)をユーザーがキーボード3等を介して画面上より指定し、キー画像のテクスチャ特徴量とよく似たテクスチャ特徴量を持つ画像を類似性があると判断し画像データベース50から検索し、ディスプレイ2等の表示部に結果を表示する処理を説明する。
【0048】
図12はテクスチャ比較検索処理のフローチャートである。最初に、ユーザーが指定したキー画像のテクスチャ情報(T0)を画像データベース50からロードする(S401)。ここで、テクスチャ情報は、画像登録時に画像とともに画像データベース50に登録されたものであり、ここでは、周期性フラグ、第1方向特徴量および第2方向特徴量等を含む。キー画像のテクスチャ情報が周期性を持つか否かを、テクスチャ特徴量抽出処理の過程で設定された周期性フラグにより判定する(S402)。周期性がなければ処理を終了し、周期性があればステップS403へ進む。
【0049】
ステップS403では、検索対象の画像データベース50においてレコードポインタiをトップに移動する。レコードポインタiが示す画像のテクスチャ情報T[i]を画像データベース50からロードする(S404)。
【0050】
S404でロードしたテクスチャ情報T[i]の中の周期性フラグに基づいて周期性の有無を判断する(S405)。周期性がなければステップS409に進み、周期性があればステップS406に進む。
【0051】
ステップS406では、キー画像のテクスチャ情報T0と検索対象のテクスチャ情報T[i]との類似度を比較演算し、数値化し、類似画像か否かを判定する(S406)。類似画像でなければ処理S409に進み、類似画像と判断すればステップS407に進む。ここで、類似度の計算は、第1周期特徴量における方向と周期および第2周期特徴量における方向と周期から計算してもよい。
【0052】
例えば、
キー画像のテクスチャ情報T0の第一周期の周期をd0(1)、
検索対象画像のテクスチャ情報T[i]の第一周期の周期をdi(1)、
キー画像のテクスチャ情報T0の第二周期の周期をd0(2)、
検索対象画像のテクスチャ情報T[i]の第二周期の周期をdi(2)、
第一周期の方向の角度をθ0、
第二周期の方向の角度をθi、
類似度判定のウェイトをWA,Wθとすると、
周期が(d0(1),d0(2),θ0)のテクスチャT0と、周期が(di(1),di(2),θi)のテクスチャTiとの類似度Dは、次式で求められる。ここで、Dは大きい方が類似している。
【数2】
ここで、R0,Riはパターン形状の縦横比であり、次式で表される。
R0=d0(2)/d0(1) …(8)
Ri=di(2)/di(1) …(9)
【0053】
ステップS407において、現在のレコードポインタiが示す画像の情報をロードし(S407)し、このロードされた画像情報を検索結果とし、ディスプレイ2にサムネイル画像を表示する(S408)。検索結果表示の例としては、上記のようにサムネイル画像を表示する方法、画像の名前を表示する方法、サムネイルを生成した元画像のファイル名やパスを表示する方法、元画像の入手先を表示する方法などのバリエーションが考えられる。又は、類似性があると判定した結果の画像の数をカウントし、その数を表示する方法も考えられる。
【0054】
その後、引き続き画像検索を行うために、レコードポインタiを一つ進める(S409)。画像データベース50中に検索対象の画像データがまだあるか否かを判定する(S410)。すなわち、レコードポインタiを進めた結果、新たに読み出す画像データがまだあるか否かを判断する。検索対象の画像データが新たにないときは処理を終了し、検索対象の画像データがまだあるときはステップS404に戻り、上記処理(S404〜S410)を繰り返す。
【0055】
以上のようにして、本実施形態の画像特徴量抽出装置は、画像の特徴を抽出する際に、画像データの一定幅の帯状部分の領域に対して濃度共起行列を求め、これに基づいて画像データの周期性(テクスチャ特徴量)を求めることにより、画像データのテクスチャ特徴量の抽出において処理速度を向上できる。
【0056】
なお、本実施形態では、所定方向の帯上の領域の画像データに基づいてテクスチャ特徴量を検出するようにしたが、これに限らず、1本の線上の画像データでもよいし、所定間隔毎の数本の線上の画像データでもよい。但し、1本の線上の画像データで検出する場合、非常に高速であるが、扱える画像に制約がある。例えば、周期性を有することがある程度分かっている画像を扱うシステム(例えば、幾何学模様の布地データベース等)には適用可能である。また、所定間隔毎の数本の線上の画像データで検出する場合、少ないデータ量で検出ができ、かつ、比較的広範囲の領域に対して検出が可能である。
【0057】
【発明の効果】
本発明の画像特徴量抽出装置は、画像データにおいて、一定幅の帯状部分の領域に対してテクスチャ特徴量を抽出するため、効率よく特徴量の抽出が行える。また、テクスチャ特徴量の抽出の際の前段処理であるデータの二値化処理において、その閾値を画素値分布における中間値より所定値だけシフトさせた値に設定することにより、画像中の大きな面積を占めかつ緩やかな諧調を持つ画像に対して元画像の特徴を損なうことなく画像の二値化が実現でき、画像の特徴量がより正確に抽出できる。
【図面の簡単な説明】
【図1】 本実施形態の画像特徴量抽出装置の構成の概略を示す図。
【図2】 画像特徴量抽出装置の制御装置を中心としたブロック図。
【図3】 画像データベースの構成図。
【図4】 濃度共起行列を求める際の走査方向θを示した図。
【図5】 各走査方向θにおいて、距離dに対して求められる慣性の値Iを示した図。
【図6】 画像特徴量抽出装置のメインのフローチャート。
【図7】 データ入力または設定等の画面の表示例を示した図。
【図8】 画像特徴量抽出装置におけるテクスチャ抽出処理のフローチャート。
【図9】 画像特徴量抽出装置における濃度共起行列計算処理のフローチャート。
【図10】 画像特徴量抽出装置における特徴量抽出処理のフローチャート。
【図11】 二値化処理の閾値を求める方法を説明した図。
【図12】 画像特徴量抽出装置におけるテクスチャ比較検索処理のフローチャート。
【符号の説明】
1…制御装置、 2…ディスプレイ、 3…キーボード、 4…マウス、 5a…フロッピーディスク、 5b…フロッピーディスク装置、 6…ハードディスク、 7…プリンタ、 8…スキャナ、 9a…CD−ROM、 9b…CD−ROM装置、 10…スピーカ、 11…マイク、 21…初期設定画面、 23〜25…選択用アイコン、 29,30…設定用画面、 50…画像データベース、 201…CPU、 202…クロック、 203…ROM、 204…RAM。[0001]
BACKGROUND OF THE INVENTION
The present invention extracts an image feature amount, and particularly relates to an image feature amount extraction apparatus that extracts a texture feature amount from an image.
[0002]
[Prior art]
In general, an image database stores and manages image data by adding attribute information such as creation date, modification date, file name, and file format, and search information such as keywords, shape characteristics, color, and sound. In such an image database, when data is registered, attribute information is generally automatically added. It is also generally known that feature quantities such as color, texture, and edge information are extracted from image data and added automatically. However, when extracting each feature amount from image data, the processing time for extraction becomes a problem. In particular, with regard to the texture feature amount, the amount of calculation of image processing for obtaining texture information from an image is large, and an efficient method has been demanded.
[0003]
[Problems to be solved by the invention]
For example, there is an invention disclosed in Japanese Patent Laid-Open No. 5-28266 as a method of extracting a texture feature amount from an image. In the present invention, the image is divided into square blocks, and the feature amount is calculated for each block. However, in this method, since the entire image is blocked and the feature amount is calculated, the processing target is the entire image, which is not efficient for an image having a uniform texture pattern.
[0004]
In general, image feature amount extraction is performed on image data after image normalization, graying, and binarization processing. Conventionally, in the binarization processing of an image, a binarization threshold value is set to an intermediate value or an average brightness value where the appearance probabilities of 0-value pixels and 1-value pixels are almost the same in the pixel value distribution after graying. Value was set. However, in this case, the pixel value of a portion that occupies a large area in the image and has a gentle gradation tends to be the threshold value, so the image including a background that looks uniform such as a blue sky or a plain background is binarized. There was a problem that the image at the time became unnatural. That is, in an image including a blue sky or a plain background, a portion of the background is converted to 0 and a portion of the background is converted to 1 even though it is the same background. There was a problem that it looked natural. Therefore, there is a problem that even if the feature amount of the image is extracted using such binarized data, the feature of the image cannot be appropriately extracted.
[0005]
The present invention has been made to solve the above problems, and an object of the present invention is to provide an image feature quantity extraction apparatus that efficiently extracts texture feature quantities from an image and more accurately extracts image features. There is to do.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, an image feature amount extraction apparatus according to the present invention extracts a texture feature amount from an image including a texture in which multi-valued pixel information is arranged in a two-dimensional grid. In the extraction device,Image input means for inputting an image, means for calculating a density co-occurrence matrix using pixels existing on a line in a predetermined direction or in an area of a certain width in the input image, and inertia based on the density co-occurrence matrix A means for calculating the presence or absence of periodicity of the image based on inertia, and a feature amount extraction means for extracting the texture feature amount of the image as the periodicity of the image when it is determined that there is periodicityHave
[0007]
The determination means may determine that there is periodicity at a distance to which the inertia value is given when the minimum value of inertia is smaller than a predetermined value.
[0008]
In addition, the image feature amount extraction device includes an image input unit that inputs a grayed image, and an intermediate pixel value distribution in the grayed image based on the density of the pixels constituting the grayed image. Binarization conversion means for converting into a binarized image represented by 0 or 1 with a threshold set to a value shifted from the value by a predetermined value as a boundary, and binarized by the binarization conversion means Texture features are extracted from the captured images.
[0009]
According to the present inventionimageThe feature quantity extraction method is an image feature quantity extraction method that extracts a texture feature quantity from an image including a texture in which multi-valued pixel information is arranged in a two-dimensional grid.An image is input, and in the input image, a density co-occurrence matrix is calculated using pixels existing on a line in a predetermined direction or in an area having a constant width, and inertia is calculated based on the density co-occurrence matrix. Based on whether the image has periodicity or not, the texture feature quantity of the image is extracted as the periodicity of the image when it is determined that the image has periodicity.
[0011]
According to the present inventionRecordThe medium is a program for extracting a texture feature amount from an image including a texture in which multi-valued pixel information is arranged in a two-dimensional grid,A procedure for inputting an image, a procedure for calculating a density co-occurrence matrix using pixels existing on a line in a predetermined direction or in an area of a certain width in the input image, and calculating an inertia based on the density co-occurrence matrix And a computer for executing a procedure for determining the presence or absence of periodicity of the image based on inertia and a procedure for extracting the texture feature quantity of the image as the periodicity of the image when it is determined that there is periodicity.Record the program.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of an image feature quantity extraction apparatus according to the present invention will be described below with reference to the accompanying drawings.
[0014]
The image feature amount extraction apparatus according to the present embodiment scans an image in a band-like region having a certain width, not the entire image, when extracting a feature amount of a texture from an image, and from an image in the region. Extract texture features. That is, the processing efficiency at the time of feature amount extraction is improved by extracting the image feature amount from a part of the image instead of the entire image.
[0015]
<Overall Configuration of Image Feature Extraction Device>
FIG. 1 shows a schematic configuration diagram of an image feature amount extraction apparatus (hereinafter referred to as “system”) of the present embodiment. As shown in FIG. 1, the system includes a central processing unit (hereinafter referred to as “CPU”), and is configured around a
[0016]
FIG. 2 shows a block diagram of this system. The
[0017]
In the above system, the floppy disk 5a and the
[0018]
<Database and keyword dictionary used in image feature extraction device>
The system has an image database including data and additional information that serves as a search key for storing and managing image data. This image database is logically configured on an information storage medium such as the
[0019]
<About the concentration co-occurrence matrix>
Here, the density co-occurrence matrix and its inertia (inertia) used when extracting the image feature amount in this embodiment will be described. A method using a density co-occurrence matrix as a texture analysis method is a widely used method. This method is described in detail in, for example, “Fundamentals of Image Recognition [II] —Feature Extraction, Edge Detection, Texture Analysis—Shunji Mori et al.”.
[0020]
This method is basically based on the evaluation of the two-dimensional joint probability density function f (i, j | d, θ). f (i, j | d, θ) is a probability density function indicating that a pixel that is a distance d in the θ direction from a pixel having a density value i may have a density value j. A matrix of f (i, j | d, θ) for each (d, θ) is a density co-occurrence matrix, and i and j indicate the positions of rows and columns, respectively. If the texture is coarse and the distance d is small compared to the size of the texture components, a pair of pixels that are separated by (d, θ) will generally have similar density values, and thus the diagonal elements of the density co-occurrence matrix The nearby value becomes larger. On the other hand, if the distance d is as small as a texture component in a fine texture, a pair of pixels separated by (d, θ) may take various combinations of density values. It becomes relatively uniformly distributed over all elements.
[0021]
In the present embodiment, θ in the scanning direction when obtaining the density co-occurrence matrix is set to 0 °, 45 °, 90 °, and 135 ° as shown in FIGS. 4A to 4D (details will be described later). ). Here, the matrix S using the concentration co-occurrence matrix M (d, θ)θ(D) is defined as follows.
S0(D) = {M (d, 0 °) + Mt(D, 0 °)} / 2 (1)
S45(D) = {M (d, 45 °) + Mt(D, 45 °)} / 2 (2)
S90(D) = {M (d, 90 °) + Mt(D, 90 °)} / 2 (3)
S135(D) = {M (d, 135 °) + Mt(D, 135 °)} / 2 (4)
Where Mt(D, θ) is a transposed matrix of M (d, θ).
By using these matrices, various feature quantities can be calculated, a feature space can be constructed, and textures can be identified.
[0022]
Further, the inertia of the density co-occurrence matrix, which is one of the feature quantities, can be obtained by the following formula using the matrix.
[Expression 1]
here,S θ ( i, j | D)Is a matrixS θ (D)I row, j column element, NGIs the number of density levels in the image.
[0023]
Since the periodicity of the texture is the periodicity of the density, the periodicity of the texture is SθIt should be reflected in (i, j | d). Therefore, d is 3, 4,... D for each direction.maxThe presence / absence of periodicity is determined from the graph when changed (maximum value of distance d). This determination method will be described below. First, the inertia I {S for each distance d in each direction θ.θ(D)} for each inertia I {Sθ(D)} finds the minimum inertia value Iner (θ). Here, Iner (θ) is given by the following equation.
[0024]
Thereafter, the smallest one and the second smallest one are selected from the inner (0), inner (45), inner (90), and inner (135). If each selected minimum value Iner (θ) of inertia is smaller than a predetermined value, it is determined that the target texture has periodicity.
[0025]
For example, FIG. 5 shows the result of obtaining the inertia I when the distance d is changed with respect to a certain image in four directions θ. In this figure, the direction θ = 0 ° when the distance d = 7, the direction θ = 45 ° when the distance d = 7, and the direction θ = 90 ° when the distance d = 13. At 135 °, when the distance d = 6, the minimum value of inertia Iner (θ) in each direction is obtained. Of the minimum value Iner (θ) of the inertia I with respect to each direction θ, Inner (135) is the minimum, and Inner (45) is the second smallest value. Since both Inner (45) and Inner (135) are lower than the periodicity determination threshold, it is determined that this image is periodic in the directions of θ = 45 ° and 135 °.
[0026]
<Control Operation of Image Feature Extraction Device>
Below, the concrete control operation of this system is demonstrated using a flowchart.
[0027]
<Main flow>
FIG. 6 is a flowchart showing a main routine of a program executed in this system. When this program is started, first, initial setting processing for initializing flags and the like necessary for the subsequent processing and displaying an initial menu screen is performed (S1). FIG. 7 shows an example of the initial screen. On the
[0028]
Here, the other menu processing (S5) is basically the same as that of a general search system, and is not directly related to the present invention, so the description thereof will be omitted. In particular, texture extraction processing (step S3) The texture comparison search process (step S4) will be described in detail below.
[0029]
<Texture Extraction Processing in Image Feature Extraction Device>
First, the texture extraction process (step S3) will be described. FIG. 8 shows a flowchart of the texture extraction process. As shown in FIG. 8, in the texture extraction process, when registering image data in the image database 50, a density co-occurrence matrix calculation process (S31) for calculating a density co-occurrence matrix from the image data, and a density co-occurrence matrix calculation process Based on the result, a texture feature amount is extracted, and a feature amount extraction process (S32) for registering the feature amount together with the image data in the image database 50 is performed. Each step will be described below with reference to the flowcharts of FIGS.
[0030]
FIG. 9 is a flowchart of the density co-occurrence matrix calculation process (S31). In FIG. 9, first, an image is loaded from a storage medium such as a database or a file system (S301) and normalized (S302). The normalization here is to reduce or enlarge an acquired image to a predetermined size for the purpose of shortening the image processing time and reducing noise. In this embodiment, the image is reduced while maintaining the aspect ratio so that the image fits in the size of 120 × 120 pixels.
[0031]
Next, after the normalized data is converted into a gray image, binarization processing is performed (S303). Here, in this embodiment, in order to solve the problem of the binarization processing described in the related art, the threshold value is not set to a pixel value having a high appearance frequency, and values before and after the threshold value are set as the threshold value. That is, the threshold value is set to a value shifted forward and backward by a predetermined value from the intermediate value of the pixel value distribution after graying. This will be described below using a specific example.
[0032]
FIG.Indicates the pixel value distribution with respect to the pixel value of the image after graying. In this figure, the pixel value has 256 gradations. In this embodiment,FIG.In the pixel value distribution, the threshold value is set to a value shifted from the intermediate value (M) of the pixel value to the higher pixel value by one third of the standard deviation (s). In this way, by setting the threshold value for binarization to a value shifted by a predetermined value from the intermediate value of the pixel value distribution, the threshold value is not set to the pixel value with high frequency, so that the characteristics of the original image are retained more. Binarization is possible. However, a threshold value different from the above is set in the following cases. That is, when the intermediate value M is 128 or more and the cumulative number of pixels at the intermediate value exceeds 90%, pixels whose pixel value is less than the intermediate value are set to “0”, and pixels whose intermediate value is equal to or higher than “ 1 ”. Further, when the intermediate value M is less than 128 and the cumulative number of pixels at the intermediate value exceeds 90%, the pixel having the pixel value equal to or lower than the intermediate value is set to “0”, and the pixel exceeding the intermediate value is set to “1”. " Further, when the cumulative number of pixels at a value of (intermediate value M + standard deviation s / 3) is 100%, the threshold value is set to the intermediate value M. By setting a threshold value and performing binarization processing in this way, a binarized image close to the original image is obtained as a result.
[0033]
When image normalization (S302) and binarization (S303) are completed, a density co-occurrence matrix is calculated from the image. First, the direction number n corresponding to the scanning direction θ for obtaining the density co-occurrence matrix is set to an initial value 0 (S304). The direction number n corresponds to a direction θ of 0 ° when 0, 45 ° when 1 and 90 ° when 2 and 90 ° when 3 and 135 ° when 3 respectively. Here, in order to obtain a more accurate directionality, for example, an angular interval for obtaining a concentration co-occurrence matrix is set every 10 °, and when the direction number is 0, 0 °, 1 is 10 °, and 2 is 20. The density co-occurrence matrix may be obtained by finely dividing the angle such as ° to correspond to the scanning direction θ. However, if the angle is divided finely, calculation processing increases and processing time is required. Therefore, here, the angle is divided by 45 °.
[0034]
Next, the pixel distance d when determining the density co-occurrence matrix is set to 1 (S305). A density co-occurrence matrix in the nth direction and distance d is obtained (S306). That is, in this case, the density co-occurrence matrix in the first direction and the
[0035]
In the present embodiment, considering that the normalized image size is 120 × 120, the band width will be described as 10 pixels. For example, in the case of the 0th direction, as shown in FIG. 4 (a), it passes through the center of the image and becomes a horizontal band having a width of 10 pixels. In the case of the first direction, as shown in FIG. 4B, the band passes through the center of the image and becomes a 10 ° wide 45 ° direction band. In the case of the second direction, as shown in FIG. 4C, the band passes through the center of the image and becomes a band of 90 ° direction with a width of 10 pixels. In the third direction, as shown in FIG. 4 (d), it passes through the center of the image and becomes a band of 135 ° direction with a width of 10 pixels. Note that the image area to be scanned does not have to be continuous as shown in FIG. 4 and may be an area composed of a plurality of discontinuous lines or areas as long as they have the same directionality. For example, you may scan the area | region which consists of 10 lines of 1 pixel located discretely. This is because if the entire image has periodicity, the periodicity can be obtained in this way as well.
[0036]
Using the equation (5), the inertia value I {S from the concentration co-occurrence matrix obtained in step S306.θ(D)} is obtained (S307). The inertia value obtained in step S307 is substituted into the array Val [d] (S308). Thereafter, the value of the distance d is incremented (S309).
[0037]
The set distance d is the upper limit d of the predetermined distance.maxIt is determined whether or not it exceeds (S310). Distance d is upper limit dmaxIf it exceeds, the process proceeds to S311. The distance d is the upper limit dmaxIf it is below, the process returns to step S306, and the distance d is the upper limit d.maxThe process (S306 to S310) is repeated until it exceeds. Where the upper limit of distance dmaxIs set to a value about half the size of the image.
[0038]
In step S310, from the value of inertia Val [d] for each distance d in the same direction, a minimum value of inertia Iner [n] in that direction is obtained (S311).
[0039]
Thereafter, in order to designate the next direction, the direction number n is incremented (S312). It is determined whether the incremented direction number n is 3 or less (S313). If the direction number n is 3 or less, the process returns to step S305, and the above process is repeated (S305 to S313). When the calculation of the inertia value is completed for all the direction numbers n, the process is terminated.
[0040]
As described above, when the inertia of the image with respect to a predetermined direction is obtained using the density co-occurrence matrix, the feature amount of the image is extracted based on the inertia value. Here, in this embodiment, the periodicity of the texture of the image is extracted as a texture feature amount. In general, it is well known that the inertia value obtained from the density co-occurrence matrix has a periodicity in the inertia value with respect to the distance d as the periodicity of the texture is noticeable when viewed in the same direction. . Then, the inertia value approaches 0 at a distance d that is a cycle. For this reason, in the present embodiment, a threshold for determining periodicity is determined, the threshold is compared with the minimum value of inertia, and the minimum value of inertia is given when the minimum value of inertia is smaller than the threshold. It is determined that there is periodicity at d.
[0041]
FIG. 10 is a flowchart of the feature amount extraction process (S32). In FIG. 10, the minimum value is selected from Inner [0] to Inner [3] storing the minimum value of inertia for each scanning direction (S314). Then, it is determined whether or not the minimum value is equal to or less than the threshold value for determining the periodicity (S315). If it exceeds the threshold value, the process proceeds to step S322, and if it is equal to or less than the threshold value, the process proceeds to step S316.
[0042]
In step S316, the direction number n and the period d for the minimum inertia determined to have periodicity are stored as texture feature quantities. Here, the periodicity that gives the minimum value of the minimum inertia is referred to as a “first period”. Further, the direction and period of the texture feature amount obtained here is referred to as a first periodic feature amount.
[0043]
Next, the second smallest inertia value is selected from the arrays Inner [0] to Inner [3] storing the minimum values of the respective inertias in the four scanning directions (S317). It is determined whether or not the value of inertia is equal to or less than a threshold value for determining that it has periodicity (S318), and if it exceeds the threshold value, the process proceeds to step S322. If it is equal to or less than the threshold value, the process proceeds to step S319.
[0044]
In step S319, the direction number n and the period d for the inertia having the second smallest value determined to have periodicity are stored as texture feature amounts. Here, the periodicity that gives the second smallest minimum inertia value is referred to as a “second period”. Further, the texture directionality and period obtained here are referred to as a second period feature amount.
[0045]
Thereafter, in step S320, the periodicity flag is set to “present”, and the process ends. Here, when the periodicity flag is “present”, it means that the target image has periodicity, and when it is “not present”, it means that the target image has no periodicity. In step S322, the periodicity flag is set to “none”. Finally, the image data is registered in the image database 50 together with the periodicity flag and the feature amount (when there is periodicity) (S321), and the process is terminated.
[0046]
In the above processing, information on whether or not the target image has periodicity is obtained by the periodicity flag. If there is further periodicity, the direction and period of the “first period” and the direction of “second period” And the period are obtained as texture features. Further, although only the first direction feature quantity and the second direction feature quantity are meaningful as texture feature quantities, an application in which a partial image is cut out based on the direction and period and used as a texture pattern image is also conceivable.
[0047]
<Texture comparison search processing of image feature extraction device>
Next, the texture comparison search process (S4) will be described. Here, the user designates an image as a search key (hereinafter referred to as a key image) on the screen via the
[0048]
FIG.Is a flowchart of texture comparison search processing. First, the texture information (T0) of the key image designated by the user is loaded from the image database 50 (S401). Here, the texture information is registered in the image database 50 together with the image at the time of image registration, and here includes a periodicity flag, a first direction feature amount, a second direction feature amount, and the like. Whether the texture information of the key image has periodicity is determined by the periodicity flag set in the course of the texture feature amount extraction process (S402). If there is no periodicity, the process ends. If there is periodicity, the process proceeds to step S403.
[0049]
In step S403, the record pointer i is moved to the top in the image database 50 to be searched. The texture information T [i] of the image indicated by the record pointer i is loaded from the image database 50 (S404).
[0050]
The presence / absence of periodicity is determined based on the periodicity flag in the texture information T [i] loaded in S404 (S405). If there is no periodicity, the process proceeds to step S409, and if there is periodicity, the process proceeds to step S406.
[0051]
In step S406, the similarity between the texture information T0 of the key image and the texture information T [i] to be searched is compared and digitized to determine whether the image is a similar image (S406). If it is not a similar image, the process proceeds to step S409, and if it is determined that the image is similar, the process proceeds to step S407. Here, the similarity may be calculated from the direction and the period in the first periodic feature and the direction and the period in the second periodic feature.
[0052]
For example,
The period of the first period of the texture information T0 of the key image is d0(1),
The period of the first period of the texture information T [i] of the search target image is di(1),
The period of the second period of the texture information T0 of the key image is d0(2),
The period of the second period of the texture information T [i] of the search target image is di(2),
The angle in the direction of the first cycle is θ0,
The angle in the direction of the second period is θi,
Weight of similarity determination is WA, Wθ,
The period is (d0(1), d0(2), θ0) Texture T0 and the period is (di(1), di(2), θiThe degree of similarity D with the texture Ti is obtained by the following equation. Here, the larger D is similar.
[Expression 2]
Here, R0 and Ri are aspect ratios of the pattern shape and are expressed by the following equations.
R0= D0(2) / d0(1) ... (8)
Ri= Di(2) / di(1) ... (9)
[0053]
In step S407, information on the image indicated by the current record pointer i is loaded (S407), the loaded image information is used as a search result, and a thumbnail image is displayed on the display 2 (S408). Examples of search result display include displaying the thumbnail image as described above, displaying the name of the image, displaying the file name and path of the original image that generated the thumbnail, and displaying the source of the original image. Variations such as how to do is conceivable. Alternatively, a method of counting the number of images determined as having similarity and displaying the number is also conceivable.
[0054]
Thereafter, the record pointer i is advanced by one to continue the image search (S409). It is determined whether there is still image data to be searched in the image database 50 (S410). That is, as a result of the advancement of the record pointer i, it is determined whether there is still image data to be newly read. If there is no new search target image data, the process ends. If there is still search target image data, the process returns to step S404, and the above processes (S404 to S410) are repeated.
[0055]
As described above, the image feature amount extraction apparatus according to the present embodiment obtains a density co-occurrence matrix for a region of a band-like portion having a certain width of image data when extracting image features, and based on this By obtaining the periodicity (texture feature amount) of the image data, the processing speed can be improved in extracting the texture feature amount of the image data.
[0056]
In the present embodiment, the texture feature amount is detected based on the image data of the area on the band in the predetermined direction. However, the present invention is not limited to this, and the image data on one line may be detected or at predetermined intervals. The image data on several lines may be used. However, when detection is performed using image data on one line, it is very fast, but there are restrictions on the images that can be handled. For example, the present invention can be applied to a system that handles an image that is known to have a certain degree of periodicity (for example, a textile database of geometric patterns). Further, when detection is performed using image data on several lines at predetermined intervals, detection can be performed with a small amount of data, and detection can be performed over a relatively wide area.
[0057]
【The invention's effect】
The image feature amount extraction apparatus according to the present invention extracts a texture feature amount from an area of a band-shaped portion having a certain width in image data, so that the feature amount can be extracted efficiently. In addition, in the binarization processing of data, which is the pre-stage processing at the time of texture feature extraction, by setting the threshold value to a value shifted by a predetermined value from the intermediate value in the pixel value distribution, a large area in the image The image can be binarized without losing the characteristics of the original image with respect to the image that occupies the image and has a gentle gradation, and the feature amount of the image can be extracted more accurately.
[Brief description of the drawings]
FIG. 1 is a diagram showing an outline of a configuration of an image feature amount extraction apparatus according to an embodiment.
FIG. 2 is a block diagram centering on a control device of the image feature quantity extraction device;
FIG. 3 is a configuration diagram of an image database.
FIG. 4 is a diagram showing a scanning direction θ when obtaining a density co-occurrence matrix.
FIG. 5 is a diagram illustrating an inertia value I obtained with respect to a distance d in each scanning direction θ.
FIG. 6 is a main flowchart of the image feature quantity extraction device.
FIG. 7 is a diagram showing a display example of a screen for data input or setting.
FIG. 8 is a flowchart of texture extraction processing in the image feature quantity extraction device;
FIG. 9 is a flowchart of density co-occurrence matrix calculation processing in the image feature quantity extraction device.
FIG. 10 is a flowchart of feature amount extraction processing in the image feature amount extraction apparatus;
FIG. 11 is a diagram illustrating a method for obtaining a threshold value for binarization processing;
FIG. 12 is a flowchart of texture comparison search processing in the image feature quantity extraction device.
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
画像を入力する画像入力手段と、
入力した画像において、所定方向に向かう線上または一定幅の領域内に存在する画素を用いて濃度共起行列を計算する手段と、
前記濃度共起行列に基づいて慣性を計算する手段と、
前記慣性に基づいて画像の周期性の有無を判断する判断手段と、
前記周期性があると判断されたきに画像の周期性として画像のテクスチャ特徴量を抽出する特徴量抽出手段と
を有することを特徴とする画像特徴量抽出装置。In an image feature amount extraction device that extracts a texture feature amount from an image including a texture in which multi-valued pixel information is arranged in a two-dimensional grid,
An image input means for inputting an image;
Means for calculating a density co-occurrence matrix using pixels existing in a line in a predetermined direction or in an area having a constant width in the input image;
Means for calculating inertia based on the concentration co-occurrence matrix;
Determining means for determining the presence or absence of periodicity of the image based on the inertia;
An image feature quantity extraction device comprising: feature quantity extraction means for extracting a texture feature quantity of an image as the periodicity of an image when it is determined that the image has periodicity .
前記判断手段は、前記慣性の最小値が所定値より小さい場合に、前記慣性の値が与えられる距離において周期性があると判断する、ことを特徴とする画像特徴量抽出装置。 An image feature amount extraction apparatus, wherein the determination unit determines that there is periodicity at a distance to which the inertia value is given when the minimum value of inertia is smaller than a predetermined value.
画像を入力し、
入力した画像において、所定方向に向かう線上または一定幅の領域内に存在する画素を用いて濃度共起行列を計算し、
前記濃度共起行列に基づいて慣性を計算し、
前記慣性に基づいて画像の周期性の有無を判断し、
前記周期性があると判断されたきに画像の周期性として画像のテクスチャ特徴量を抽出する、ことを特徴とする画像特徴量抽出方法。In an image feature amount extraction method for extracting a texture feature amount from an image including a texture in which multi-valued pixel information is arranged in a two-dimensional grid,
Enter an image,
In the input image, calculate the density co-occurrence matrix using pixels that exist on a line in a predetermined direction or in an area of a certain width,
Calculating inertia based on the concentration co-occurrence matrix;
Determine the presence or absence of periodicity of the image based on the inertia,
An image feature amount extraction method, wherein a texture feature amount of an image is extracted as the periodicity of the image when it is determined that the periodicity is present .
画像を入力する手順と、
入力した画像において、所定方向に向かう線上または一定幅の領域内に存在する画素を用いて濃度共起行列を計算する手順と、
前記濃度共起行列に基づいて慣性を計算する手順と、
前記慣性に基づいて画像の周期性の有無を判断する手順と、
前記周期性があると判断されたきに画像の周期性として画像のテクスチャ特徴量を抽出する手順と
をコンピュータに実行させることを特徴とするプログラムを記録したコンピュータ読み取り可能な記録媒体。A program for extracting a texture feature amount from an image including a texture in which multi-valued pixel information is arranged in a two-dimensional grid,
The procedure for entering images,
In the input image, a procedure for calculating a density co-occurrence matrix using pixels existing on a line in a predetermined direction or in an area having a constant width;
Calculating inertia based on the concentration co-occurrence matrix;
A procedure for determining the presence or absence of periodicity of the image based on the inertia;
A computer-readable recording medium having recorded thereon a program for causing a computer to execute a procedure of extracting a texture feature amount of an image as a periodicity of an image when it is determined that the image has periodicity .
検索キーとなる画像を指定する画像指定手段と、
前記検索キー画像に対するテクスチャ特徴量としての前記周期性と、前記検索対象の画像に対するテクスチャ特徴量としての前記周期性とに基づいて、両画像間の類似度を計算する類似度計算手段と、
該類似度計算手段による類似度に基づき、両画像が類似しているか否かを判断する判断手段と、
該類似度計算手段による判断結果に基づき、両画像が類似しているときに、前記検索対象の画像を検索結果として出力する画像出力手段と
をさらに備えたことを特徴とする画像特徴量抽出装置。In the image feature amount extraction device according to any one of claims 1 to 3,
An image specifying means for specifying an image as a search key;
Similarity calculation means for calculating the similarity between both images based on the periodicity as the texture feature amount for the search key image and the periodicity as the texture feature amount for the search target image ;
Determination means for determining whether or not both images are similar based on the similarity by the similarity calculation means;
An image feature quantity extraction device further comprising: an image output means for outputting the search target image as a search result when both images are similar based on a determination result by the similarity calculation means. .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22610197A JP3718967B2 (en) | 1997-08-22 | 1997-08-22 | Image feature amount extraction apparatus and method, and recording medium on which image feature amount extraction program is recorded |
US09/137,234 US6381365B2 (en) | 1997-08-22 | 1998-08-20 | Image data processing apparatus and image data processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22610197A JP3718967B2 (en) | 1997-08-22 | 1997-08-22 | Image feature amount extraction apparatus and method, and recording medium on which image feature amount extraction program is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1166310A JPH1166310A (en) | 1999-03-09 |
JP3718967B2 true JP3718967B2 (en) | 2005-11-24 |
Family
ID=16839851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22610197A Expired - Fee Related JP3718967B2 (en) | 1997-08-22 | 1997-08-22 | Image feature amount extraction apparatus and method, and recording medium on which image feature amount extraction program is recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3718967B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198496A (en) * | 2013-03-29 | 2013-07-10 | 浙江大学 | Method for carrying out vectorization on abstract image |
CN104217431B (en) * | 2014-08-29 | 2017-02-08 | 天津大学 | A compressed sensing compensation method based on an edge extraction and image fusion technology |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100375831B1 (en) * | 2001-03-14 | 2003-03-15 | 한국전자통신연구원 | Fast texture - based image database Browsing and Sorting Method |
KR20050010824A (en) * | 2002-05-22 | 2005-01-28 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Method of extracting a watermark |
JP4484643B2 (en) | 2004-09-10 | 2010-06-16 | 独立行政法人科学技術振興機構 | Time series data abnormality determination program and time series data abnormality determination method |
JP5376906B2 (en) | 2008-11-11 | 2013-12-25 | パナソニック株式会社 | Feature amount extraction device, object identification device, and feature amount extraction method |
JP6393230B2 (en) * | 2015-04-20 | 2018-09-19 | 株式会社日立製作所 | Object detection method and image search system |
KR102183559B1 (en) * | 2018-11-21 | 2020-11-26 | 대한민국 | Apparatus and method for detecting damaged tree |
CN115601631B (en) * | 2022-12-15 | 2023-04-07 | 深圳爱莫科技有限公司 | Cigarette display image recognition method, system, equipment and storage medium |
CN116978003B (en) * | 2023-09-22 | 2024-03-12 | 支付宝(杭州)信息技术有限公司 | Texture detection processing method and device for food material commodity |
-
1997
- 1997-08-22 JP JP22610197A patent/JP3718967B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198496A (en) * | 2013-03-29 | 2013-07-10 | 浙江大学 | Method for carrying out vectorization on abstract image |
CN103198496B (en) * | 2013-03-29 | 2015-08-26 | 浙江大学 | A kind of method of abstracted image being carried out to vector quantization |
CN104217431B (en) * | 2014-08-29 | 2017-02-08 | 天津大学 | A compressed sensing compensation method based on an edge extraction and image fusion technology |
Also Published As
Publication number | Publication date |
---|---|
JPH1166310A (en) | 1999-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3747589B2 (en) | Image feature amount comparison device and recording medium storing image feature amount comparison program | |
US6381365B2 (en) | Image data processing apparatus and image data processing method | |
JP4859025B2 (en) | Similar image search device, similar image search processing method, program, and information recording medium | |
CN101419612B (en) | Image processing device and image processing method | |
JP4533273B2 (en) | Image processing apparatus, image processing method, and program | |
EP1091320A2 (en) | Processing multiple digital images | |
EP1081648A2 (en) | Method for processing a digital image | |
JP2007047943A (en) | Image processor, control method and program | |
JP4772819B2 (en) | Image search apparatus and image search method | |
JP3718967B2 (en) | Image feature amount extraction apparatus and method, and recording medium on which image feature amount extraction program is recorded | |
US20080244384A1 (en) | Image retrieval apparatus, method for retrieving image, and control program for image retrieval apparatus | |
JP4261988B2 (en) | Image processing apparatus and method | |
JPH11312248A (en) | Image retrieval device and its method | |
JP5094682B2 (en) | Image processing apparatus, image processing method, and program | |
JP2004334337A (en) | Image processor | |
JP5147640B2 (en) | Image processing apparatus, image processing method, and program | |
JPH1185982A (en) | Picture feature amount comparator and recording medium for recording picture feature amount comparison program | |
JPH08194716A (en) | Picture processing method and its device | |
JP4152927B2 (en) | Image processing apparatus, image forming apparatus, processed document search method, processed document search program, and recording medium | |
JP7301671B2 (en) | Image processing device, information processing method and program | |
JP2001134765A (en) | Method and device for retrieving image | |
JP3199009B2 (en) | Image storage / management apparatus and image index generation method | |
JP4545847B2 (en) | Image search apparatus and method | |
EP0974931A1 (en) | Method and apparatus for identifying a plurality of sub-images in an input image | |
JPH11250249A (en) | Method and device for extracting color image feature, and record medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050201 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050318 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050331 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050331 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050331 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20050322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050524 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050829 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080916 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090916 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100916 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100916 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110916 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120916 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120916 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130916 Year of fee payment: 8 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |