JP5414416B2 - 情報処理装置及び方法 - Google Patents

情報処理装置及び方法 Download PDF

Info

Publication number
JP5414416B2
JP5414416B2 JP2009183717A JP2009183717A JP5414416B2 JP 5414416 B2 JP5414416 B2 JP 5414416B2 JP 2009183717 A JP2009183717 A JP 2009183717A JP 2009183717 A JP2009183717 A JP 2009183717A JP 5414416 B2 JP5414416 B2 JP 5414416B2
Authority
JP
Japan
Prior art keywords
feature
evaluation value
input data
information processing
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009183717A
Other languages
English (en)
Other versions
JP2010102690A (ja
Inventor
友貴 藤森
優和 真継
裕輔 御手洗
将史 瀧本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009183717A priority Critical patent/JP5414416B2/ja
Publication of JP2010102690A publication Critical patent/JP2010102690A/ja
Application granted granted Critical
Publication of JP5414416B2 publication Critical patent/JP5414416B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択する情報処理装置および、情報処理方法などに関する。
外観検査などの情報処理装置において、検査対象物を撮影した画像から画素値の平均や分散といった多数の特徴量群を抽出し、良否判定(良品と不良品の2クラス判別)するといった手法がある。しかし、多数の特徴量を全て使うと、特徴の次元が高次になってしまい、特有の次元において発生する問題(次元の呪い等)や、冗長な特徴量を抽出することによる処理時間の増大が発生してしまう。
よって、適切な特徴量を選択することにより、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる手法が重要視されつつある。
以下に、非特許文献1に開示されている手法について説明する。非特許文献1では、特徴量それぞれに対して分離度を評価するための評価値を求め、その評価値の良い順に特徴量を選ぶ手法が開示されている。具体的には、ベイズ誤り確率推定値やクラス内分散・クラス間分散比を用いて、選択基準を決定する特徴選択手法がある。
ベイズ誤り確率推定値について詳細に述べる。例えば2クラス問題の場合、2つのクラスをw、wとし、観測される特徴をx0=[x,x,・・・,x,・・・,x]とするときxがw、wに属する確率をそれぞれP(w|x)、P(w|x)と表す。このときベイズ誤り確率推定値は
で表され、これを全ての特徴量に関して求める。ベイズ誤り確率推定値は小さいほど、2クラスをより分離できる。よって、ベイズ誤り確率推定値が小さい順に特徴量を選択する。
次に、クラス内分散・クラス間分散比について詳細に述べる。例えば2クラス問題の場合、2つのクラスをw、wとし、観測される特徴をx0=[x,x,・・・,x,・・・,x]とするとき、特徴量xに関するクラス内分散・クラス間分散比を求める。またクラスwに属するパターンの集合をAとし、Aに含まれるパターン数をn、クラスwに属するパターンのxの平均をmとする。さらに、全パターン数をn、全パターンのxの平均をmとする。このとき
は、
のように表せるので、クラス内分散・クラス間分散比は
で表すことができる。このようにしてクラス内分散・クラス間分散比を求め、値が大きい順に特徴量を選択する。
また非特許文献2に示されている手法は、遺伝子選択の分野において、特徴量を2個ずつ組合せて、2次元の特徴空間で評価して、特徴量を2個ずつ選択する手法である。2個ずつ特徴量を組合せる手法は、1個ずつ特徴量を選択するより精度の良い特徴選択が可能であると述べられている。
石井健一郎,上田修功,前田英作,村瀬洋,"わかりやすいパターン認識",オーム社,東京,1998. Trond Hellem Bo and Inge Jonassen,"New feature subset selection procedures for classification of expression profiles,"Genome Biology 2002年,第3巻(vol.3),no.4:research.
しかしながら、前記のベイズ誤り確率推定値や一次元のクラス内分散・クラス間分散比により1個ずつ特徴選択を行う非特許文献1の手法は、特徴量間の組合せの相性を考慮して特徴量を評価しているわけではない。よって、結果として特有の次元において発生する問題を引き起こしやすくし、冗長な特徴量を抽出することによって演算処理速度を落とすことになるという課題があった。同様に、非特許文献2の手法は、あらかじめ組合せる数を設定し、特徴量の組合せを選択するものであり、特徴量間の組合せの相性を考慮して特徴量を評価しているわけではない。
そこで本発明は、前述した課題を鑑みてなされたものであり、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置において、特徴量間の組合せの相性を考慮し、入力データの分類に適した特徴量を選択することを目的とする。
上述の目的の課題を解決するために、本発明の情報処理装置は、入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする。
本発明によれば、特徴量間の組合せの相性を考慮し、入力データの分類に適した特徴量を選択することが出来る。
第一の実施形態における情報処理装置の構成を示した図である。 第一の実施形態における情報処理装置101の情報処理を示すフローチャートである。 表面粗し加工を施したゴム板の表面を撮影し切り出した128×128画素のグレースケール画像の例を示す図である。 第二の実施形態における複数の特徴量を抽出する具体的な処理を示した図である。 n=2の場合における第二の評価値算出のアルゴリズムの概念を示した図である。 n=3の場合における第二の評価値算出のアルゴリズムの概念を示した図である。 第一の実施形態におけるスコア算出の処理フローチャートを示した図である。 第二の実施形態における情報処理装置101の情報処理を示すフローチャートである。 第二の実施形態におけるスコア算出の処理フローチャートを示した図である。 第三の実施形態における情報処理装置101の情報処理を示すフローチャートである。 第三の実施形態における第二の評価値を算出する処理の概要を示す図である。 第四の実施形態における処理フローを示す図である。 第四の実施形態におけるステップ1203の処理の詳細を示す図である。 1クラスwのパターンがプロットされた特徴空間を示す図である。
(第一の実施形態)
以下、図面を用いて第一の実施形態を詳細に説明する。
図1は、第一の実施形態における情報処理装置の構成を示した図である。
101は、本実施形態における外観検査のための情報処理を行う情報処理装置101である。情報処理装置101は、CPU(セントラルプロセッシングユニット)、RAM(ランダムアクセスメモリ)、HDD(ハードディスクドライブ)などから構成される。CPUは、外観検査のためのコンピュータプログラムを実行し、HDD、RAMには、外観検査のためのコンピュータプログラムおよびデータが格納される。
102は、本実施形態において外観検査の対象となる検査対象物102である。検査対象物102は、例えば、工業製品に利用されるゴム板などである。ゴム板の表面には、凹凸やキズがあることがあり、外観検査によってこれらが検出され、良品と不良品とに分別される。
103は、本実施形態において検査対象物102を撮像するための撮像装置103である。撮像装置103は、検査対象物102の表面のビデオ映像(画像パターン)を取得可能なビデオカメラなどから構成され、取得したビデオ映像を情報処理装置101に送信する。情報処理装置101は、送信されたビデオ映像を用いて外観検査のための情報処理を行う。
104は、外観検査の検査結果を表示するための表示装置104である。表示装置104はモニタなどから構成され、情報処理装置101から送信される外観検査の結果を表示する。
図2は、本実施形態における情報処理装置101の情報処理を示すフローチャートである。本実施形態では検査対象物102を撮影した画像を用いてパーツの良否判定(良品と不良品との2クラス判別)を行う外観検査において説明する。
本実施形態における外観検査では、良品と不良品とを分別する2クラスが存在し、入力画像パターンから複数の階層画像を生成し、生成された複数の階層画像から複数の特徴量を抽出し、抽出された複数の特徴量から外観検査に適した特徴量を選択する。
以下に図2のフローの概要を示す。なお、図2のフローで示す各処理は、情報処理装置101によりなされるものである。また、各処理の詳細については後述する。
(ステップ201)ステップ201では、撮像装置103から取得された入力画像パターンから、外観検査に用いる複数の特徴量の抽出を行う。
(ステップ202)ステップ202では、情報処理装置101が複数の組合せを生成する生成手段として機能し、ステップ201で抽出された複数の特徴量を用いて、n個(n≧2)ずつの特徴量の組合せを生成する。
(ステップ203)ステップ203では、情報処理装置101が入力画像データの分類への適合を評価する第一の評価値を算出する第一の算出手段として機能し、ステップ202において設定されたn個ずつの特徴量による複数の組合せそれぞれに対して第一の評価値を算出する。本実施形態における第一の評価値は、外観検査に適していることを示すものである。このとき、それぞれの特徴量に対して、その特徴量において第一の評価値が最も良い特徴量の組合せ(n個の特徴量からなる組合せ)を決定する。
(ステップ204)ステップ204では、情報処理装置101が第二の算出手段として機能し、複数の第一の評価値同士を比較することにより、入力画像データの分類への適合を評価する第二の評価値を計算する。
(ステップ205)ステップ205では、第二の評価値に基づくスコアを算出し、特徴選択基準を決定する。
(ステップ206)ステップ206では、さらにスコアが最も良い特徴量とステップ204で組合せた特徴量の組合せ(n個の特徴量の組合せ)を選択し、選択した以外の特徴量に対しては特徴選択基準で特徴選択を繰り返す。
以下に図2の各処理の詳細について述べる。
(ステップ201の処理の詳細(複数の特徴量の抽出))
ステップ201の処理の詳細について述べる。
図3は、検査対象物102の一例である表面粗し加工を施したゴム板の表面を撮影し切り出した128×128画素のグレースケール画像の例を示す図である。
図3(a)から(e)に正常なゴム板の表面を示し、(f)から(j)に異常なゴム板の表面を示す。(a)から(e)のような画像パターンを正常パターンとし、(f)から(j)のような画像パターンを異常パターンとする。(f)と(g)は、黒いスポット状のムラがあるパターンであり、(h)は、全体的にグラデーションがあるパターンであり、(i)は、白いスポット状のムラがあるパターンであり、(j)は、コントラストが一部低くなっているパターンである。本ステップでは、このようなパターンの特徴を表した複数の特徴量を算出する。
図4は、本実施形態における複数の特徴量を抽出する具体的な処理を示した図である。
本実施形態では、入力画像パターンとしてpn個の画像パターンを用いるが、これらの画像パターンに対し欠陥を強調するために、周波数ドメインへの変換手法であるウェーブレット変換を用いる。
特に、図4は、ウェーブレット変換ひとつであるハール・ウェーブレット変換を示したものである。まず変換前の入力パターンに対して四種類のフィルターを用いて内積演算を行う。その結果、四種類のパターン、縦方向高周波成分抽出パターン(HL)、対角方向高周波成分抽出パターン(HH)、横方向高周波成分抽出パターン(LH)、低周波成分抽出パターン(LL)が生成される。縦方向高周波成分抽出パターンの生成方法を具体的に示す。図4のように入力パターンの4つの画素
を縦方向高周波成分抽出パターンの画素の値とする。このような計算を4画素ずつすべての画像領域においてこれをオーバーラップすることなく行い、縦方向高周波成分抽出パターンを作る。対角方向高周波成分抽出パターンでは、
を、横方向高周波成分パターンでは
を、低周波成分抽出パターンでは
をフィルターとして用いる。
結果的に四種類のパターンを解像度二分の一で作り出す。さらに低周波成分抽出パターンから次のレベルのハール・ウェーブレット変換を行い、さらに解像度二分の一にした四種類のパターンを作り出すというように階層的に低い周波数へと変換していく。変換前のパターンは128×128画素なので、1回の変換で64×64画素、2回目の変換で、32×32画素、以降、16×16画素、8×8画素、4×4画素、2×2画素となり、最後の7回目の変換で1×1画素のパターンが生成される。つまり、最後に1×1画素の、縦方向高周波成分抽出パターン、対角方向高周波成分抽出パターン、横方向高周波成分抽出パターン、低周波成分抽出パターンが得られる。よって変換前のパターンを含めて1+4×7=29種類のパターンが得られる。
このようにして得られた各階層のパターンそれぞれから、全画素値の最大値、平均、分散、尖度、歪度、相乗平均、といった6種類のマクロな特徴量を抽出する。マクロな特徴量として、画素値の平均を式5に、分散を式6に、尖度を式7に、歪度を式8、相乗平均を式9に示す。ただし、画像のサイズは縦a画素、横b画素の画像の縦i番目。横j番目の画素値をp(i,j)とし、pをヒストグラムで表したときのそれぞれのビンにおける番号をk、値をX、度数をMで表す。
ハール・ウェーブレット変換を行っていない変換前の入力パターン、ハール・ウェーブレット変換をかけた各階層画像の29種類の画像から、最大値、及び式5から式9で示した6つの特徴量を抽出する。つまり計29種類の画像からマクロな特徴量を6種類ずつ抽出する。結果的に入力パターンごとに29×6=174個(以下N個とする)の特徴量を抽出する。なお入力パターンとして用いるpn個の全パターンからN個ずつの特徴量を抽出する。
今回はハール・ウェーブレット変換を用いる手法について述べたが、その他のウェーブレット変換、エッジ抽出、フーリエ変換、ガボール変換といったその他の変換手法を用いても良い。またマクロな特徴量としてコントラスト、最大から最小を引いた値、標準偏差といったその他の統計量を用いても良い。以上の処理により、入力画像パターンから複数の特徴量を抽出することが出来る。
(ステップ202:n個ずつ特徴量を組合せる)
ステップ202では、特徴量を1個ずつではなく、n個ずつ特徴量を組合せて選ぶ。組合せる個数nは、ユーザーの指示などに基づき決定してもよいし、また、検査対象物102ごとにあらかじめ設定しておいてもよい。入力画像パターンから抽出した特徴量の数がN個である場合、n個ずつ特徴量を組合せるので、通りの組合せを生成する。
(ステップ203:n個の特徴量の組合せそれぞれに対して第一の評価値を算出)
ステップ203の詳細について説明する。ステップ203では、ステップ202で生成された通りの組合せそれぞれに対して、第一の評価値を算出する。
本実施形態における第一の評価値とは、当該n個の特徴量の組合せが、入力データの分類の判定に適しているか否かを評価するための評価値である。例えば、第一の評価値は、検査対象物102が良品か不良品かを判定する際に用いる特徴量の組合せとして適しているか否かを示している。
本実施形態における良品と不良品の2クラス問題の場合、第一の評価値の一つとしてn次元のベイズ誤り確率推定値がある。ここで2つのクラスそれぞれをw、wとし、n個の特徴をもつベクトルをX=[x,・・・,xとするときxがw、wに属する確率の分布、つまりwとwにおけるn次元のヒストグラムを生成し、このヒストグラムをそれぞれP(w|x)、P(w|x)と表す。よってベイズ誤り確率推定値は、
で表される。この確率推定値の計算をn個の特徴量の組合せそれぞれに対して行う。ここで算出されるベイズ誤り確率推定値は、一次元の場合と同様に、値が低いほど良品と不良品との分類に適している組合せとみなすことが出来る。
なお、以上の説明では、2クラス問題の場合について述べたが、ベイズ誤り確率推定値は多クラスについても適用可能である。
次に、第一の評価値の別の例として、ベイズ誤り確率推定値の代わりにクラス内分散・クラス間分散比を用いる場合についても説明する。例えば2クラス問題の場合、2つのクラスをw、wとし、観測される特徴をX=[x,・・・,xとするとき、特徴ベクトルxに関するクラス内分散・クラス間分散比を求める。ここでクラスwに属するパターンの集合をAとし、Aに含まれるパターン数をpn、クラスwに属するパターンのxの平均をmとする。また、全パターン数をpn、全パターンのxの平均ベクトルをmとする。よって、
は、
のように表すことができる。よって、クラス内分散・クラス間分散比は
で表すことができる。このようにしてクラス内分散・クラス間分散比を求め、第一の評価値とする。
なお、以上の説明では、2クラス問題の場合について述べたが、クラス内分散・クラス間分散比は多クラスについても適用可能である。本実施形態では、分類間の分離度を評価できるベイズ誤り確率推定値、クラス内分散・クラス間分散比を第一の評価値として用いたが、分類への適合を評価することができる評価値であれば、どのような評価値を用いてもよい。
(ステップ204:第一の評価値同士の比較結果(判定結果)から第二の評価値を算出)
ステップ204では、複数の特徴量の組合せにおける第一の評価値同士を比較することにより、複数の特徴量それぞれに対して、入力データの分類に適しているか否かを評価するための第二の評価値を算出する。
以下に、第二の評価値の算出について詳細に説明する。
まず、1つの特徴量に注目し、その特徴量を含む組合せの中で第一の評価値が最も良い組合せを求める。第一の評価値としてベイズ誤り確率推定値を用いている場合、ベイズ誤り確率推定値が最も低い特徴量の組合せを求める。
そして、第一の評価値が最も良い組合せの特徴量の第二の評価値に対して、所定の値を加算する。そして他の特徴量に対しても順に注目し、第一の評価値が最も良い組合せの特徴量の第二の評価値に対して、所定の値を加算する。このように、全ての特徴量に対して注目し、注目した特徴量に対して最も良い組合せの特徴量の第二の評価値に、所定の値を加算する。
図5は、n=2の場合における第二の評価値算出の概念を示した図である。
図6は、n=3の場合における第二の評価値算出の概念を示した図である。
まず、図5を用いてn=2における第二の評価値算出のアルゴリズムの概念について説明する。図5では、例として、特徴量がA、B、C、Dの4種類である場合について説明する。
最初に、特徴量Aに注目した場合、特徴量Aとの組合せでB、C、Dの中、最も第一の評価値が低くなる(Bayes=0.08)(良品と不良品との分類に適している)特徴量は、Bである。よって、特徴量Bは他の特徴量よりも特徴量Aとの組合せにおいて良品と不良品との分類に適しているとみなせるため、特徴量Bの第二の評価値に対して値1を加算する。
同様に、特徴量Bに注目した場合、特徴量Cは他の特徴量よりも特徴量Bとの組合せにおいて、良品と不良品との分類に適しているとみなせる(Bayes=0.003)ため、特徴量Cの第二の評価値に対して値1を加算する。
同様の処理を、特徴量Cについて行うと、特徴量Bの第二の評価値に対して値1が加算される。最後に、特徴量Dに注目すると、特徴量Bと、特徴量Cとに組合せた場合の第一の評価値が最も低い(Bayes=0.05)。つまり、特徴量Dに関しては、良品と不良品との分類に最も適している組合せが、特徴量Bと特徴量Cとの二種類あるため、特徴量Bと特徴量Cとの第二の評価値それぞれに対して値0.5が加算される。また、特徴量Dに対し特徴量BとCを組合せて、3個の特徴量の組合せとしてもよい。以上の処理により、第二の評価値については、特徴量Aは0、特徴量Bは2.5、特徴量Cは1.5、特徴量Dは0、となる。つまり、分類に最も適している組合せと判定された回数が多いほど第二の評価値が高くなる。
次に、図6を用いてn=3における第二の評価値算出のアルゴリズムの概念を説明する。基本的には、n=2のときの場合と同様の処理がなされる。特徴量Aに注目した場合、図6に示すように、特徴量Aとの組合せにおいて最も良品と不良品との分類に適している特徴量は、特徴量D、特徴量Fである(Bayes=0.001)。従って、特徴量Dの第二の評価値に対して、値1を加算し、特徴量Fの第二の評価値に対して値1を加算する。同様の処理をすべての特徴量の組合せに対して行うことにより、すべて特徴量の対して第二の評価値が算出される。
(ステップ205:第二の評価値に基づく関数でスコアを算出し、選択基準を決定)
ステップ205では、第二の評価値(Lnとする)に基づく関数で、特徴量を選択する基準となるスコアを求める。このとき本実施形態では、
score=Ln (式13)
のような関数でスコアを算出するが、第二の評価値が大きくなればなるほどスコアが大きくなるような関数であれば良い。なおこのスコアの算出はN個(選択対象となっている特徴量の種類)の特徴量ごとに求める。
(ステップ206:n個ずつ特徴量を選択)
ステップ206では、ステップ205で求めたスコアが最も良い、つまりスコアが最も大きい特徴量とステップ204で組合せとした特徴量の組合せでn個の特徴量を選択し、選択した以外の特徴量に対して先に述べた特徴選択基準で選択を繰り返す。
例えば、図5で示した例の場合、第二の評価値はそれぞれ特徴量Aでは0、Bでは2.5、Cでは1.5、Dでは0であるので最も第二の評価値の高い特徴量Bを最初に選ぶ。
また、特徴量Bとの組合せに対応する特徴量Cも同時に選ぶ。
次に、第二の評価値が2番目に高い特徴量Cを選ぶが、既に選ばれているため、次の特徴量を選ぶ。特徴量Cと組合せとした特徴量はBを選ぶが、既に選ばれているため、次の特徴量を選ぶ。次の第二の評価値は0となるため、第一の評価値、つまりベイズ誤り確率推定値が低い順に特徴量を選ぶ。特徴量Aに注目すると、第一の評価値が最も低いのは特徴量Bの0.08である。また特徴量Dに注目すると、第一の評価値が最も低いのは特徴量BとCとの0.05である。特徴量Aに注目したときのほうが、第一の評価値が低いので、特徴量Aを先に選び、その次に特徴量Dを選ぶ。
このようにして最終的に組合せの良い予め定めた所定のm個の特徴量を選択する。
入力パターンからのN個の特徴抽出はトレーニングパターンを用いるのでオフラインで行うことが可能で、オンラインの処理では、テストパターンに対してm個の特徴量抽出のみ行えば良いので、演算処理を高速化させることができる。また、特徴量の組合せを考慮したm個の特徴量を選択しているので、従来の第一の評価値のみを考慮した特徴選択手法と比べて、最終的に選択するm個の特徴量の数を減らして同等の性能を維持することができる。
上述のようなスコア算出方法により、多様な特徴量群から特徴量の組合せ間を考慮した特徴量の選択をオフラインで選択できる。この結果、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
最後に、これまで述べた本実施形態におけるスコア算出の処理について説明する。図7は、本実施形態におけるスコア算出の処理フローチャートを示した図である。図7の処理は、N個(選択対象となる特徴量の種類)の特徴量から2個ずつ特徴量を選択するときについて述べたものである。
(ステップ701:Bayesijを算出,Ln=0(i=1,・・・,N,J=i+1,・・・,N))
最初に、ステップ701では、全ての組合せの第一の評価値、つまりベイズ誤り確率推定値Bayesを求める。N個の特徴量から2個ずつ特徴量を選択する。ベイズ誤り確率推定値Bayesijのiは一つ目の特徴量を示し、jは二つ目の特徴量を示す。iは1からNに変え、jはiと同じ特徴量を選ばないようにi+1からNの間に変える。よって通りの組合せが生成される。またこのとき全ての第二の評価値の初期値をLn=0(i=1,・・・,N)に設定する。
(ステップ702:初期値iの設定)
ステップ702では、一つ目の特徴量i=1に設定し、徐々に値を変えて特徴量をかえる。
(ステップ703:
とkを算出)
ステップ703では、特徴量iを固定し特徴量jを可変として、第一の評価値、つまりベイズ誤り確率推定値の最小値とベイズ誤り確率推定値が最小となるときのjを求める。このときのjをkとする。ここで特徴量iと特徴量kを2つの特徴量のセットとする。
(ステップ704:Ln=Ln+1)
ステップ704では、特徴量kの第二の評価値Lnに対して1加える。
(ステップ705:i=N、ステップS16:i=i+1)
iの値がNとなれば、ステップ707に進み、iの値がNより小さければ、ステップS706に進む。
(ステップ706:i=i+1)
ステップ706では、iに1加え、ステップ703に戻る。
(ステップ707:score=Ln(i=1,・・・,N))
ステップ707では、それぞれの特徴の第二の評価値Lnをスコアとし、これを基にステップS13で決めたセットごとに特徴量を選択する。
(第2の実施形態)
本実施形態の処理の流れを図8のフローチャートで説明する。本実施形態が第一の実施形態と異なる点は、第一の実施形態における図2のステップ205が、図8のステップ805に変更されていることである。よって、第一の実施形態と異なる点であるステップ805の処理のみ説明する。なお、第一の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
(ステップ805:第一の評価値と第二の評価値に基づくスコアを算出し特徴選択基準を決定)
ステップ805では、第一の実施形態と異なり、第二の評価値だけでなく、第一の評価値と第二の評価値との両方に基づいて特徴選択基準を決定する。第一の評価値と第二の評価値に基づく関数でスコアを求め、特徴選択基準を決定する。このとき、以下に示す式14のような関数でスコアを算出するが、ベイズ誤り確率推定値が小さくなればなるほどスコアが大きくなり、第二の評価値が大きくなればなるほどスコアが大きくなるような関数であれば他の関数を用いてもよい。
式14では第一の評価値であるベイズ誤り確率推定値Bayesと第二の評価値Lnが0になることがあるので、非零値a、bを加えている。例えば特徴量の数が1000個存在するとすると、特徴量ごとの第一の評価値Bayesは最小で0、最大で1であり、また第二の評価値Lnは最小で0、最大で1000であり、この場合、a=1程度、b=0.001程度が適当である。
本実施形態におけるスコア算出関数により、特徴量の評価と特徴量間の組合せの評価を考慮した特徴選択が可能になる。よって、必要な特徴量のみの選択が可能になり、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
最後にこれまで述べた本実施形態のスコア算出アルゴリズムを図9に示す。図7と同様に図9はN個の特徴量から2個ずつ特徴量を選択するときについて述べたものである。ここでも、図7とフローチャートと異なるステップ908のみを説明する。
(ステップ908:
ステップ908では、ステップ903で求めた第一の評価値Bayesと第二の評価値Lnを用いた関数をスコアとし第一の実施形態と同様にステップ903で求めた特徴量のセットごとに特徴量を選択する。
(第3の実施形態)
本実施形態における処理を図10のフローチャートで説明する。本実施形態が第二の実施形態と異なる点は、第2の実施形態を示す図8のステップ804がステップ1004に変更されていることである。よって、第二の実施形態と異なる点であるステップ10004のみを説明する。また第一の実施形態にも第3の実施形態の手法を適用できるが、ここでは説明を省略する。なお、第二の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
(ステップ1004)
本実施形態では、複数の第一の評価値それぞれに対してあらかじめ設定された評価基準との適合度合いを判定する。そして、当該適合度合いがより大きい第一の評価値の前記組合せ特徴を構成する特徴量の第二の評価値に対してより多く所定の値の加算を行い、第二の評価値を算出する。
図11は、本実施形態における第二の評価値算出のアルゴリズムの概要を示した図である。
本実施形態では、第一の実施形態および第二の実施形態と同様に、全ての特徴量の組合せに対して第一の評価値(ここではベイズ誤り確率推定値)を求める。
例えば、第一の実施形態の図5と同様に、特徴量A、B、C、Dがある場合、特徴量を少なくとも2個以上同時に組合せるが、特徴量AからDに対して第一の評価値が最も良い特徴量に第二の評価値に値1加算する。特徴量Aに注目した場合、特徴量Aを含む組合せに対して第一の評価値が最も良い、つまりベイズ誤り確率推定値最も低い(Bayes=0.08)のは特徴量Bである。よって特徴量Bに対して第二の評価値に値1加算する。第1の実施形態、第2の実施形態と同様に、以上の処理を全ての特徴量に対して行う。
本実施形態では、第一の実施形態および、第二の実施形態と異なり、特徴量AからDに対して第一の評価値が二番目に良い特徴量に対して第二の評価値に値w(0<w<1)加算する。特徴量Aに注目した場合、特徴量Aを含む組合せに対して特徴量Aの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.1)特徴量は特徴量Cである。よって特徴量Cに対して第二の評価値に値w加算する。第一の評価値が悪くなるにつれて第二の評価値に対して加算する値を小さくしても良い。図11では二番目に優れた特徴量に対して第二の評価値に加算していく。次に特徴量Bに注目した場合、特徴量Bを含む組合せに対して特徴量Bの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.05)特徴量は特徴量Dである。よって特徴量Dに対して第二の評価値に値w加算する。また特徴量Cに注目した場合、特徴量Cを含む組合せに対して特徴量Cの第一の評価値が二番目に優れた、つまりベイズ誤り確率推定値が二番目に低い(Bayes=0.05)特徴量は特徴量Dである。よって特徴量Dに対して第二の評価値に値w加算する。なお特徴量Dに注目した場合、特徴量Dを含む組合せに対して第一の評価値が最も良い、つまりベイズ誤り確率推定値最も低い(Bayes=0.05)特徴量は特徴量BとCの二つである。よって第一の評価値が二番目に良い特徴量に関して第二の評価値に所定の値を加算しない。結果的に加算した値の第二の評価値合計値は、特徴量Aでは0、Bでは2.5、Cでは1.5+w、Dでは2wとなる。これにより、精度の高い第二の評価値の算出が可能となる。
以上説明したように、本実施形態における第二の評価値算出方法により、精度の良い第二の評価値が算出可能になり、より組合せ相性の良い特徴選択が可能になる。必要な特徴量のみを選択することが可能になり、その結果、特有の次元において発生する問題を起りにくくし、演算処理を高速化させることができる。
(第四の実施形態)
上記実施形態では、クラスwとwのパターンの値が既知な2クラス問題において、クラスw、wとをより分離できる評価値を選択した。
しかし、実際には、クラスwのパターンの値のみが既知で、クラスwのパターンの値が未知である場合が考えられる。例えば、良品検査において、不良品のパターンの値は未知であり、良品のパターン値のみが既知である場合である。そこで、本実施形態では、クラスwのパターンのみで算出可能な分離度合いを示す評価値を用いた処理を行う。
以下では、クラスwのパターンのみで算出可能な評価値について説明する。
クラスwに対するクラスwの分離度合い示す評価値として、クラスwの分布密度が考えられる。仮に、クラスwの分布が密である場合、特徴空間内でクラスwの分布が発散する範囲が狭くなり、クラスwとクラスwの分布が重なる可能性は低くなる。逆に、特徴空間内でクラスwの分布が発散する範囲が広くなり、クラスwとクラスwの分布が重なる可能性が高くなる。
以上説明したように、wの分布密度に応じて重なるパターン数は変化するが、クラスwの分布が密である場合でも、重なりがある場合には、クラスwが密であるため分布内の多くのパターンが重なる。また、クラスwの分布が疎である場合でも、もし重なりがある場合には、クラスwの分布が疎であるため重なるパターンは少ない。
しかしながら、一般的には、wの分布が密であるほうが、クラスwとクラスwとで重なるパターン数は少なくなる。よって、クラスwのパターンの分布がより密になる特徴量の方が、クラスwとクラスwとを分離する特徴量として優れていることになる。
本実施形態では、クラスwのパターンの分布を表す評価値として、クラスwのパターンの重心から最も離れているパターンのユークリッド距離を用いる。また、重心からのすべてのパターンへのユークリッド距離の標準偏差を評価値として用いることも可能である。また、マンハッタン距離等の他の距離概念を用いても良い。
以下で、本実施形態における処理フローを説明する。
図12は、本実施形態における処理フローを示す図である。本実施形態が第二の実施形態と異なる点は、第二の実施形態を示す図8のステップ803がステップ1203に変更されていることである。よって、第二の実施形態と異なる点であるステップ1203のみを説明する。なお、第二の実施形態と同様、本実施形態の処理は、図1の情報処理装置101が行うものである。
図13は、本実施形態におけるステップ1203の処理の詳細を示す図である。以下で、図13に沿って、ステップ1203における処理の詳細を説明する。尚、ステップ1301はステップ1202に対応するので説明を省く。
(ステップ1302:特徴量ごとに所定のクラスwのみの全パターンを正規化)
ステップ1302では、各特徴量の標準偏差でクラスwのパターンすべてを特徴量ごとに正規化する。本実施形態では、n次元の特徴空間におけるユークリッド距離で特徴量を評価する必要があるためである。
(ステップ1303:n個の特徴量の組合せそれぞれに対してn次元の特徴空間に所定の1クラスwのパターンのみをプロット)
次に、ステップ1303では、生成されたn個の特徴量の組合せそれぞれに対して、n次元の特徴空間に1クラスwのパターンをプロットする。
図14は、n=2である場合に、1クラスwのパターンがプロットされた特徴空間を示す図である。
(ステップ1304:所定の1クラスwのパターンの重心を算出)
ステップ1304では、特徴空間にプロットされたパターンの重心Gを求める。
(ステップ1305:発散度を第一評価値とし、n個の特徴量の組合せそれぞれに対しても第一評価値を算出)
ステップ1305では、n次元の特徴空間において、ステップ1304で求めた重心Gから最も離れているパターンとのユークリッド距離dmaxを求め、このユークリッド距離を発散度とする。もしくは重心Gからの各パターンへのユークリッド距離dのすべてのパターンへのdの標準偏差を発散度とする。以上の処理で算出された発散度を、上記実施形態と同様に第一の評価値とする。
尚、発散度はベイズ誤り確率推定値と同様に小さいほどクラスを分離する特徴量として優れている。よって、n次元の特徴空間におけるユークリッド距離を発散度として、ベイズ誤り確率推定値と同様に、第一の評価値として扱うことが可能である。本実施形態によれば、1クラスのみのデータから、特徴量選択が可能となる。
尚、以上の説明では、1クラス問題について述べたが、本実施形態は多クラス問題にも適用可能である。あるクラスが他のクラスとの分離している度合いを示すのにn次元の特徴空間において重心から最も離れているパターンのユークリッド距離、を発散度として利用することが可能である。
(他の実施形態)
上記実施形態では外観検査においての利用を述べたが、本発明は、顔認識や動画像を含むマルチモーダル多次元データ等のパターン識別問題において用いる特徴量を、多様な特徴量の中から選択する場合にも用いることができる。なお、その他のパターン認識やデータマイニングの分野で用いることも可能である。
また、上記実施形態では,ベイズ誤り確率推定値などを用いて各特徴量を評価し、特徴量を選択した。このようにあらかじめ識別器を通す前に特徴量を評価するという手法はフィルター法と呼ばれる。これに対し,実際に良品不良品などを識別する識別器を通してその性能を評価して特徴量を用いるか用いないかを決める手法はワッパー法と呼ばれる。ワッパー法は識別結果を見ているためにフィルター法と比べて性能は良いが、計算時間が膨大にかかるという欠点がある。そこで、膨大な特徴量数に対してワッパー法を効率的に行うために,計算が高速なフィルター法で特徴量を絞り込んでおく手法が提案されている。特徴量を絞り込んでおくことにより、ワッパー法のみを用いる場合よりも計算時間を短縮することが出来る。上記実施形態の手法は、ワッパー法を第二の選択手段として、ワッパー法と組合せて行うことも可能である。
また、上記実施形態における処理は、CDROM等の記録媒体に記録されたコンピュータプログラムをコンピュータによって処理することにより、実現することが可能である。

Claims (15)

  1. 入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
    前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
    前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、
    前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を得る第二の算出手段とを有することを特徴とする情報処理装置。
  2. 更に、前記第二の評価値に基づき、前記複数の特徴量から前記入力データの分類に用いる特徴量を選択する選択手段を有することを特徴とする請求項1に記載の情報処理装置。
  3. 更に、前記第二の評価値に基づき、前記複数の特徴量から前記入力データの分類に用いる特徴量を選択するための選択基準を設定する設定手段を有することを特徴とする請求項1に記載の情報処理装置。
  4. 前記入力データは、外観検査の対象である検査対象物を撮像した入力画像データであり、
    前記第一の評価値と前記第二の評価値とは、前記検査対象物が良品であるか否かを評価するための評価値であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記第一の評価値は、前記入力データの分類の分離度を評価する評価値であることを特徴とする請求項2に記載の情報処理装置。
  6. 前記第一の評価値は、前記入力データの分類のベイズ誤り確率推定値であることを特徴とする請求項5に記載の情報処理装置。
  7. 前記第二の算出手段は、前記複数の組合せそれぞれに対する前記第一の評価値同士を比較することにより、
    前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記第一の評価値は、前記入力データの分類のクラス内分散・クラス間分散比であることを特徴とする請求項5に記載の情報処理装置。
  9. 前記第二の算出手段は、
    前記第一の評価値に基づき、前記組合せごとに前記入力データの分類に適している特徴量を抽出し、
    前記抽出された回数に基づき、前記複数の特徴量それぞれに対して前記第二の評価値を算出することを特徴とする請求項1に記載の情報処理装置。
  10. 前記設定手段は、前記第一の評価値と前記第二の評価値とに基づいて、前記選択基準を設定することを特徴とする請求項3に記載の情報処理装置。
  11. 前記第二の算出手段は、
    前記第一の評価値それぞれに対してあらかじめ設定された評価基準との適合度を判定し、当該判定結果に基づき、前記第二の評価値を算出することを特徴とする請求項1に記載の情報処理装置。
  12. 前記第一の評価値は、前記複数の特徴量の特徴空間における前記入力データの発散度であることを特徴とする請求項1に記載の情報処理装置。
  13. 更に、前記選択手段により選択された特徴量から、前記入力データの識別器を用いて特徴量を選択する第二の選択手段を有することを特徴とする請求項2に記載の情報処理装置。
  14. 入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理方法であって、
    生成手段が、前記複数の特徴量を組合せることにより複数の組合せを生成する生成工程と、
    第一の算出手段が、前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出工程と、
    第二の算出手段が、前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出する第二の算出工程とを有することを特徴とする情報処理方法。
  15. コンピュータを、
    入力データから抽出される複数の特徴量から、当該入力データの分類に用いる特徴量を選択するための情報処理装置であって、
    前記複数の特徴量を組合せることにより複数の組合せを生成する生成手段と、
    前記複数の組合せそれぞれに対して前記入力データの分類への適合を評価する第一の評価値を算出する第一の算出手段と、
    前記第一の評価値に基づき、前記複数の特徴量それぞれに対して前記入力データの分類への適合を評価する第二の評価値を算出する第二の算出手段とを有する情報処理装置として機能させるためのコンピュータプログラム。
JP2009183717A 2008-09-24 2009-08-06 情報処理装置及び方法 Expired - Fee Related JP5414416B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009183717A JP5414416B2 (ja) 2008-09-24 2009-08-06 情報処理装置及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008244194 2008-09-24
JP2008244194 2008-09-24
JP2009183717A JP5414416B2 (ja) 2008-09-24 2009-08-06 情報処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2010102690A JP2010102690A (ja) 2010-05-06
JP5414416B2 true JP5414416B2 (ja) 2014-02-12

Family

ID=42059660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009183717A Expired - Fee Related JP5414416B2 (ja) 2008-09-24 2009-08-06 情報処理装置及び方法

Country Status (5)

Country Link
US (1) US8189906B2 (ja)
EP (1) EP2333719B1 (ja)
JP (1) JP5414416B2 (ja)
CN (1) CN102165488B (ja)
WO (1) WO2010035659A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015533A (ja) * 2019-07-16 2021-02-12 株式会社ジャパン・カレント 画像分類システム及び画像分類方法
US11544628B2 (en) 2016-06-15 2023-01-03 Canon Kabushiki Kaisha Information processing apparatus and information processing method for generating classifier using target task learning data and source task learning data, and storage medium

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5912125B2 (ja) * 2010-11-12 2016-04-27 スリーエム イノベイティブ プロパティズ カンパニー ウェブベース材料における不均一性の高速処理と検出
JP5836095B2 (ja) * 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
JP5799817B2 (ja) * 2012-01-12 2015-10-28 富士通株式会社 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
JP2014142213A (ja) * 2013-01-22 2014-08-07 Canon Inc 撮影パラメータ決定装置及びその制御方法
CN105512117B (zh) * 2014-09-22 2020-05-26 联想(北京)有限公司 一种信息处理方法及电子设备
US9959482B2 (en) 2014-11-28 2018-05-01 Canon Kabushiki Kaisha Classifying method, storage medium, inspection method, and inspection apparatus
JP6643856B2 (ja) * 2014-11-28 2020-02-12 キヤノン株式会社 分類方法、検査方法、検査装置、およびプログラム
JP6616645B2 (ja) * 2014-11-28 2019-12-04 キヤノン株式会社 分類方法、検査方法、検査装置、およびプログラム
US10248888B2 (en) 2014-11-28 2019-04-02 Canon Kabushiki Kaisha Classifying method, storage medium, inspection method, and inspection apparatus
JP6632288B2 (ja) * 2014-12-12 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
WO2016092779A1 (en) * 2014-12-12 2016-06-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2017049974A (ja) * 2015-09-04 2017-03-09 キヤノン株式会社 識別器生成装置、良否判定方法、およびプログラム
JP6624963B2 (ja) 2016-02-12 2019-12-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6889428B2 (ja) * 2016-02-26 2021-06-18 国立大学法人山口大学 情報処理装置と情報処理プログラム並びに情報処理方法
JP6193428B1 (ja) * 2016-03-17 2017-09-06 株式会社東芝 特徴選択装置、特徴選択方法およびプログラム
JP6680666B2 (ja) * 2016-11-24 2020-04-15 ヤフー株式会社 情報解析装置、情報解析システム、情報解析方法、および情報解析プログラム
EP3404593A1 (en) * 2017-05-15 2018-11-21 Tata Consultancy Services Limited Method and system for data based optimization of performance indicators in process and manufacturing industries
JP2019039727A (ja) * 2017-08-23 2019-03-14 富士通株式会社 画像検査装置、画像検査方法および画像検査プログラム
JP2019067194A (ja) * 2017-10-02 2019-04-25 Soinnホールディングス合同会社 自律学習装置、自律学習方法及びプログラム
US11176324B2 (en) * 2019-09-26 2021-11-16 Sap Se Creating line item information from free-form tabular data
US11151710B1 (en) * 2020-05-04 2021-10-19 Applied Materials Israel Ltd. Automatic selection of algorithmic modules for examination of a specimen

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421463B1 (en) * 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
JP2002073994A (ja) * 2000-08-31 2002-03-12 Nri & Ncc Co Ltd 保険契約のためのリスク分析支援装置
CN1273912C (zh) * 2001-08-23 2006-09-06 索尼公司 机器人装置、面容识别方法和面容识别装置
US6983065B1 (en) * 2001-12-28 2006-01-03 Cognex Technology And Investment Corporation Method for extracting features from an image using oriented filters
JP4397667B2 (ja) * 2003-10-06 2010-01-13 富士フイルム株式会社 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
JP4532915B2 (ja) * 2004-01-29 2010-08-25 キヤノン株式会社 パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
GB0405741D0 (en) * 2004-03-15 2004-04-21 Bae Systems Plc Apparatus for enhancing a signal and related method
JP3683906B1 (ja) * 2005-03-18 2005-08-17 松下電器産業株式会社 情報検索装置
JP4715389B2 (ja) * 2005-08-24 2011-07-06 日本電信電話株式会社 パターン認識方法及び装置及びプログラム
CN100523746C (zh) * 2006-05-09 2009-08-05 欧姆龙株式会社 检查装置及检查方法
JP4321645B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
EP1930842B1 (en) 2006-12-08 2010-07-28 Sony Corporation Face recognition with Gabor filters
CN101216436A (zh) * 2008-01-03 2008-07-09 东华大学 一种基于支持向量数据描述理论的织物瑕疵自动检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544628B2 (en) 2016-06-15 2023-01-03 Canon Kabushiki Kaisha Information processing apparatus and information processing method for generating classifier using target task learning data and source task learning data, and storage medium
JP2021015533A (ja) * 2019-07-16 2021-02-12 株式会社ジャパン・カレント 画像分類システム及び画像分類方法

Also Published As

Publication number Publication date
WO2010035659A1 (ja) 2010-04-01
JP2010102690A (ja) 2010-05-06
CN102165488B (zh) 2013-11-06
US8189906B2 (en) 2012-05-29
US20100239154A1 (en) 2010-09-23
EP2333719B1 (en) 2020-12-30
CN102165488A (zh) 2011-08-24
EP2333719A1 (en) 2011-06-15
EP2333719A4 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
JP5414416B2 (ja) 情報処理装置及び方法
JP6710135B2 (ja) 細胞画像の自動分析方法及びシステム
KR100444778B1 (ko) 영상 텍스쳐 추출 방법 및 그 장치
JP5889019B2 (ja) ラベル付加装置、ラベル付加方法及びプログラム
Cord et al. Texture classification by statistical learning from morphological image processing: application to metallic surfaces
Mai et al. Comparing salient object detection results without ground truth
US11972552B2 (en) Abnormal wafer image classification
Shang et al. Support vector machine-based classification of rock texture images aided by efficient feature selection
CN105654109B (zh) 分类方法、检查方法和检查装置
Singh et al. A concise review of MRI feature extraction and classification with kernel functions
CN105654108A (zh) 分类方法、检查方法和检查装置
Wo et al. A saliency detection model using aggregation degree of color and texture
Tinnathi et al. Copy-Move Forgery Detection Using Superpixel Clustering Algorithm and Enhanced GWO Based AlexNet Model
Du et al. LAP: a bio-inspired local image structure descriptor and its applications
JP2019149028A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
Florindo et al. Fractal descriptors of texture images based on the triangular prism dimension
Prasad et al. A multi-classifier and decision fusion framework for robust classification of mammographic masses
CN112801950A (zh) 一种基于几何失真度量的图像适配质量评价方法
Podsiadlo et al. Fast classification of engineering surfaces without surface parameters
Myneni et al. Comparative analysis on scene image classification using selected hybrid features
Mateus et al. Surveillance and management of parking spaces using computer vision
Tleis et al. Machine Learning approach to discriminate Saccharomyces cerevisiae yeast cells using sophisticated image features
JP2017010318A (ja) 情報処理装置及び情報処理方法
Anish et al. ADVANCING IMAGE RETRIEVAL: UNITING ATTENTION-POWERED CONVNETS WITH SIFT FEATURES
Mondonneix et al. Check for updates Ordinal Learning with Vector Space Based Binary Predicates and Its Application to Tahitian Pearls' Luster Automatic Assessment

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131112

R151 Written notification of patent or utility model registration

Ref document number: 5414416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees