JP5660078B2 - 多クラス識別器、方法、およびプログラム - Google Patents

多クラス識別器、方法、およびプログラム Download PDF

Info

Publication number
JP5660078B2
JP5660078B2 JP2012125408A JP2012125408A JP5660078B2 JP 5660078 B2 JP5660078 B2 JP 5660078B2 JP 2012125408 A JP2012125408 A JP 2012125408A JP 2012125408 A JP2012125408 A JP 2012125408A JP 5660078 B2 JP5660078 B2 JP 5660078B2
Authority
JP
Japan
Prior art keywords
group
type
data
types
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012125408A
Other languages
English (en)
Other versions
JP2013250809A (ja
Inventor
松永 和久
和久 松永
雅行 広浜
雅行 広浜
浩一 中込
浩一 中込
道大 二瓶
道大 二瓶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012125408A priority Critical patent/JP5660078B2/ja
Priority to US13/904,911 priority patent/US9098775B2/en
Priority to CN201310213817.2A priority patent/CN103455542B/zh
Publication of JP2013250809A publication Critical patent/JP2013250809A/ja
Application granted granted Critical
Publication of JP5660078B2 publication Critical patent/JP5660078B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24317Piecewise classification, i.e. whereby each classification requires several discriminant rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system

Description

本発明は、多クラス識別器、方法、およびプログラムに関する。
野山や道端で見かけた花の名前を知りたくなることがある。そこで、撮影等により得た花と葉のディジタル画像より、クラスタリング法を用いて対象物である花と葉の局所特徴を多数抽出し、更にその抽出特徴群をヒストグラム化した情報を特徴量とする。単数または複数の特徴量を求め、その求められた特徴量と、あらかじめデータベースに登録してある各種の植物の特徴量とを統計的手法を用いて解析して野草の種類を判別する技術が提案されている(例えば特許文献1に記載の技術)。
また、花などの主要被写体を含む画像をGraph Cuts法を用いて主要被写体である花の領域と背景画像の領域とに分割する技術が知られている(例えば特許文献2に記載の技術)。
ここで入力された花などの画像データに対して画像分類を行うときに、機械学習では、ある種類の画像自身かそれ以外かという2通りの画像分類を行う2クラスの識別器は容易に実現できる。一方、複数種類の画像の中から各種類の画像を識別する多クラスの画像分類を行うときには、2クラスの識別器を組み合わせて多クラスの識別器を構成することが一般に行われる。例えば、花の画像が6種類に分類される場合に、2クラスの識別器が6個生成される。各識別器は、それぞれに割り当てられた種類の画像が入力されたときに、それぞれ最大の識別スコア値を出力するように生成される。そして、画像が各識別器に入力されたときに、最も高い識別スコア値を出力した識別器に対応する種類が識別結果とされる。クラスタリング法の先行技術文献としては、例えば特許文献3乃至5に示されている。
特許文献3記載の技術は、画像を前景及び背景などの粗い領域へセグメント化し、前景領域と背景領域との間の類似性からの全体的な類似性度合を導くシステムを提供することを目的とし、本技術によるイベント・クラスタリング方法は、前景及び背景セグメント化を用いて、画像を一グループから類似のイベントへクラスタリングする。最初、各画像は複数のブロックへ分割され、よってブロック・ベースの画像が提供される。ブロック毎の比較によって、各ブロック・ベースの画像は、少なくとも前景及び背景を有する複数の領域へセグメント化される。1以上の光度、色、位置、及びサイズ特徴が上記領域から抽出され、この抽出された領域はグループ内の連続画像中の前景及び背景を有する領域の類似性を評価・比較するのに利用される。次いで、連続画像間の全体の類似性の度合が計算されることによって連続画像間の画像相違度合(image distance)が提供され、この画像相違度合からイベント・クラスタの範囲が定められる。
特許文献4記載の技術は、パターンのパターン認識結果と各パターンに対応付けられた付加情報とに基づいて複数のカテゴリーから各パターンが属するカテゴリーを決定する認識手法に係る付加情報の決定方法であって、各パターンがパターン認識されたときに真のカテゴリーを含む各カテゴリーに属すると判定されるそれぞれの確率を要素とする混同行列を取得する工程と、目標の認識性能を入力させる工程と、混同行列を参照し、各パターンの真のカテゴリーに対して当該パターンに付加すべき付加情報の符号を対応付けて入力された目標性能を満足するように符号定義を決定する符号定義工程と、符号定義を付加情報として出力する工程とをコンピュータに実行させることを特徴とする付加情報決定方法を開示している。
特許文献5記載の技術は、撮像手段によって撮像された被写体の説明を検索して利用者に提供するデジタル図鑑システムであって、画像を撮像する撮像手段と、画像の中から主要被写体を選択する主要被写体選択手段と、主要被写体の特徴を抽出する特徴抽出手段と、被写体が有する互いに異なる複数の種類の特徴に対応付けて当該被写体の説明を格納する複数の画像データベースの中から、抽出した種類の特徴を格納する画像データベースを選択する画像データベース選択手段と、選択した画像データベースから主要被写体の説明を検索する説明検索手段とを備えるデジタル図鑑システムを提供するものである。
特開2002−203242号公報 特開2011−35636号公報 特開2003−16448号公報 特開2007−26098号公報 特開2006−367607号公報
例えば花の種の分類において、多クラスの識別器を構成する場合、ある種類の花の画像自身とそれ以外に非常に似た花の画像が入ってしまうと、機械学習器は識別できない。逆に、同じ種類の花の画像同士でも、学習データで微妙に違うものがあった場合には、従来の機械学習では、過学習が発生して、これらの画像を識別できないという問題が発生していた。
過学習の例を図13に示す。この図は、カントウタンポポとセイヨウタンポポを識別する識別境界1303を表したものであり、説明の簡単化のために、特徴情報1と特徴情報2とからなる2次元の特徴情報空間上で識別を行うことを示している。そもそも、カントウタンポポとセイヨウタンポポは、花全体の形状や向きからだけでは見分けが困難で、花の蕚の細かい部分まで見なければ判別できない酷似種である。そのような状況で、複数種類を含む学習用データを用いて、正解データであるpositiveデータ群1301と不正解データであるnegativeデータ群1302を分類して、機械学習をさせることを考える。この場合、従来の機械学習器では、positiveデータ群1301とnegativeデータ群1302を分けることだけを優先して機能してしまい、花の種の分類の本質的ではない画像の違いに注目して無理に違いを探してしまう場合が多く発生していた。例えば、学習画像のpositiveデータ群1301が1305として示されるようにたまたま右を向いており、negativeデータ群1302が1306として示されるようにたまたま左を向いていた場合、識別器に設定される特徴情報1と特徴情報2に関する識別境界1303の部分1304は、花の向きが右向きか左向きかを基準にして設定されてしまう。この結果、識別境界1303上の境界部分1304では、カントウタンポポとセイヨウタンポポが正しい識別基準(花の蕚の相違)に基づいて決定されなくなってしまい、識別性能が低下してしまうという問題点を有していた。前記した先行技術文献記載の技術では、これらの問題点を解決していない。
本発明は、酷似種が含まれる多クラスの画像分類において、過学習を避けることを目的とする。
態様の一例では、所定の特徴を表現している特徴データの種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別器であって、複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して前記特徴データの種類を個別に識別する種類識別器を生成する第1学習手段と、いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの特徴データの種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計手段と、前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理手段と、前記グループラベルを付与したものを含む前記学習用データを入力して前記特徴データのグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の特徴データを個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習手段とを備える。
本発明によれば、酷似種が含まれる多クラスの画像分類において、過学習を避けることが可能となる。
本発明の一実施形態に係る多クラス識別器のハードウェア構成例を示すブロック図である。 図1の多クラス識別器の機能的構成を示す機能ブロック図である。 本実施形態による画像識別器生成処理の全体動作を示すフローチャートである。 混合行列データの構成例を示す図である。 混合行列データからの集計処理の説明図である。 第2回目機械学習処理の詳細制御処理を示すフローチャートである。 本実施形態により構成される識別器の説明図である。 識別器生成のための詳細制御処理を示すフローチャートである。 特徴抽出処理を示すフローチャートである。 ベクトル量子化処理を示すフローチャートである。 ヒストグラム生成処理を示すフローチャートである。 識別器生成処理を示すフローチャートである。 従来技術の問題点(過学習)の説明図である。
以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。
図1は、本発明の一実施形態に係る多クラス識別器101のハードウェア構成例を示すブロック図である。
この多クラス識別器101は例えば、いわゆるスマートフォンなどの携帯情報端末から花などの撮影画像データを受信して、識別器によってその花などの種類を検索して識別し、その識別結果を携帯情報端末に返す検索システムのコンピュータ上に実現される。
多クラス識別器101は、CPU(Central Processing Unit:中央演算処理装置)102と、ROM(Read Only Memory)103と、RAM(Random Access Memory)104を備える。また、多クラス識別器101は、ハードディスク記憶装置等の外部記憶装置105と、通信インタフェース106と、キーボード装置またはマウス装置などの入力装置107と、ディスプレイ装置などの出力装置108を備える。さらに、多クラス識別器101は、SDメモリカード、USB(Universal Serial Bus)メモリカード、CD(Conpact Disk)、DVD(Digital Versatile Disk)などの可搬記録媒体110をセット可能な可搬記録媒体駆動装置109を備える。上述の各機器102〜109は、バス111によって相互に接続される。
ROM103には、後述する図3から図9のフローチャートによって示される多クラス識別器生成処理の制御プログラムが記憶されている。CPU102は、ROM103から、この制御プログラムを読み出し、RAM104をワークメモリとして実行する。これにより、後述する図2の機能ブロックで示される多クラス識別器生成機能が実現され、この結果、例えば花の種類を識別する多クラス識別器が生成される。この多クラス識別器は例えばソフトウェアであり、ROM103、RAM104、または外部記憶装置105に記憶される。なお、多クラス識別器生成処理において入力される学習用データや試験用データは、例えば可搬記録媒体駆動装置109にセットされる可搬記録媒体110、あるいは外部記憶装置105から供給される。
多クラス識別器が生成された後は、CPU102は、ROM103、RAM104、または外部記憶装置105に記憶された多クラス識別器のソフトウェアを読み出して実行することにより、多クラス識別器として動作する。あるいは、多クラス識別器は、他のコンピュータシステムで実行されてもよい。この多クラス識別器は、例えばいわゆるスマートフォンなどの携帯情報端末からインターネットを経由して通信インタフェース106で花の撮影画像データを受信する。そして、多クラス識別器は、その花の種類を検索して識別し、その識別結果を通信インタフェース106からインターネットを経由して、携帯情報端末に返す。なお、画像識別器は、例えばスマートフォンの搭載アプリケーションとしてスマートフォンに直接提供されてもよい。
図2は、図1の多クラス識別器101の機能的構成を示す機能ブロック図である。
本実施形態における多クラス識別器101は、花などの画像の種類を第1階層目識別器208で識別し、特定の種類のグループは第2階層目識別器209でさらに詳細に識別する多階層からなる画像の識別器として実現される。
第1学習手段201は、複数種類(例えばK種類とする)中のいずれかに対応する種別ラベルを付与した例えば花に関する学習用データ203を入力して、そのデータ203の画像や特徴データの種類を個別に識別する種類識別器202を生成する。この種類識別器202は、識別すべき例えば花の種類に応じて、#1から#KのK個生成される。各種類識別器202は例えば、入力された画像データが、その種類識別器202に対応する種類自身かそれ以外かという2通りの分類を行う2クラスの識別器として実現される。学習用データ203は例えば、識別すべき例えば花の種類が6種類であれば、種類ごとに例えば50枚ずつ、合計で50枚×6種類=300枚が入力され学習される。
識別誤り集計手段204は、上述のいずれかの種別ラベルを付与した試験用データ205を#1から#Kの種類識別器202に入力して、そのデータ205の画像や特徴データの種類を個別に識別する。そして、識別誤り集計手段204は、複数種類(K種類)中の任意の所定数の種類、例えば2種類の組合せごとに、その組合せに属する所定数の種類間で相互に識別を誤った回数を集計する。例えば、花の例では、セイヨウタンポポとカントウタンポポの間で相互に識別を誤った回数が集計される。具体的には、カントウタンポポの種類識別器202が、セイヨウタンポポの種別ラベルが付与された試験用データ205をカントウタンポポと誤って識別した回数と、セイヨウタンポポの種類識別器202が、カントウタンポポの種別ラベルが付与された試験用データ205をセイヨウタンポポと誤って識別した回数の合計が集計される。ここで、試験用データ205は、学習用データ203とは異なる画像データであるが、学習用データ203と同様に、例えば、識別すべき花の種類が6種類であれば、種類ごとに例えば50枚ずつ、合計で50枚×6種類=300枚が入力され識別される。
グルーピング処理手段206は、識別誤り集計手段204での集計の結果が所定の閾値以上(例えば25回以上、あるいは50%以上)となる組合せのグループごとに、そのグループに属する所定数の種類のいずれかに対応する種別ラベルを有する学習用データに、そのグループに対応するグループラベルを付与する。このようにしてグループラベルが付与された学習用データを203′とする。例えば、花の例では、セイヨウタンポポとカントウタンポポの間で相互に識別を誤った回数が例えば30回で閾値の25回を超えていれば、セイヨウタンポポとカントウタンポポの種別ラベルが付与されている学習用データ203に、さらに例えばタンポポグループのグループラベルが付与されて学習用データ203′とされる。あるいは例えば、ヒルガオとハマヒルガオの間で相互に識別を誤った回数が例えば40回で閾値の25回を超えていれば、ヒルガオとハマヒルガオの種別ラベルが付与されている学習用データ203に、さらに例えばヒルガオグループのグループラベルが付与されて学習用データ203′とされる。
第2学習手段207は、上述のグループラベルを付与したものを含む学習用データ203′を入力して、そのデータ203′の画像や特徴データのグループを識別するグループ識別器209を生成する。このグループ識別器209は、識別すべき例えば花のグループ化された種類に応じて、#1から#LのL個生成される。上述の例では、タンポポグループとヒルガオグループの2つのグループが生成されたため、L=2で、2個のグループ識別器209が生成される。各グループ識別器209は例えば、入力されたデータが、そのグループ識別器209に対応するグループに属する種類自身かそれ以外かという2通りの画像分類を行う2クラスの識別器として実現される。学習用データ203′は例えば、学習用データ203と同様に、識別すべき例えば花の種類が6種類であれば、種類ごとに50枚ずつ、合計で50枚×6種類=300枚が入力され学習される。この学習用データ203′において、カントウタンポポとセイヨウタンポポの種別ラベルが付与された学習用データ203′には、タンポポグループのグループラベルが付与されている。また、ヒルガオとハマヒルガオの種別ラベルが付与された学習用データ203′には、ヒルガオグループのグループラベルが付与されている。第2学習手段207は、上述のようにして生成した#1から#LのL個のグループ識別器209を、上記各グループに属さない種類を個別に識別する種類識別器202(これを#Mから#Nとする)と合わせて、第1階層目識別器208を構成する。
次に、第2学習手段207は、上述のグループ(例えばタンポポグループ、ヒルガオグループ)ごとに、学習用データ203を入力する。そして、第2学習手段207は、そのグループに属する所定数の種類(例えば2種類)の画像や特徴データを個別に識別する#1から#LのL個のグループ内識別器211を生成して、第2階層目識別器210を構成する。例えば花の例では、タンポポグループについては、カントウタンポポとセイヨウタンポポの2つの種類を個別に識別する#1のグループ内識別器211が生成される。また、例えばヒルガオグループについては、ヒルガオとハマヒルガオの2つの種類を個別に識別する#2のグループ内識別器211が生成される。
さらに、第2学習手段207は、次のような階層間統合処理部212を生成することができる。この階層間統合処理部212は、各グループの画像や特徴データについては、そのグループに対応する第1階層目識別器208の識別スコア値と第2階層目識別器210の識別スコア値に所定の倍率を乗算した値とを加算して得られる識別スコア値によって識別判定を行う。また、階層間統合処理部212は、上述のいずれのグループにも属さない種類の画像や特徴データについては、その種類に対応する第1階層目識別器208の識別スコア値によって識別判定を行う。
以上の図2に示される機能ブロック構成により、本実施形態では、酷似種が含まれる多クラスの画像や特徴データの分類において、過学習を避けるために、グループ単位の識別を行う第1階層目識別器208と、グループ内の識別を行う第2階層目識別器210の、2階層の識別器が実現される。この場合に、本実施形態では、グループを決定する際、第1学習手段201によって事前に、グループ化しない状態で機械学習による識別を行う種類識別器202が生成される。次に、識別誤り集計手段204によって、この種類識別器202を用いて、識別試験が行われ、カテゴリ間で識別誤りを生じた回数が集計される。そして、グルーピング処理手段206によって、機械学習が間違いやすいカテゴリ同士がグループ化される。
このようにして、本実施形態では、事前の識別誤りの集計により、酷似種を自動的に判定して仕分けを行うことが可能となり、その結果を用いて、グループ間識別、グループ内識別の2階層の識別が実行される。この結果、多クラス識別器において、図13で説明したような過学習を抑制し、識別性能を向上させることが可能となる。
図3は、図2の機能ブロック図で示される機能を実現するために、図1のハードウェア構成で示される多クラス識別器101が例えば画像識別器として動作する場合に実行される、本実施形態による画像識別器生成処理の全体動作を示すフローチャートである。
このフローチャートで示される処理は、その詳細を示す図4から図9までのフローチャートで示される処理とともに、図1において、CPU102がROM103に記憶された制御プログラムを実行する処理として実現される。
まず、第1回目機械学習処理が実行される(図3のステップS301)。この処理では、前述した図2の第1学習手段201の機能が実行される。この結果、図2に示したように、#1から#KのK個の種類識別器202が生成される。
次に、混合行列生成処理(図3のステップS302)が実行され、その後、集計処理(図3のステップS303)が実行される。これらのステップS302とS303の処理は、図2の識別誤り集計手段204の機能を実現する。
ステップS302の混合行列生成処理では、K種類中のいずれかの種別ラベルを付与した試験用データ205がステップS301で生成された#1から#KのK個の種類識別器202にそれぞれ入力され、そのデータ205の画像の種類が個別に識別される。そして、図2で説明したように、K種類中の任意の例えば2種類の組合せごとにその組合せに属する例えば2種類間で相互に識別を誤った回数が集計されるときに、以下の混合行列データが使用される。
図4は、混合行列データの構成例を示す図である。この混合行列データは、図2の試験用データ205の画像の種類の識別結果をそのデータ205の種別ラベルごとに積算する行列データであり、図1のRAM104に記憶される。この混合行列データにおいて、縦軸の各行には、入力された試験用データ205の種別ラベルが割り当てられる。図4のデータ構成例では、セイヨウタンポポ、カントウタンポポ、ヒマワリ、チューリップ、ヒルガオ、ハマヒルガオのK=6種類の種別ラベルが割り当てられている。また、混合行列データにおいて、横軸の各列には、識別された試験用データ205の種別ラベルが割り当てられる。図4のデータ構成例では、縦軸の各行と同じ種別ラベルが横軸の各列に割り当てられている。そして、混合行列データにおいて、各行と各列が交差する各要素位置に、その要素位置に対応する行に割り当てられた入力の種別ラベルをその要素位置に対応する列に割り当てられた出力の種別ラベルとして識別した回数が積算される。
混合行列データにおいて、主対角線上の要素位置に積算される回数は、図2の各種類識別器202が、正しく識別をした回数が積算されている。例えば、縦軸のセイヨウタンポポが割り当てられている行と横軸のセイヨウタンポポが割り当てられている列が交差する要素位置には、セイヨウタンポポを識別する種類識別器202の識別結果が正解となった識別数=15回が積算されている。同様に、縦軸の行と横軸の列で、カントウタンポポ、ヒマワリ、チューリップ、ヒルガオ、およびハマヒルガオがそれぞれ割り当てられている各行および各列の各交差位置にはそれぞれ、これらの各種類を識別する各種類識別器202の識別結果が正確となった識別数=15、50、50、20、および20回が積算されている。
一方、縦軸のセイヨウタンポポが割り当てられている行と横軸のカントウタンポポが割り当てられている列が交差する要素位置には、カントウタンポポを識別する種類識別器202が、それに入力したセイヨウタンポポの種別ラベルが付与された試験用データ205をカントウタンポポと誤って識別した識別数=15回が積算されている。同様に、縦軸のセイヨウタンポポが割り当てられている行において、横軸でそれぞれヒマワリ、チューリップ、ヒルガオ、およびハマヒルガオがそれぞれ割り当てられている列が交差する要素位置には、これらの各種類を識別する各種類識別器202が、それに入力したセイヨウタンポポの種別ラベルが付与された試験用データ205を上記各種類の画像と誤って識別した識別数=5、5、5、5回がそれぞれ積算されている。
同様に、縦軸のカントウタンポポが割り当てられている行において、横軸でそれぞれセイヨウタンポポ、ヒマワリ、チューリップ、ヒルガオ、およびハマヒルガオがそれぞれ割り当てられている列が交差する要素位置には、これらの各種類を識別する各種類識別器202が、それに入力したカントウタンポポの種別ラベルが付与された試験用データ205を上記各種類の画像と誤って識別した識別数=15、5、5、5、5回がそれぞれ積算されている。
同様に、縦軸のヒルガオが割り当てられている行において、横軸でそれぞれセイヨウタンポポ、カントウタンポポ、ヒマワリ、チューリップ、およびハマヒルガオがそれぞれ割り当てられている列が交差する要素位置には、これらの各種類を識別する各種類識別器202が、それに入力したヒルガオの種別ラベルが付与された試験用データ205を上記各種類の画像と誤って識別した識別数=5、5、0(積算無しでブランク)、0(積算無しでブランク)、20回がそれぞれ積算されている。
同様に、縦軸のハマヒルガオが割り当てられている行において、横軸でそれぞれセイヨウタンポポ、カントウタンポポ、ヒマワリ、チューリップ、およびヒルガオがそれぞれ割り当てられている列が交差する要素位置には、これらの各種類を識別する各種類識別器202が、それに入力したハマヒルガオの種別ラベルが付与された試験用データ205を上記各種類の画像と誤って識別した識別数=5、5、0(積算無しでブランク)、0(積算無しでブランク)、20回がそれぞれ積算されている。
ヒマワリおよびチューリップの種類識別器202は、誤りを生じなかった。このため、縦軸のヒマワリが割り当てられている行において、横軸もヒマワリが割り当てられている列が交差する要素位置以外の要素位置の積算値は0(積算無しでブランク)である。同様に縦軸のチューリップが割り当てられている行において、横軸もチューリップが割り当てられている列が交差する要素位置以外の要素位置の積算値は0(積算無しでブランク)である。
次に、図3のステップS303の集計処理では、ステップS302で図1のRAM104上に生成された混合行列データにおいて、主対角線上の要素位置以外の要素位置の各対角成分同士のデータをそれぞれ加算した各加算結果として、例えばK種類中の任意の2種類の組合せごとにその組合せに属する2種類間で相互に識別を誤った回数が集計される。図5は、混合行列データからの集計処理の説明図である。
例えば、図4の混合行列データで、縦軸のセイヨウタンポポが割り当てられている行と横軸のカントウタンポポが割り当てられている列が交差する要素位置の積算値=15回が着目される。次に、その対角成分である、縦軸のカントウタンポポが割り当てられている行と縦軸のセイヨウタンポポが割り当てられている列が交差する要素位置の積算値=15回が着目される。そして、これらの対角成分同士のデータが加算された結果の積算値=30回が、図5に示されるように、縦軸のカントウタンポポが割り当てられている行と縦軸のセイヨウタンポポが割り当てられている列が交差する要素位置に上書きされる。また、縦軸のセイヨウタンポポが割り当てられている行と横軸のカントウタンポポが割り当てられている列が交差する要素位置の積算値は、クリアされる。
同様に、図4の混合行列データにおける縦軸の行と横軸の列について、ヒマワリとセイヨウタンポポ、セイヨウタンポポとヒマワリの対角成分同士が加算された結果の積算値=5が、図5に示されるように、縦軸行=ヒマワリ、横軸列=セイヨウタンポポの交差要素位置に上書きされる。また、縦軸行=セイヨウタンポポ、横軸列=ヒマワリの交差要素位置の積算値はクリアされる。
他のヒマワリとカントウタンポポ、チューリップとセイヨウタンポポ、チューリップとカントウタンポポ、ヒルガオとセイヨウタンポポ、ヒルガオとカントウタンポポ、ハマヒルガオとセイヨウタンポポ、ハマヒルガオとカントウタンポポの各対角成分同士の組合せについても、同様に集計が行われる。図5に示される混合行列データが得られる。
以上の図3のステップS303の処理により、図1のRAM104上の図5に示される混合行列データの下三角行列領域の各要素位置の集計値として、例えばK種類中の任意の2種類の組合せごとにその組合せに属する2種類間で相互に識別を誤った回数が集計される。
図3のフローチャートの処理に戻って、ステップS303の処理の後、グルーピング処理が実行される(図3のステップS304)。この処理では、図2のグルーピング処理手段206の機能が実行される。具体的には、ステップS303の集計により図1のRAM104上に得られた混合行列データの下三角行列領域において、集計結果が例えば全識別正解数=50回の半分の25回以上となる組合せのグループが抽出される。図5の例では、501として示されるように、カントウタンポポとセイヨウタンポポの2種類の組合せのグループ(集計値=30回)と、ハマヒルガオとヒルガオの2種類の組合せのグループ(集計値=40回)が抽出される。
次に、ステップS304において、これらの例えば2グループにそれぞれ属する2種類のいずれかに対応する種別ラベルを有する学習用データ203に、各グループに対応するグループラベルが付与される。例えばカントウタンポポまたはセイヨウタンポポの種別ラベルを有する学習用データ203に、それらが属するグループに対応するグループラベル、例えば「タンポポグループ」が追加的に付与される。また、ハマヒルガオまたはヒルガオの種別ラベルを有する学習用データ203に、それらが属するグループに対応するグループラベル、例えば「ヒルガオグループ」が追加的に付与される。
ステップS304のグルーピング処理の後、第2回目機械学習処理が実行される(図3のステップS305)。この処理では、図2の第2学習手段207の機能が実行される。
図6は、図3のステップS305の第2回目機械学習処理を示すフローチャート、図7は、第2回目機械学習処理の結果、本実施形態により構成される識別器の説明図である。
まず、第1階層目識別器生成処理が実行される(図6のステップS601)。この処理は、図2の第2学習手段207の説明で前述した通りである。この結果、図7に示されるように、タンポポグループとヒルガオグループにそれぞれ対応する#1と#2の2個のグループ識別器209が生成される。図7の例において、#1のグループ識別器209は、入力画像データから抽出された特徴情報701がタンポポグループに属する種類の画像自身の特徴情報かそれ以外の残りかという2通りの画像分類を行う2クラスの識別器として実現される。同様に、#2のグループ識別器209は、入力画像データから抽出された特徴情報701がヒルガオグループに属する種類の画像自身の特徴情報かそれ以外の残りかという2通りの画像分類を行う2クラスの識別器として実現される。
次に、ステップS601で、上述のグループ識別器209が、図3のステップS301で生成されている種類識別器202のうち上記各グループに属さない種類を個別に識別する種類識別器202と合わせられて、第1階層目識別器208が構成される。図7の例では、#1および#2のグループ識別器209が、タンポポグループとヒルガオグループのいずれにも属さないヒマワリおよびチューリップを個別に識別する#1および#2の種類識別器202と合わせられて、第1階層目識別器208が構成される。
次に、第2階層目識別器生成処理が実行される(図6のステップS602)。この処理も、図2の第2学習手段207の説明で前述した通りである。この結果、図7に示されるように、例えばタンポポグループについては、タンポポグループ内のカントウタンポポとセイヨウタンポポの2つの種類を個別に識別する#1のグループ内識別器211が生成される。また、例えばヒルガオグループについては、ヒルガオグループ内のヒルガオとハマヒルガオの2つの種類を個別に識別する#2のグループ内識別器211が生成される。この処理においては、グループに属する種類に対応する種別ラベルのみを有する学習用データ203を用いてグループ内識別器211が構成されてよい。あるいは、全ての種別ラベルを有する学習用データ203を用いて、グループ内の各種類の1vsその他の識別を行う種類ごとのグループ内識別器211が構成されてもよい。
次に、階層間統合処理部生成処理が実行される(図6のステップS603)。この処理では、図2の階層間統合処理部212の機能処理が生成される。
この階層間統合処理部212は、各グループの画像については、そのグループに対応する第1階層目識別器208の識別スコア値と第2階層目識別器210の識別スコア値に所定の倍率を乗算した値とを加算して得られる識別スコア値によって識別判定を行う。すなわち、

[総識別スコア値]=[第1階層目識別器208の識別スコア値]
+α×[第2階層目識別器210の識別スコア値]
である。例えば、

[カントウタンポポの総識別スコア値]=[タンポポグループの識別スコア値]
+α×[カントウタンポポ vs セイヨウタンポポの識別スコア値]

である。
また、階層間統合処理部212は、上述のいずれのグループにも属さない種類の画像については、その種類に対応する第1階層目識別器208の識別スコア値によって識別判定を行う。すなわち、

[総識別スコア値]=[第1階層目識別器208の識別スコア値]

である。例えば、

[ヒマワリの総識別スコア値]=[ヒマワリの識別スコア値]

である。
以上の図2に示される機能ブロック構成により、本実施形態では、酷似種が含まれる多クラスの画像分類において、過学習を避けるために、グループ単位の識別を行う第1階層目識別器208と、グループ内の識別を行う第2階層目識別器210の、2階層の識別器が実現される。この場合に、本実施形態では、グループを決定する際、第1学習手段201によって事前に、グループ化しない状態で機械学習による識別を行う種類識別器202が生成される。次に、識別誤り集計手段204によって、この種類識別器202を用いて、識別試験が行われ、カテゴリ間で識別誤りを生じた回数が集計される。そして、グルーピング処理手段206によって、機械学習が間違いやすいカテゴリ同士がグループ化される。
このようにして、本実施形態では、事前の識別誤りの集計により、酷似種を自動的に判定して仕分けを行うことが可能となり、その結果を用いて、グループ間識別、グループ内識別の2階層の識別が実行される。この結果、画像識別器において、図13で説明したような過学習を抑制し、識別性能を向上させることが可能となる。
図8は、図3のステップS301、図6のステップS601、または図6のステップS602にて、種類識別器202、グループ識別器209、またはグループ内識別器211等の識別器の生成処理を示すフローチャートである。
まず、ラベル生成処理が実行される(ステップS801)。ここでは、入力される複数種類×複数枚の学習用データ203のそれぞれに、そのデータが示す画像の種類を示す種別ラベルが付与される。
次に、特徴抽出処理が実行される(ステップS802)。この処理では、学習用データ203のそれぞれにおいて、その学習用データ203203に含まれる識別対象であるオブジェクトを示す主要被写体領域上で指定画素おきに各RGBデータが特徴情報として抽出され、その特徴情報が図1のRAM104に記憶される。
次に、クラスタリング処理が実行される(ステップS803)。この処理では、ステップS802で抽出された特徴情報が、例えばk−means法のクラスタリングアルゴリズムを用いて、複数(例えば500個)のクラスタにクラスタリングされる。
次に、ベクトル量子化処理が実行される(ステップS804)。この処理では、学習用データ203のそれぞれにおいて、次の処理が実行される。ステップS802にて主要被写体領域上で指定画素おきに取得して図1のRAM104に保存していた各特徴情報ごとに、その特徴情報とステップS803で算出された各クラスタの重心のRGBデータとの距離がそれぞれ算出される。そして、その算出された距離のうち最小の距離に対応するクラスタが最近傍クラスタとして抽出され、その抽出した最近傍クラスタの重心データがその特徴情報のベクトル量子化値とされる。そのベクトル量子化値は、図1のRAM104に記憶される。
次に、ヒストグラム処理が実行される(ステップS805)。この処理では、学習用データ203のそれぞれにおいて、ステップS802にて主要被写体領域上で指定画素おきに取得して図1のRAM104に保存していた各ベクトル量子化値ごとに、そのベクトル量子化値に対応する最近傍クラスタのヒストグラム度数がプラス1される処理が繰り返し実行される。これにより、その学習用データ203に対応するヒストグラムが生成される。
最後に、識別器生成処理が実行される(ステップS806)。この処理では、各学習用データ203または203′に付与されている種別ラベルまたはグループラベルと各学習用データ203ごとに生成されたヒストグラムとに基づいて、識別すべき個別の種類の画像または識別すべきグループを構成する種類の画像が入力されたときに最大の識別スコア値を出力する種類識別器202、グループ識別器209、またはグループ内識別器211が生成される。
以上の識別器の生成処理において、図8のステップS801からS805までの一連の処理は、種類識別器202の生成処理において、各学習用データ203に対して1回だけ実行し、その結果を図1のRAM104に保持しておけばよい。そして、グループ識別器209またはグループ内識別器211の生成処理においては、RAM104に保持されているステップS801からS805までの実行結果を読み出して、図8のステップS806が実行されれば、高速に処理を実行することができる。
図9は、図8のステップS802の特徴抽出処理を示すフローチャートである。
この処理は、ステップS901において、学習用データ203が1枚分ずつ入力されながら、ステップS905で処理すべき学習用データ203がなくなったと判定されるまで、ステップS902からS904の一連の処理が実行される。
ステップS901で1枚分の学習用データ203が入力された後、まず、Graph Cuts法を用いた処理により、学習用データ203から主要被写体領域が抽出される(図9のステップS902)。例えば、花の画像の場合には、花の部分の領域が抽出される。具体的には、主要被写体領域は、入力された学習用データ203に対して、主要被写体らしさを示すエネルギー関数を用いるGraph Cuts法のアルゴリズムに従って、背景領域との間で分割して取得される。Graph Cuts法の具体的なアルゴリズムとしては、例えば特許文献2に記載の技術を適用することができる。
次にステップS904でRGBデータが取得されなくなったと判定されるまで、学習用データ203から指定画素おきにRGBデータを取得して、それを特徴情報として図1のRAM104に記憶する処理が実行される(図9のステップS903→S904→S903の繰返し処理)。
学習用データ203上の指定画素おきの全てのRGBデータについて処理が完了すると、次の学習用データ203があるか否かが判定される(図9のステップS905)。
ステップS905の判定がYESならば、ステップS901の処理に戻って、ステップS901からS904の一連の処理が繰り返される。
全ての学習用データ203に対する特徴抽出処理が完了してステップS905の判定がNOになると、図9のフローチャートで示される図8のステップS802の特徴抽出処理を終了する。
図10は、図8のステップS804のベクトル量子化処理を示すフローチャートである。
この処理は、ステップS1001において、学習用データ203が1枚分ずつ指定されながら、ステップS1005で指定すべき学習用データ203がなくなったと判定されるまで、ステップS1002からS1004の一連の処理が実行される。
ステップS1001で学習用データ203が指定された後、ステップS1004で図1のRAM104からその学習用データ203に対応する特徴情報が取得されなくなったと判定されるまで、ステップS1002とS1003の処理が繰り返し実行される。
まず、現在の学習用データ203に対応する指定画素おきの特徴情報が、図1のRAM104から読み出される(図10のステップS1002)。
次に、その読み出された特徴情報とステップS803で算出された各クラスタの重心のRGBデータとの距離がそれぞれ算出される。そして、その算出された距離のうち最小の距離に対応するクラスタが最近傍クラスタとして抽出され、その抽出した最近傍クラスタの重心データがその特徴情報のベクトル量子化値とされ、図1のRAM104に記憶される(図10のステップS1003)。
次に、現在の学習用データ203に対応する指定画素おきの特徴情報がまだRAM104上にあるか否かが判定される(図10のステップS1004)。
ステップS1004の判定がYESならば、ステップS1002の処理に戻って、次の特徴情報に対して、ステップS1002とS1003の処理が繰り返し実行される。
全ての特徴情報に対するベクトル量子化が完了しステップS1004の判定がNOとなると、次の学習用データ203があるか否かが判定される(図10のステップS1005)。
ステップS1005の判定がYESならば、ステップS1001の処理に戻って、ステップS1001からS1004の一連の処理が繰り返される。
全ての学習用データ203に対するベクトル量子化処理が完了してステップS1005の判定がNOになると、図10のフローチャートで示される図8のステップS804のベクトル量子化処理を終了する。
図11は、図8のステップS805のヒストグラム生成処理を示すフローチャートである。
この処理は、ステップS1101において、学習用データ203が1枚分ずつ指定されながら、ステップS1106で指定すべき学習用データ203がなくなったと判定されるまで、ステップS1102からS1105の一連の処理が実行される。
ステップS1101で学習用データ203が指定された後、ステップS1104で図1のRAM104からその学習用データ203に対応するベクトル量子化値が取得されなくなったと判定されるまで、ステップS1102とS1103の処理が繰り返し実行される。
まず、現在の学習用データ203に対応する指定画素おきのベクトル量子化値が、図1のRAM104から読み出される(図11のステップS1102)。
次に、その読み出されたそのベクトル量子化値に対応する最近傍クラスタのRAM104上に記憶されているヒストグラム度数がプラス1される(図11のステップS1103)。
次に、現在の学習用データ203に対応する指定画素おきのベクトル量子化値がまだRAM104上にあるか否かが判定される(図11のステップS1104)。
ステップS1104の判定がYESならば、ステップS1102の処理に戻って、次のベクトル量子化値に対して、ステップS1102とS1103の処理が繰り返し実行される。
全てのベクトル量子化値に対するヒストグラムカウントが完了しステップS1104の判定がNOとなると、次の処理が実行される。図1のRAM104に記憶されている全クラスタのヒストグラム度数値が、現在の学習用データ203に対応するヒストグラムセットとしてRAM104に記憶される(図11のステップS1104)。
その後、次の学習用データ203があるか否かが判定される(図11のステップS1106)。
ステップS1106の判定がYESならば、ステップS1101の処理に戻って、ステップS1101からS1105の一連の処理が繰り返される。
全ての学習用データ203に対するヒストグラム生成処理が完了してステップS1106の判定がNOになると、図11のフローチャートで示される図8のステップS805のヒストグラム生成処理を終了する。
図12は、図8のステップS806の識別器生成処理を示すフローチャートである。
まず、識別すべき個別の種類または識別すべきグループを示すカテゴリが指定される(図12のステップS1201)。
次に、現在のカテゴリに対応する1vsその他識別用のpositiveデータとnegativeデータが入力される(図12のステップS1202)。例えば、カテゴリが花の種類である場合、その種類に対応する種別ラベルが付与されている学習用データ203または203′(図2)がpositiveデータとされる。また、その種類以外の種別ラベルが付与されている学習用データ203または203′が、negativeデータとされる。また例えば、カテゴリが花の種類のグループである場合、そのグループに対応するグループラベルラベルが付与されている学習用データ203′がpositiveデータとされる。また、そのグループに含まれる種類以外の種類に対応する種別ラベルが付与されている学習用データ203′が、negativeデータとされる。
そして、各学習用データ203または203′に付与されている種別ラベルまたはグループラベルと各学習用データ203ごとに図8のステップS805にて生成されたヒストグラムとに基づいて、次の処理が実行される。識別すべき個別の種類の画像または識別すべきグループを構成する種類の画像が入力されたときに最大の識別スコア値を出力するように、種類識別器202、グループ識別器209、またはグループ内識別器211における1vsその他識別用パラメータが演算される(図12のステップS1203)。
その後、次のカテゴリ(種類またはグループ)が指定されているか否かが判定される(図12のステップS1204)。
ステップS1204の判定がYESならばステップS1201の処理に戻って、新たなカテゴリに対応する識別器の生成処理が実行される。
カテゴリがなくなってステップS1204の判定がNOになると、図12のフローチャートで示される図8のステップS806の識別器生成処理を終了する。
以上説明した実施形態において、識別の対象を花の画像として説明を行ったが、本発明はこれに限られるものではない。また、画像データから主要被写体領域を抽出する処理は、Graph Cuts法の処理に限られるものではなく、また、主要被写体領域の抽出は必ずしも必要とされるものではない。
更に、本実施形態では花に代表される画像の識別を例にとって説明したが、画像に限定されるものではなく、音声データや、所定の特徴を表すデータ群の識別に適用することができる。すなわち、機械学習で多クラス分類しようとした場合に、クラス間の分類性が悪い(オーバーラップがある)部分での、分類に応用可能である。例えば音声においても、分離性が良い箇所と、酷似している箇所を2回に分けて識別することによって、識別精度をあげることができる。
以上のようにして、本実施形態によれば、事前の識別誤りの集計により、酷似種を自動的に判定して仕分けを行うことが可能となり、その結果を用いて、グループ間識別、グループ内識別の2階層の識別が実行される。この結果、画像識別器において、過学習を抑制し、識別性能を向上させることが可能となる。
また、本実施形態によれば、識別第1候補にカントウタンポポ、第2候補にヒマワリ、第3候補にセイヨウタンポポ、と言う形で人間に違和感を与える不自然な識別を避けられる。
以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
所定の特徴を表現している特徴データの種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別器であって、
複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して前記特徴データの種類を個別に識別する種類識別器を生成する第1学習手段と、
いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの特徴データの種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計手段と、
前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用特徴データに該グループに対応するグループラベルを付与するグルーピング処理手段と、
前記グループラベルを付与したものを含む前記学習用特徴データを入力して前記特徴データのグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用特徴データを入力して該グループに属する前記所定数の種類の特徴データを個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習手段と、
を備えることを特徴とする多クラス識別器。
(付記2)
画像の種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別器であって、
複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して該データの画像の種類を個別に識別する種類識別器を生成する第1学習手段と、
いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの画像の種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計手段と、
前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理手段と、
前記グループラベルを付与したものを含む前記学習用データを入力して該データの画像のグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の画像を個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習手段と、
を備えることを特徴とする多クラス識別器。
(付記3)
前記識別誤り集計手段において、
前記試験用データの種類の識別結果を該データの種別ラベルごとに積算する行列データであって、縦軸の各行に入力された前記試験用データの種別ラベルを割り当て、横軸の各列に識別された前記試験用データの種別ラベルを割り当て、前記各行と前記各列が交差する各要素位置に、該要素位置に対応する行に割り当てられた入力の種別ラベルを該要素位置に対応する列に割り当てられた出力の種別ラベルとして識別した回数を積算したデータを記憶させた混合行列データを生成する混合行列生成処理と、
前記混合行列データにおいて、主対角線上の要素位置以外の要素位置の各対角成分同士のデータをそれぞれ加算した各加算結果として、前記複数種類中の任意の2種類の組合せごとに該組合せに属する2種類間で相互に識別を誤った回数を集計する集計処理と、
を実行することを特徴とする付記1または2のいずれかに記載の多クラス識別器。
(付記4)
前記種類識別器、前記グループ識別器、または前記グループ内識別器の生成において、
前記学習用データのそれぞれにおいて、該学習用データに含まれる識別対象であるオブジェクトを示す主要被写体領域上で指定画素おきにRGBデータを取得してそれぞれ特徴情報として抽出する特徴抽出処理と、
前記各特徴情報を複数のクラスタにクラスタリングするクラスタイング処理と、
前記学習用データのそれぞれにおいて、前記主要被写体領域上で指定画素おきに取得した前記各特徴情報ごとに、該特徴情報と前記各クラスタの重心のRGBデータとの距離をそれぞれ算出し、該算出した距離のうち最小の距離に対応するクラスタを最近傍クラスタとして抽出し、該抽出した最近傍クラスタの重心データを該特徴情報のベクトル量子化値とするベクトル量子化処理と、
前記学習用データのそれぞれにおいて、前記主要被写体領域上で指定画素おきに取得した前記各ベクトル量子化値ごとに、該ベクトル量子化値に対応する前記最近傍クラスタのヒストグラム度数をプラス1する処理を繰り返し実行して、該学習用データに対応するヒストグラムを生成するヒストグラム生成処理と、
前記各学習用データに付与されている種別ラベルまたはグループラベルと前記各学習用データごとに生成されたヒストグラムとに基づいて、識別すべき個別の種類の画像または識別すべきグループを構成する種類の画像が入力されたときに最大の識別スコア値を出力する前記種類識別器、前記グループ識別器、または前記グループ内識別器を生成する識別器生成処理と、
を実行することを特徴とする付記2に記載の多クラス識別器。
(付記5)
前記主要被写体領域は、入力された画像データに対して、主要被写体らしさを示すエネルギー関数を用いるGraph Cuts法のアルゴリズムに従って、背景領域との間で分割して取得される、
ことを特徴とする付記4に記載の多クラス識別器。
(付記6)
前記第2学習手段は、前記各グループを、該グループに対応する前記第1階層目識別器の識別スコア値と前記第2階層目識別器の識別スコア値に所定の倍率を乗算した値とを加算して得られる識別スコア値によって識別判定し、いずれの前記グループにも属さない種類を、該種類に対応する前記第1階層目識別器の識別スコア値によって識別判定する階層間統合処理部をさらに生成する、
ことを特徴とする付記1ないし5のいずれかに記載の多クラス識別器。
(付記7)
所定の特徴を表現している特徴データの種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別方法であって、
複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して前記特徴データの種類を個別に識別する種類識別器を生成する第1学習ステップと、
いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの特徴データの種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用特徴データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
前記グループラベルを付与したものを含む前記学習用特徴データを入力して前記特徴データのグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用特徴データを入力して該グループに属する前記所定数の種類の特徴データを個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習ステップと、
を備えることを特徴とする多クラス識別方法。
(付記8)
画像の種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別方法であって、
複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して該データの画像の種類を個別に識別する種類識別器を生成する第1回目機械学習ステップと、
いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの画像の種類を個別に識別し、前記複数種類中の任意の前記所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
前記グループラベルを付与したものを含む前記学習用データを入力して該データの画像のグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の画像を個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2回目機械学習ステップと、
を備えることを特徴とする多クラス識別方法。
(付記9)
所定の特徴を表現している特徴データの種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別処理を実行するコンピュータに、
複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して前記特徴データの種類を個別に識別する種類識別器を生成する第1学習ステップと、
いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの特徴データの種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用特徴データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
前記グループラベルを付与したものを含む前記学習用特徴データを入力して前記特徴データのグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用特徴データを入力して該グループに属する前記所定数の種類の特徴データを個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習ステップと、
を実行させるためのプログラム。
(付記10)
画像の種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別処理を実行するコンピュータに、
複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して該データの画像の種類を個別に識別する種類識別器を生成する第1回目機械学習ステップと、
いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの画像の種類を個別に識別し、前記複数種類中の任意の前記所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
前記グループラベルを付与したものを含む前記学習用データを入力して該データの画像のグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の画像を個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2回目機械学習ステップと、
を実行させるためのプログラム。
101 画像識別器生成装置
102 CPU
103 ROM
104 RAM
105 外部記憶装置
106 通信インタフェース
107 入力装置
108 出力装置
109 可搬記録媒体駆動装置
110 可搬記録媒体
111 バス
201 第1学習手段
202 種類識別器
203 学習用データ
204 識別誤り集計手段
205 試験用データ
206 グルーピング処理手段
207 第2学習手段
208 第1階層目識別器
209 グループ識別器
210 第2階層目識別器
211 グループ内識別器
212 階層間統合処理部
501 グループ化対象
701 入力画像データから抽出された特徴情報
1301 positiveデータ群
1302 negativeデータ群
1303 識別境界

Claims (10)

  1. 所定の特徴を表現している特徴データの種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別器であって、
    複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して前記特徴データの種類を個別に識別する種類識別器を生成する第1学習手段と、
    いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの特徴データの種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計手段と、
    前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理手段と、
    前記グループラベルを付与したものを含む前記学習用データを入力して前記特徴データのグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の特徴データを個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習手段と、
    を備えることを特徴とする多クラス識別器。
  2. 画像の種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別器であって、
    複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して該データの画像の種類を個別に識別する種類識別器を生成する第1学習手段と、
    いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの画像の種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計手段と、
    前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理手段と、
    前記グループラベルを付与したものを含む前記学習用データを入力して該データの画像のグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の画像を個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習手段と、
    を備えることを特徴とする多クラス識別器。
  3. 前記識別誤り集計手段において、
    前記試験用データの種類の識別結果を該データの種別ラベルごとに積算する行列データであって、縦軸の各行に入力された前記試験用データの種別ラベルを割り当て、横軸の各列に識別された前記試験用データの種別ラベルを割り当て、前記各行と前記各列が交差する各要素位置に、該要素位置に対応する行に割り当てられた入力の種別ラベルを該要素位置に対応する列に割り当てられた出力の種別ラベルとして識別した回数を積算したデータを記憶させた混合行列データを生成する混合行列生成処理と、
    前記混合行列データにおいて、主対角線上の要素位置以外の要素位置の各対角成分同士のデータをそれぞれ加算した各加算結果として、前記複数種類中の任意の2種類の組合せごとに該組合せに属する2種類間で相互に識別を誤った回数を集計する集計処理と、
    を実行することを特徴とする請求項1または2のいずれかに記載の多クラス識別器。
  4. 前記種類識別器、前記グループ識別器、または前記グループ内識別器の生成において、
    前記学習用データのそれぞれにおいて、該学習用データに含まれる識別対象であるオブジェクトを示す主要被写体領域上で指定画素おきにRGBデータを取得してそれぞれ特徴情報として抽出する特徴抽出処理と、
    前記各特徴情報を複数のクラスタにクラスタリングするクラスタイング処理と、
    前記学習用データのそれぞれにおいて、前記主要被写体領域上で指定画素おきに取得した前記各特徴情報ごとに、該特徴情報と前記各クラスタの重心のRGBデータとの距離をそれぞれ算出し、該算出した距離のうち最小の距離に対応するクラスタを最近傍クラスタとして抽出し、該抽出した最近傍クラスタの重心データを該特徴情報のベクトル量子化値とするベクトル量子化処理と、
    前記学習用データのそれぞれにおいて、前記主要被写体領域上で指定画素おきに取得した前記各ベクトル量子化値ごとに、該ベクトル量子化値に対応する前記最近傍クラスタのヒストグラム度数をプラス1する処理を繰り返し実行して、該学習用データに対応するヒストグラムを生成するヒストグラム生成処理と、
    前記各学習用データに付与されている種別ラベルまたはグループラベルと前記各学習用データごとに生成されたヒストグラムとに基づいて、識別すべき個別の種類の画像または識別すべきグループを構成する種類の画像が入力されたときに最大の識別スコア値を出力する前記種類識別器、前記グループ識別器、または前記グループ内識別器を生成する識別器生成処理と、
    を実行することを特徴とする請求項2に記載の多クラス識別器。
  5. 前記主要被写体領域は、入力された画像データに対して、主要被写体らしさを示すエネルギー関数を用いるGraph Cuts法のアルゴリズムに従って、背景領域との間で分割して取得される、
    ことを特徴とする請求項4に記載の多クラス識別器。
  6. 前記第2学習手段は、前記各グループを、該グループに対応する前記第1階層目識別器の識別スコア値と前記第2階層目識別器の識別スコア値に所定の倍率を乗算した値とを加算して得られる識別スコア値によって識別判定し、いずれの前記グループにも属さない種類を、該種類に対応する前記第1階層目識別器の識別スコア値によって識別判定する階層間統合処理部をさらに生成する、
    ことを特徴とする請求項1ないし5のいずれかに記載の多クラス識別器。
  7. 所定の特徴を表現している特徴データの種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別方法であって、
    複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して前記特徴データの種類を個別に識別する種類識別器を生成する第1学習ステップと、
    いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの特徴データの種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
    前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
    前記グループラベルを付与したものを含む前記学習用データを入力して前記特徴データのグループを識別するグループ識別器を生成し、前記グループに属さない種類を別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の特徴データを個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習ステップと、
    を備えることを特徴とする多クラス識別方法。
  8. 画像の種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別方法であって、
    複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して該データの画像の種類を個別に識別する種類識別器を生成する第1回目機械学習ステップと、
    いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの画像の種類を個別に識別し、前記複数種類中の任意の前記所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
    前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
    前記グループラベルを付与したものを含む前記学習用データを入力して該データの画像のグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の画像を個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2回目機械学習ステップと、
    を備えることを特徴とする多クラス識別方法。
  9. 所定の特徴を表現している特徴データの種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別処理を実行するコンピュータに、
    複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して前記特徴データの種類を個別に識別する種類識別器を生成する第1学習ステップと、
    いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの特徴データの種類を個別に識別し、前記複数種類中の任意の所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
    前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
    前記グループラベルを付与したものを含む前記学習用データを入力して前記特徴データのグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の特徴データを個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2学習ステップと、
    を実行させるためのプログラム。
  10. 画像の種類を第1階層目識別器で識別し特定の種類のグループは第2階層目識別器でさらに詳細に識別する多クラス識別処理を実行するコンピュータに、
    複数種類中のいずれかに対応する種別ラベルを付与した学習用データを入力して該データの画像の種類を個別に識別する種類識別器を生成する第1回目機械学習ステップと、
    いずれかの前記種別ラベルを付与した試験用データを前記種類識別器に入力して該データの画像の種類を個別に識別し、前記複数種類中の任意の前記所定数の種類の組合せごとに該組合せに属する前記所定数の種類間で相互に識別を誤った回数を集計する識別誤り集計ステップと、
    前記集計の結果が所定の閾値以上となる組合せのグループごとに、該グループに属する前記所定数の種類のいずれかに対応する種別ラベルを有する前記学習用データに該グループに対応するグループラベルを付与するグルーピング処理ステップと、
    前記グループラベルを付与したものを含む前記学習用データを入力して該データの画像のグループを識別するグループ識別器を生成し、前記グループに属さない種類を個別に識別する前記種類識別器と合わせて前記第1階層目識別器を構成すると共に、前記グループごとに、前記学習用データを入力して該グループに属する前記所定数の種類の画像を個別に識別するグループ内識別器を生成して前記第2階層目識別器を構成する第2回目機械学習ステップと、
    を実行させるためのプログラム。
JP2012125408A 2012-05-31 2012-05-31 多クラス識別器、方法、およびプログラム Active JP5660078B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012125408A JP5660078B2 (ja) 2012-05-31 2012-05-31 多クラス識別器、方法、およびプログラム
US13/904,911 US9098775B2 (en) 2012-05-31 2013-05-29 Multi-class identifier, method, and computer-readable recording medium
CN201310213817.2A CN103455542B (zh) 2012-05-31 2013-05-31 多类识别器以及多类识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125408A JP5660078B2 (ja) 2012-05-31 2012-05-31 多クラス識別器、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2013250809A JP2013250809A (ja) 2013-12-12
JP5660078B2 true JP5660078B2 (ja) 2015-01-28

Family

ID=49670320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125408A Active JP5660078B2 (ja) 2012-05-31 2012-05-31 多クラス識別器、方法、およびプログラム

Country Status (3)

Country Link
US (1) US9098775B2 (ja)
JP (1) JP5660078B2 (ja)
CN (1) CN103455542B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5765583B2 (ja) * 2012-10-26 2015-08-19 カシオ計算機株式会社 多クラス識別器、多クラス識別方法、及びプログラム
JP6279964B2 (ja) * 2014-04-15 2018-02-14 Kddi株式会社 多クラス識別器構築装置、方法及びプログラム
JP6582416B2 (ja) 2014-05-15 2019-10-02 株式会社リコー 画像処理装置、画像処理方法及びプログラム
JP6448325B2 (ja) * 2014-11-19 2019-01-09 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN104468273A (zh) * 2014-12-12 2015-03-25 北京百度网讯科技有限公司 识别流量数据的应用类型的方法及系统
AU2015203570A1 (en) * 2015-06-26 2017-01-19 Canon Kabushiki Kaisha Method, system and apparatus for segmenting an image set to generate a plurality of event clusters
JP6770709B2 (ja) * 2016-09-08 2020-10-21 富士ゼロックス株式会社 機械学習用モデル生成装置及びプログラム。
KR20180056174A (ko) * 2016-11-18 2018-05-28 삼성전자주식회사 콘텐츠 처리 방법 및 이를 지원하는 전자 장치
JP6725452B2 (ja) * 2017-05-26 2020-07-22 日本電信電話株式会社 分類装置、分類方法および分類プログラム
JP7142420B2 (ja) * 2017-07-10 2022-09-27 キヤノン株式会社 画像処理装置、学習方法、学習済モデル、画像処理方法
CN107688823B (zh) * 2017-07-20 2018-12-04 北京三快在线科技有限公司 一种图像特征获取方法及装置,电子设备
WO2020054028A1 (ja) * 2018-09-13 2020-03-19 株式会社島津製作所 データ解析装置
KR102545105B1 (ko) * 2018-10-10 2023-06-19 현대자동차주식회사 차량용 허위 타겟 판별 장치 및 그의 허위 타겟 판별 방법과 그를 포함하는 차량
JP7075056B2 (ja) * 2018-12-27 2022-05-25 オムロン株式会社 画像判定装置、画像判定方法及び画像判定プログラム
TWI716926B (zh) * 2019-07-05 2021-01-21 所羅門股份有限公司 物件姿態辨識方法及系統與電腦程式產品
CN110385282B (zh) * 2019-07-10 2020-06-16 浙江大学 机械装配中基于深度学习的多余物视觉检测系统与方法
CN110458107B (zh) * 2019-08-13 2023-06-16 北京百度网讯科技有限公司 用于图像识别的方法和装置
CN110781957B (zh) * 2019-10-24 2023-05-30 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
WO2021090484A1 (ja) * 2019-11-08 2021-05-14 日本電気株式会社 学習装置、情報統合システム、学習方法、及び、記録媒体
CN112232524B (zh) * 2020-12-14 2021-06-29 北京沃东天骏信息技术有限公司 多标签信息的识别方法、装置、电子设备和可读存储介质
JP7148689B1 (ja) * 2021-06-09 2022-10-05 京セラ株式会社 認識器学習装置、認識装置、電子機器、及び学習方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314090A (ja) * 1992-05-14 1993-11-26 Hitachi Ltd ニューラルネットを用いたパターン認識方法およびその装置
JPH06259565A (ja) * 1993-03-10 1994-09-16 N T T Data Tsushin Kk パタ−ン認識辞書作成システム
JPH11296496A (ja) * 1998-04-09 1999-10-29 Hitachi Ltd パターン認識装置
JP3918143B2 (ja) 2000-12-28 2007-05-23 独立行政法人科学技術振興機構 植物認識システム
US6915011B2 (en) 2001-03-28 2005-07-05 Eastman Kodak Company Event clustering of images using foreground/background segmentation
US7362919B2 (en) * 2002-12-12 2008-04-22 Eastman Kodak Company Method for generating customized photo album pages and prints based on people and gender profiles
JP2005267607A (ja) 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd デジタル図鑑システム、図鑑検索方法、及び図鑑検索プログラム
JP4631005B2 (ja) 2005-07-15 2011-02-16 公立大学法人大阪府立大学 付加情報を用いたパターン認識に係るプログラム、装置および方法
CN101221623B (zh) * 2008-01-30 2011-11-23 北京中星微电子有限公司 一种物体类型的在线训练和识别方法及其系统
US9639780B2 (en) * 2008-12-22 2017-05-02 Excalibur Ip, Llc System and method for improved classification
US20100260255A1 (en) * 2009-04-13 2010-10-14 Krishna Sannidhi Method and system for clustered fallback for frame rate up-conversion (fruc) for digital televisions
JP5564643B2 (ja) * 2009-06-12 2014-07-30 博 石川 情報処理方法および情報処理装置
JP2011035636A (ja) 2009-07-31 2011-02-17 Casio Computer Co Ltd 画像処理装置及び方法
CN102147851B (zh) * 2010-02-08 2014-06-04 株式会社理光 多角度特定物体判断设备及多角度特定物体判断方法
JP5510924B2 (ja) * 2010-02-22 2014-06-04 株式会社ブレイン パンの識別装置とそのプログラム
CN102043963A (zh) * 2010-12-06 2011-05-04 河海大学 一种图像人数识别统计方法
CN102324038B (zh) * 2011-09-06 2014-04-16 北京林业大学 一种基于数字图像的植物种类识别方法

Also Published As

Publication number Publication date
US20130322743A1 (en) 2013-12-05
JP2013250809A (ja) 2013-12-12
US9098775B2 (en) 2015-08-04
CN103455542A (zh) 2013-12-18
CN103455542B (zh) 2016-07-27

Similar Documents

Publication Publication Date Title
JP5660078B2 (ja) 多クラス識別器、方法、およびプログラム
Shen et al. Deepcontour: A deep convolutional feature learned by positive-sharing loss for contour detection
US9779354B2 (en) Learning method and recording medium
Zhao et al. Learning mid-level filters for person re-identification
WO2019163985A1 (ja) 特徴表現装置、特徴表現方法、およびプログラム
JP6378855B1 (ja) 画像検索システム、画像検索方法およびプログラム
WO2018183221A1 (en) Machine-vision method to classify input data based on object components
JP2006343791A (ja) 顔画像データベース作成方法
Zhang et al. Automatic discrimination of text and non-text natural images
WO2015146113A1 (ja) 識別辞書学習システム、識別辞書学習方法および記録媒体
Russakovsky et al. A steiner tree approach to efficient object detection
CN110008899A (zh) 一种可见光遥感图像候选目标提取与分类方法
Bharath et al. Scalable scene understanding using saliency-guided object localization
Gupta et al. Visual semantic-based representation learning using deep CNNs for scene recognition
CN113536020B (zh) 数据查询的方法、存储介质和计算机程序产品
JP2014115920A (ja) 多クラス識別器、方法、及びプログラム
JP5765583B2 (ja) 多クラス識別器、多クラス識別方法、及びプログラム
JP5892275B2 (ja) 多クラス識別器生成装置、データ識別装置、多クラス識別器生成方法、データ識別方法、及びプログラム
JP2014010633A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
KR102005952B1 (ko) 기계학습 모델링에서 잡음 데이터 제거를 위한 데이터 정제 장치 및 방법
Das et al. An ensemble method of feature selection and classification of Odia characters
CN115050044B (zh) 一种基于MLP-Mixer的跨模态行人重识别方法
Ko et al. View-independent object detection using shared local features
JP2011248680A (ja) 画像処理システム
JP2017084006A (ja) 画像処理装置およびその方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R150 Certificate of patent or registration of utility model

Ref document number: 5660078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150