JP5214762B2 - 認識装置、方法及びプログラム - Google Patents

認識装置、方法及びプログラム Download PDF

Info

Publication number
JP5214762B2
JP5214762B2 JP2011067398A JP2011067398A JP5214762B2 JP 5214762 B2 JP5214762 B2 JP 5214762B2 JP 2011067398 A JP2011067398 A JP 2011067398A JP 2011067398 A JP2011067398 A JP 2011067398A JP 5214762 B2 JP5214762 B2 JP 5214762B2
Authority
JP
Japan
Prior art keywords
unit
recognition
category
learning
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011067398A
Other languages
English (en)
Other versions
JP2012203634A (ja
Inventor
友弘 中居
敏充 金子
進 窪田
聡 伊藤
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011067398A priority Critical patent/JP5214762B2/ja
Priority to US13/420,833 priority patent/US9002101B2/en
Publication of JP2012203634A publication Critical patent/JP2012203634A/ja
Application granted granted Critical
Publication of JP5214762B2 publication Critical patent/JP5214762B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Description

本発明の実施形態は、認識装置、方法及びプログラムに関する。
物体(パターン)認識において、複数の学習サンプルを有する学習データの計量空間を学習するとともに、次元を削減する手法がある。この手法では、異なるカテゴリに属する学習サンプルの距離が大きくなるように変換する線形変換行列を算出(学習)し、算出した線形変換行列を学習データに適用する。認識の際には、認識対象の物体を含む画像などのデータに算出した線形変換行列を適用して認識対象の物体を認識する。
Tomoyuki Shibata, Susumu Kubota, Satoshi Ito, "Large Margin Discriminant Hashing for Fast K−Nearest Neighbor Classification," International Conference on Pattern Recognition 2010 (ICPR 2010), 2010.
しかしながら、上述したような従来技術では、認識対象の物体に関するデータが学習サンプルの分布と異なる場合に認識精度が得られず、学習時の計算量も大きい。このため、物体認識の認識基準となるデータや学習サンプルが逐次的に追加される認識装置への適用が困難である。
実施形態の認識装置は、生成部と、第1受付部と、抽出部と、変換部と、計算部と、出力制御部と、第2受付部と、登録部とを、備える。生成部は、各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する学習サンプル記憶部から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行い、選択した複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する生成処理を行う。第1受付部は、認識対象の物体を含む画像の入力を受け付ける。抽出部は、画像の画像特徴を示す第1特徴量を抽出する。変換部は、評価基準を用いて第1特徴量を第2特徴量に変換する。計算部は、認識テーブル記憶部から認識基準となる複数の基準特徴量それぞれとカテゴリとを対応付けた認識テーブルを参照し、第2特徴量と複数の基準特徴量それぞれとを用いて、認識テーブル内のカテゴリに対する物体の類似度を計算する。出力制御部は、認識テーブル内のカテゴリに対する物体の類似度を認識結果として出力部に出力させる。第2受付部は、物体のカテゴリの入力を受け付ける。登録部は、第2特徴量を基準特徴量として物体のカテゴリに対応付けて認識テーブルに登録するとともに、第1特徴量を物体のカテゴリに属する学習サンプルとして学習サンプル記憶部に登録する。生成部は、所定の条件が成立すると生成処理を再度行う。
本実施形態の認識装置の構成例を示すブロック図。 本実施形態の評価基準の生成手法例を示す説明図。 本実施形態の認識特徴量の計算手法例の説明図。 本実施形態の認識テーブルの例を示す図。 本実施形態の認識結果の出力画面例を示す図。 本実施形態の認識結果の出力画面例を示す図。 本実施形態の確定画面例を示す図。 本実施形態の登録画面例を示す図。 本実施形態の追加学習後の認識テーブルの例を示す図。 本実施形態の再生成条件設定画面例を示す図。 本実施形態の認識処理例を示すフローチャート図。 本実施形態の評価基準生成処理例を示すフローチャート図。 本実施形態の認識装置のハードウェア構成例を示すブロック図。
図1は、本実施形態の認識装置100の構成の一例を示すブロック図である。図1に示すように、認識装置100は、学習サンプル記憶部102と、生成部104と、評価基準記憶部108と、画像入力部110と、第1受付部112と、抽出部114と、変換部116と、認識テーブル記憶部118と、計算部120と、出力制御部122と、出力部124と、操作入力部126と、第2受付部128と、登録部130と、判定部132とを、備える。
なお、学習サンプル記憶部102、評価基準記憶部108、及び認識テーブル記憶部118は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びメモリカードなどの磁気的、光学的、又は電気的に記憶可能な既存の記憶装置の少なくともいずれかにより実現できる。また、生成部104、第1受付部112、抽出部114、変換部116、計算部120、出力制御部122、第2受付部128、登録部130、及び判定部132は、例えば、CPU(Central Processing Unit)などの既存の制御装置により実現できる。また、画像入力部110は、例えば、デジタルカメラなどの撮像機器や撮影済みの画像を読み込んで入力する画像入力インタフェースなどにより実現できる。また、出力部124は、例えば、液晶ディスプレイなどの既存の表示装置により実現できる。また、操作入力部126は、例えば、マウス、キーボード、及びタッチパネルなどの既存の入力装置の少なくともいずれかにより実現できる。
学習サンプル記憶部102は、各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する。本実施形態では、学習サンプルが画像の画像特徴を表現する特徴ベクトルと当該特徴ベクトル(学習サンプル)が属するカテゴリを示すカテゴリ情報とを含むものとするが、これに限定されるものではない。
本実施形態では、学習サンプル記憶部102は、M個(M≧2)の学習サンプルを記憶する。また、学習サンプルの属するカテゴリの数をT(T≧2)とし、カテゴリh(1≦h≦T)に属する学習サンプルの数をMとする。従って、M=M+…+Mとなる。ここで、カテゴリは、物体を識別する際の(物体を分類する)種類を表す。つまり、M個の学習サンプルの中に種類αの物体の学習サンプルと種類βの物体の学習サンプルと種類γの物体の学習サンプルとの計3種類の物体の学習サンプルが含まれていれば、T=3となる。
生成部104は、学習サンプル記憶部102から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行い、選択した複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する生成処理を行う。また生成部104は、所定の条件が成立すると生成処理を再度行う。つまり、生成部104は、評価基準を再生成(再学習)する。具体的には、生成部104は、後述の判定部132により評価基準の再生成条件を満たしていると判定された場合に、生成処理を再度行う。生成部104は、選択部105と学習部107とを含む。
選択部105は、学習サンプル記憶部102から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行う。特に選択部105は、選択する複数のグループのそれぞれに含まれる学習サンプルのカテゴリ数又はサンプル数が略同数となるように、当該複数のグループを選択する。具体的には、選択部105は、選択する複数のグループのそれぞれに含まれる学習サンプルのカテゴリ数又はサンプル数のグループ間の差が予め定められた範囲内に収まるように、当該複数のグループを選択する。なお本実施形態では、選択部105が、学習サンプル記憶部102から学習サンプルを無作為に選択(ランダムサンプリング)するものとする。これにより、選択部105により選択される複数のグループに含まれる学習サンプルのカテゴリは、選択部105の選択処理毎に異なることが期待できる。但し、学習サンプルの選択手法はこれに限定されるものではなく、選択する複数のグループに含まれる学習サンプルのカテゴリが選択処理毎に異なることが期待できれば、どのような選択基準で選択してもよい。
本実施形態では、選択部105は、学習サンプル記憶部102から、各グループが学習サンプルを1個以上含むようにK(K=2)個のグループを無作為に選択する選択処理をN(N≧2)回行う。特に選択部105は、選択処理を行う際、K個のグループのそれぞれに含まれる学習サンプルのカテゴリ数が同数となるように、K個のグループを無作為に選択する。なお、Kの値は2以上であってもよい。
このため選択部105は、学習サンプル記憶部102から学習サンプルを完全に無作為に選択するのではなく、カテゴリの学習サンプルの個数に応じて重み付けを行ってK個のグループ間の学習サンプルの個数の差を小さくするように調整したり、カテゴリの学習サンプルの個数に関わらずある一定の個数の学習サンプルを抽出するようにしたりしてもよい。なお、学習サンプルの個数を一定にする場合、選択部105は、さらに単純にカテゴリから学習サンプルを無作為に選択するようにしてもよいし、未選択の学習サンプルをカテゴリから優先的に選択するようにしてもよい。
学習部107は、選択部105により選択された複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する。本実施形態では、学習部107は、選択部105により選択されたK個のグループ毎に当該K個のグループを識別する識別器F(x)(1≦i≦N)を学習し、学習したN個の識別器を含む評価基準{F(x),F(x),…,F(x)}を生成する。
学習部107により生成された評価基準{F(x),F(x),…,F(x)}は、画像内に含まれる物体の認識に用いられる。具体的には、評価基準{F(x),F(x),…,F(x)}に含まれるN個の識別器F(x)のそれぞれが、認識対象の画像に対する評価値を出力する。評価値は、例えば、識別器が予め学習したいずれのグループに属するかを示す尤度やグループ番号などが該当する。そして、出力された複数の評価値が画像内に含まれる物体の認識特徴量として利用されることにより、物体認識に用いられる。
本実施形態では、学習部107は、サポートベクターマシンにより、K個のグループを識別する識別器F(x)を学習する。サポートベクターマシンは、2クラスのパターン識別器を構成する手法である。サンプルから、各データとの距離が最大となる分離平面を求め、ソフトマージンを最大化するという基準で学習する。但し、識別器の学習手法はこれに限定されるものではなく、既存の学習手法を用いることができる。例えば、学習部107は、ブースティングなどの学習手法を用いることができる。また例えば、選択部105により選択された3個のグループを識別する識別器を学習する場合であれば、学習部107は、k近傍識別器、ベイズ分類、又はニューラルネットワークなどの学習手法を用いることができる。
図2は、評価基準の生成手法の一例を示す説明図である。なお、図2に示す例では、S〜S(M≧11)が、学習サンプル(特徴量)を示し、T=Mであるものとする。つまり、図2に示す例では、全ての学習サンプルのカテゴリが異なるものとする。また、図2に示す例では、K=2であるものとする。つまり、図2に示す例では、選択部105は、各グループに含まれる学習サンプルのカテゴリ数が2となるように、即ち、T=Mであるため、各グループに含まれる学習サンプル数が2となるように、2個のグループを選択する。
図2に示す例では、選択部105は、1回目の選択処理で、学習サンプルS及びSを含むグループ151aと、学習サンプルS及びSを含むグループ151bとを、選択している。また、選択部105は、2回目の選択処理で、学習サンプルS及びSを含むグループ152aと、学習サンプルS10及びSを含むグループ152bとを、選択している。また、選択部105は、N回目の選択処理で、学習サンプルS及びSを含むグループ153aと、学習サンプルS及びSを含むグループ153bとを、選択している。
また、学習部107は、選択部105により1回目の選択処理で選択されたグループ151aとグループ151bとを識別する識別器F(x)を学習している。また、学習部107は、選択部105により2回目の選択処理で選択されたグループ152aとグループ152bとを識別する識別器F(x)を学習している。また、学習部107は、選択部105によりN回目の選択処理で選択されたグループ153aとグループ153bとを識別する識別器F(x)を学習している。これにより、学習部107は、学習したN個の識別器を含む識別器群{F(x),F(x),…,F(x)}を生成する。
評価基準記憶部108には、生成部104により生成された評価基準が記憶される。具体的には、生成部104(学習部107)は、生成した評価基準{F(x),F(x),…,F(x)}を評価基準記憶部108に格納する(記憶させる)。なお生成部104は、評価基準記憶部108に既に評価基準が記憶されている場合、即ち、評価基準を再学習した場合、評価基準に含まれる識別器F(x)の全てを置き換えてもよいし、一部のみを置き換えてもよい。例えば、置き換える識別器の数をL(L<N)とした場合、生成部104は、識別器F(x)〜F(x)についてのみ再学習して置き換え、識別器FL+1(x)〜F(x)については前回学習したものを保持するようにしてもよい。このようにすれば、追加学習により学習サンプルの分布に偏りが生じていてもその影響を少なくすることができる。
画像入力部110は、認識対象の物体を含む画像を入力する。第1受付部112は、画像入力部110から入力された画像を受け付ける。
抽出部114は、第1受付部112により受け付けられた画像の画像特徴を示す第1特徴量を抽出する。本実施形態では、抽出部114は、第1受付部112により受け付けられた画像から、当該画像の画像特徴を表現する特徴ベクトルを抽出する。例えば、抽出部114は、特徴ベクトルとして、輝度勾配方向の共起頻度、エッジ方向とエッジに直交する方向の色変化の共起頻度、色変化の頻度、及び色の頻度に基づくベクトルの少なくともいずれかなどを抽出する。
変換部116は、評価基準記憶部108に記憶されている評価基準を用いて、抽出部114により抽出された第1特徴量を第2特徴量に変換する。本実施形態では、変換部116は、評価基準{F(x),F(x),…,F(x)}を用いて、抽出部114により抽出された特徴ベクトルを物体認識用の認識特徴量に変換する。
本実施形態では、評価基準{F(x),F(x),…,F(x)}に含まれるそれぞれの識別器F(x)が、特徴ベクトルXに対し、数式(1)に示すように評価値sを返却するものとする。ここで、学習部107により、いずれの学習手法を用いて識別器F(x)が学習された場合であっても、識別器F(x)の出力は、識別対象のグループに属する尤度などとして表されるため、数式(1)を満たす。
(X)=s …(1)
なお本実施形態では、評価値sがスカラー量である場合を例に取り説明するが、これに限定されるものではなく、例えば、複数の要素を持つベクトルであってもよい。また、後述する内容は、評価値sがベクトルであっても同様に適用できる。例えば、学習部107により、3個以上のグループを識別する学習手法を用いて識別器F(x)が学習された場合、識別器F(x)の出力は、識別対象の各グループに帰属する尤度を要素に持つようなベクトルとなる。
図3は、認識特徴量v(X)の計算手法の一例の説明図である。変換部116は、図3に示すように、抽出部114により抽出された特徴ベクトルXを評価基準{F(x),F(x),…,F(x)}に適用して、それぞれの識別器F(x)から評価値sを取得し、取得した評価値sを用いて特徴ベクトルXを認識特徴量v(X)に変換する。本実施形態では、変換部116は、図3及び数式(2)に示すように、全ての評価値sを1つに並べることで特徴ベクトルXを認識特徴量v(X)に変換する。
v(X)=(s,s,…,s) …(2)
例えば、識別器F(x)が2つのクラスを判別し、評価値sとして0から1の実数を出力する関数であるとする。この場合、変換部116は、抽出部114により抽出された特徴ベクトルXの認識特徴量を、例えば、v(X)=(0.5,0.4,0.9,0.7,1.0,…,0.1)のように、実数の組み合わせで表現されたベクトルとして計算する。また変換部116は、抽出部114により抽出された特徴ベクトルX’(X’≠X)の認識特徴量を計算すると、例えば、v(X’)=(0.1,0.9,0.0,0.2,0.3,…,0.8)のように、やはり実数の組み合わせで表現されたベクトルとして計算するが、計算した認識特徴量は特徴ベクトルXの認識特徴量と異なるものになる。つまり、この例では、実数の組み合わせで表現されたベクトルが、画像に含まれる物体が有する固有の認識特徴量となり、物体の認識に有効な認識特徴量となる。
但し、認識特徴量の計算手法は上述の手法に限定されるものではなく、取得した評価値sをどのように用いて認識特徴量を計算しても構わない。
なお、評価値sがベクトルの場合、特徴ベクトルXの認識特徴量v(X)は、評価値sが持つ各要素を並べたものとなる。つまり、評価値sの次元数をdとすると、特徴ベクトルXの認識特徴量v(X)の次元数Dは、次元数dの総和となる(D=d+…+d)。なお、各評価値sの次元数dは、全て同じ値でもよいし、それぞれ異なっていてもよい。
認識テーブル記憶部118は、認識基準となる複数の基準特徴量それぞれとカテゴリとを対応付けた認識テーブル(辞書データベース)を記憶する。図4は、認識テーブルの一例を示す図である。図4に示す例では、カテゴリAに属するか否かの認識基準となる基準特徴量(a11,a12,…,a1N)及び基準特徴量(a21,a22,…,a2N)とカテゴリAとが対応付けられており、カテゴリBに属するか否かの認識基準となる基準特徴量(b11,b12,…,b1N)とカテゴリBとが対応付けられている。
計算部120は、認識テーブル記憶部118から認識テーブルを参照し、変換部116により変換された第2特徴量と複数の基準特徴量それぞれとを用いて、第1受付部112により受け付けられた画像に含まれる認識対象の物体の認識テーブル内のカテゴリに対する類似度を計算する。
本実施形態では、計算部120は、変換部116により変換された認識特徴量v(X)との距離が近い基準特徴量を認識テーブルからk近傍法でk個求め、求めたk個の基準特徴量が属するカテゴリの割合を、認識テーブル内のカテゴリに対する認識対象の物体の類似度とする。例えば、kを3とし、計算部120がk近傍法で求めた3個の基準特徴量のうち、カテゴリAに属するものが2個、カテゴリBに属するものが1個であったとする。この場合、計算部120は、カテゴリAの類似度を0.67(≒1/3)、カテゴリBの類似度を0.33(≒1/3)と計算し、それ以外のカテゴリの類似度を0とする。
なお、計算部120は、サポートベクターマシン、部分空間法、ニューラルネットワーク、カーネル法、ランダムフォレスト、又はブースティングなどの一般的なパターン認識手法を用いてカテゴリに対する物体の類似度を計算してもよい。
出力制御部122は、計算部120により計算された認識テーブル内のカテゴリに対する認識対象の物体の類似度を認識結果として出力部124に出力させる。本実施形態では、出力制御部122は、認識テーブル内のカテゴリを認識対象の物体との類似度の高い順に並べ替えて出力部124に出力させる。図5は、認識結果の出力画面の一例を示す図である。図5に示す例では、認識対象の物体とカテゴリ「ドーナツ」との類似度が1.000であり、それ以外のカテゴリとの類似度が0.000となっている。このため、出力制御部122は、カテゴリ「ドーナツ」を最上位に並べ替えて認識結果の出力画面を出力部124に出力させている。また、出力制御部122は、図6に示すように、画像入力部110により入力された画像に認識対象の物体が複数含まれており、計算部120により認識テーブル内のカテゴリに対する各物体の類似度が計算された場合、各物体について認識結果を出力部124に出力させる。
なお出力制御部122は、認識テーブル内のカテゴリのうち認識対象の物体との類似度が高いカテゴリを類似度が高い順に予め定められた数、出力部124に出力させるようにしてもよいし、認識テーブル内のカテゴリのうち認識対象の物体との類似度が閾値を上回るカテゴリを出力部124に出力させるようにしてもよい。
出力部124は、出力制御部122により制御され、認識結果を出力する。
操作入力部126は、認識装置100に対する各種操作入力を行う。操作入力部126は、例えば、画像入力部110により入力された画像に含まれる認識対象の物体のカテゴリを入力する。
本実施形態では、ユーザが操作入力部126を用いて図5に示す画面の確定ボタン201や図6に示す画面の確定ボタン202、203を選択すると、出力制御部122により図7に示すような確定画面(確定ダイアログ)が出力部124に出力される。図7に示す確定画面は、出力制御部122により出力された認識結果のうち認識対象の物体との類似度が最も高い認識テーブル内のカテゴリを、当該認識対象の物体のカテゴリとして確定(入力)する画面である。この場合、ユーザは、操作入力部126を用いて、図7に示す画面上で、OKボタン204を選択することにより、認識対象の物体のカテゴリを確定する。
また本実施形態では、ユーザが操作入力部126を用いて図5に示す画面の登録ボタン211や図6に示す画面の登録ボタン212を選択すると、出力制御部122により図8に示すような登録画面(登録ダイアログ)が出力部124に出力される。図8に示す登録画面は、認識対象の物体のカテゴリを新規に登録(入力)する画面である。この場合、ユーザは、操作入力部126を用いて、図8に示す画面上で、新規カテゴリの名前とコードを入力し、OKボタン213を選択することにより、認識対象の物体のカテゴリを登録する。
また操作入力部126は、例えば、評価基準の再生成(再学習)を指示する入力を行う。
第2受付部128は、操作入力部126から入力されたカテゴリや評価基準の再生成指示などの各種操作入力を受け付ける。
登録部130は、変換部116により変換された第2特徴量を基準特徴量として第2受付部128により受け付けられたカテゴリに対応付けて認識テーブルに登録する。また登録部130は、抽出部114により抽出された第1特徴量を第2受付部128により受け付けられたカテゴリに属する学習サンプルとして学習サンプル記憶部102に登録する。つまり、登録部130は、認識テーブル及び学習サンプルを追加学習する。
例えば、変換部116により変換された認識特徴量が(c11,c12,…,c1N)であり、第2受付部128により受け付けられたカテゴリがCであったとする。この場合、登録部130は、認識特徴量(c11,c12,…,c1N)を基準特徴量(c11,c12,…,c1N)としてカテゴリCに対応付けて認識テーブルに登録する。図9は、追加学習後の認識テーブルの一例を示す図である。図9に示す例では、図4に示す認識テーブルに基準特徴量(c11,c12,…,c1N)とカテゴリCとの組が追加学習されている。また登録部130は、変換部116により認識特徴量(c11,c12,…,c1N)に変換される前の特徴ベクトルとカテゴリCを示すカテゴリ情報とを含む学習サンプルを学習サンプル記憶部102に登録する。
また、第2受付部128により受け付けられたカテゴリが認識テーブルに登録済みである場合、登録部130は、変換部116により変換された第2特徴量を基準特徴量として登録済みのカテゴリに対応付けて認識テーブルに登録する。なお登録部130は、認識テーブルを追加学習する際に登録済みの基準特徴量とカテゴリの組を削除又は更新するようにしてもよいし、学習サンプルを追加学習する際に登録済みの学習サンプルを削除又は更新するようにしてもよい。
判定部132は、評価基準の再生成条件を満たしているか否かを判定する。本実施形態では、判定部132は、生成部104により評価基準が生成(学習)又は再生成(再学習)されてからの登録部130による認識テーブル及び学習サンプルの登録回数をカウントし、予め定められた回数を超えたか否かを判定する。また、判定部132は、第2受付部128により評価基準の再生成指示の入力が受け付けられたか否かを判定する。そして、判定部132により、登録部130による認識テーブル及び学習サンプルの登録回数が予め定められた回数を超えたと判定された場合、又は第2受付部128により評価基準の再生成指示の入力が受け付けられたと判定された場合に、生成部104は、評価基準の生成処理を再度行い、評価基準を再学習する。
本実施形態では、再生成条件が、評価基準の生成処理(評価基準の学習・再学習)後の登録部130による登録回数と再生成を指示する再生成指示の有無とである場合を例に取り説明したが、再生成条件はこれに限定されるものではない。例えば、評価基準の生成処理(評価基準の学習・再学習)後の経過時間、認識誤り率、基準特徴量数、基準特徴量の分散(分布)、学習サンプル数、又は学習サンプルの分散(分布)などであってもよい。
なお、再生成条件が評価基準の生成処理後の経過時間である場合、判定部132は、生成部104により評価基準が生成又は再生成されてからの経過時間を計測し、予め定められた時間を超えたか否かを判定すればよい。また、再生成条件が認識誤り率である場合、判定部132は、計算部120により計算された類似度の最も大きなカテゴリと第2受付部128により受け付けられたカテゴリとから認識誤り率を求め、予め定められた認識誤り率を超えているか否かを判定すればよい。また、再生成条件が基準特徴量数である場合、判定部132は、認識テーブル内の基準特徴量数をカウントし、予め定められた基準特徴量数を超えたか否かを判定すればよい。また、再生成条件が基準特徴量の分散である場合、判定部132は、認識テーブル内の基準特徴量の分散を計算し、予め定められた範囲内に収まるか否かを判定すればよい。また、再生成条件が学習サンプル数である場合、判定部132は、学習サンプル記憶部102に記憶されている学習サンプル数をカウントし、予め定められた学習サンプル数を超えたか否かを判定すればよい。また、再生成条件が学習サンプルの分散である場合、判定部132は、学習サンプル記憶部102に記憶されている学習サンプルの分散を計算し、予め定められた範囲内に収まるか否かを判定すればよい。
なお、評価基準の再生成条件は、図10に示すような再生成条件設定画面を用いて設定できる。例えば、出力制御部122が図10に示すような再生成条件設定画面を出力部124に出力させ、ユーザが、操作入力部126を用いて、図10に示す画面上で、再生成条件として設定する項目と当該項目の予め定められた値を入力してOKボタン221を選択し、第2受付部128が受け付ける。そして判定部132は、第2受付部128により受け付けられた再生成条件として設定された項目及び当該項目の予め定められた値に従って判定する。
図11は、本実施形態の認識装置100で行われる認識処理の手順の流れの一例を示すフローチャート図である。
まず、第1受付部112は、画像入力部110から、認識対象の物体を含む画像の入力を受け付ける(ステップS100)。
続いて、抽出部114は、第1受付部112により受け付けられた画像から、当該画像の画像特徴を表現する特徴ベクトルを抽出する(ステップS102)。
続いて、変換部116は、評価基準{F(x),F(x),…,F(x)}を用いて、抽出部114により抽出された特徴ベクトルを物体認識用の認識特徴量に変換する(ステップS104)。
続いて、計算部120は、複数の基準特徴量それぞれとカテゴリとを対応付けた認識テーブルを参照し、変換部116により変換された認識特徴量と複数の基準特徴量それぞれとを用いて、認識対象の物体の認識テーブル内のカテゴリに対する類似度を計算する(ステップS106)。
続いて、出力制御部122は、計算部120により計算された認識テーブル内のカテゴリに対する物体の類似度を認識結果として出力部124に出力させる(ステップS108)。
続いて、第2受付部128は、操作入力部126から、認識対象の物体のカテゴリの入力を受け付ける(ステップS110)。
続いて、登録部130は、変換部116により変換された認識特徴量を基準特徴量とし、第2受付部128により受け付けられたカテゴリに対応付けて認識テーブルに登録する(ステップS112)。
続いて、登録部130は、抽出部114により抽出された特徴ベクトルを第2受付部128により受け付けられたカテゴリに属する学習サンプルとして学習サンプル記憶部102に登録する(ステップS114)。
図12は、本実施形態の認識装置100で行われる評価基準生成処理の手順の流れの一例を示すフローチャート図である。
まず、判定部132は、評価基準の再生成条件を満たしているか否かを判定する(ステップS200)。
判定部132により評価基準の再生成条件を満たしていると判定された場合(ステップS200でYes)、選択部105は、学習サンプル記憶部102から、それぞれ学習サンプルを1つ以上含む2つのグループを選択する(ステップS202)。この際、選択部105は、選択する2つのグループのそれぞれに含まれる学習サンプルのカテゴリ数のグループ間の差が予め定められた範囲内に収まるように、当該2つのグループを選択する。なお、判定部132により評価基準の再生成条件を満たしていないと判定された場合(ステップS200でNo)、処理は終了となる。
続いて、学習部107は、選択部105により選択された2つのグループを識別する識別器を学習する(ステップS204)。
続いて、選択部105は、例えば、選択がN回行われていない場合には、選択を続行すると判定し(ステップS206でYes)、ステップS202に戻り、選択がN回行われている場合には、選択を続行しないと判定し(ステップS206でNo)、ステップS208へ進む。
続いて、学習部107は、ステップS204で学習した複数の識別器を含む評価基準を生成し、評価基準記憶部108に格納する(ステップS208)。
図13は、本実施形態の認識装置100のハードウェア構成の一例を示すブロック図である。図13に示すように、本実施形態の認識装置100は、CPU902と、評価基準を生成したり画像データに含まれる物体を認識したりするための認識プログラム(学習プログラム)などを記憶するROM904と、RAM906と、学習サンプル、評価基準、及び認識テーブルなどを記憶するHDD908と、HDD908とのインタフェースであるI/F910と、デジタルカメラなどの撮像装置912と、画像入力用のインタフェースであるI/F913と、マウスやキーボードなどの入力装置914と、入力装置914とのインタフェースであるI/F916と、ディスプレイなどの表示装置918と、表示装置918とのインタフェースであるI/F920と、バス922とを、備えており、通常のコンピュータを利用したハードウェア構成となっている。なおCPU902、ROM904、RAM906、I/F910、I/F913、I/F916、及びI/F920は、バス922を介して互いに接続されている。
本実施形態の認識装置100では、CPU902が、ROM904から認識プログラムをRAM906上に読み出して実行することにより、上記各部がコンピュータ上で実現される。そして本実施形態の認識装置100では、CPU902が、HDD908に記憶されている学習サンプルを用いて、評価基準を生成してHDD908に記憶し、HDD908に記憶されている評価基準や認識テーブルなどを用いて、I/F913から入力される画像に含まれる物体を認識する。
なお、認識プログラムはHDD908に記憶されていてもよい。また、認識プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、認識プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、認識プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、認識対象の物体を含む画像をHDD908に記憶しておき、I/F910から画像を入力するようにしてもよい。
以上のように、本実施形態の認識装置では、複数のグループ毎に、当該複数のグループを識別する識別器、即ち各グループに含まれる学習サンプルのカテゴリ又はカテゴリの組み合わせをグループ間で識別する識別器を学習して、評価基準を生成する。従って、生成される評価基準は、特定のカテゴリの認識のみに有効なものではなく、汎用性が高い。そして本実施形態の認識装置では、このような汎用性の高い評価基準を用いて認識対象の物体の認識特徴量を求めるので、認識対象の物体を含む画像データの特徴ベクトルが学習サンプルの分布から離れていても、認識精度に優れた特徴量となる。
ここで、認識対象の物体を認識し、認識テーブル及び学習サンプルを更新する追加学習型の認識装置では、評価基準の汎用性が低いと追加学習に伴う認識性能の低下が大きくなる。このため、評価基準の汎用性が低い場合、認識性能の低下を避けるため、高頻度での評価基準の再学習が必要となるが、評価基準の再学習に伴う処理負荷は非常に大きく時間を要するため、追加学習型の物体認識の処理効率が悪くなる。
これに対し、本実施形態の認識装置のように、評価基準の汎用性が高いと、追加学習に伴う認識性能の低下が少ないので、追加学習に伴う評価基準の再学習の頻度を減らすことができ、追加学習型の物体認識を効率的に行うことができる。従って本実施形態の認識装置によれば、追加学習型の物体認識を効率的に行いつつ、認識精度を高く保つことがきる。
以上説明したとおり、本実施形態によれば、認識精度と認識効率を両立することができる。
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、上記各実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
また例えば、上記実施形態では、認識装置が学習(生成)処理と認識処理の両処理を行う例について説明したが、学習処理、認識処理を、別々の装置で行うようにしてもよい。例えば、学習処理、認識処理を、それぞれ学習装置、認識装置が行うようにしてもよい。この場合、学習装置で生成した評価基準を認識装置に格納しておけばよい。
100 認識装置
102 学習サンプル記憶部
104 生成部
105 選択部
107 学習部
108 評価基準記憶部
110 画像入力部
112 第1受付部
114 抽出部
116 変換部
118 認識テーブル記憶部
120 計算部
122 出力制御部
124 出力部
126 操作入力部
128 第2受付部
130 登録部
132 判定部
902 CPU
904 ROM
906 RAM
908 HDD
910 I/F
912 撮像装置
913 I/F
914 入力装置
916 I/F
918 表示装置
920 I/F
922 バス

Claims (7)

  1. 各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する学習サンプル記憶部から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行い、選択した複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する生成処理を行う生成部と、
    認識対象の物体を含む画像の入力を受け付ける第1受付部と、
    前記画像の画像特徴を示す第1特徴量を抽出する抽出部と、
    前記評価基準を用いて前記第1特徴量を第2特徴量に変換する変換部と、
    認識テーブル記憶部から認識基準となる複数の基準特徴量それぞれとカテゴリとを対応付けた認識テーブルを参照し、前記第2特徴量と前記複数の基準特徴量それぞれとを用いて、前記認識テーブル内のカテゴリに対する前記物体の類似度を計算する計算部と、
    前記認識テーブル内のカテゴリに対する前記物体の類似度を認識結果として出力部に出力させる出力制御部と、
    前記物体のカテゴリの入力を受け付ける第2受付部と、
    前記第2特徴量を前記基準特徴量として前記物体のカテゴリに対応付けて前記認識テーブルに登録するとともに、前記第1特徴量を前記物体のカテゴリに属する学習サンプルとして前記学習サンプル記憶部に登録する登録部と、
    を備え、
    前記生成部は、所定の条件が成立すると前記生成処理を再度行うことを特徴とする認識装置。
  2. 前記評価基準の再生成条件を満たしているか否かを判定する判定部を更に備え、
    前記生成部は、前記評価基準の再生成条件を満たしていると判定された場合、前記生成処理を再度行うことを特徴とする請求項1に記載の認識装置。
  3. 前記再生成条件は、前記登録部による登録回数、前記生成処理後の経過時間、認識誤り率、基準特徴量数、基準特徴量の分散、学習サンプル数、学習サンプルの分散、及び再生成を指示する再生成指示の有無の少なくともいずれかであることを特徴とする請求項2に記載の認識装置。
  4. 前記第1特徴量は、輝度勾配方向の共起頻度、エッジ方向とエッジに直交する方向の色変化の共起頻度、色変化の頻度、及び色の頻度を用いたベクトルの少なくともいずれかであることを特徴とする請求項1〜3のいずれか1つに記載の認識装置。
  5. 前記計算部は、k近傍法を用いて、前記認識テーブル内のカテゴリに対する前記物体の類似度を計算することを特徴とする請求項1〜4のいずれか1つに記載の認識装置。
  6. 生成部が、各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する学習サンプル記憶部から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行い、選択した複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する生成処理を行う第1生成ステップと、
    第1受付部が、認識対象の物体を含む画像の入力を受け付ける第1受付ステップと、
    抽出部が、前記画像の画像特徴を示す第1特徴量を抽出する抽出ステップと、
    変換部が、前記評価基準を用いて前記第1特徴量を第2特徴量に変換する変換ステップと、
    計算部が、認識テーブル記憶部から認識基準となる複数の基準特徴量それぞれとカテゴリとを対応付けた認識テーブルを参照し、前記第2特徴量と前記複数の基準特徴量それぞれとを用いて、前記認識テーブル内のカテゴリに対する前記物体の類似度を計算する計算ステップと、
    出力制御部が、前記認識テーブル内のカテゴリに対する前記物体の類似度を認識結果として出力部に出力させる出力制御ステップと、
    第2受付部が、前記物体のカテゴリの入力を受け付ける第2受付ステップと、
    登録部が、前記第2特徴量を前記基準特徴量として前記物体のカテゴリに対応付けて前記認識テーブルに登録するとともに、前記第1特徴量を前記物体のカテゴリに属する学習サンプルとして前記学習サンプル記憶部に登録する登録ステップと、
    前記生成部が、所定の条件が成立すると前記生成処理を再度行う第2生成ステップと、
    を含むことを特徴とする認識方法。
  7. 各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する学習サンプル記憶部から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行い、選択した複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する生成処理を行う第1生成ステップと、
    認識対象の物体を含む画像の入力を受け付ける第1受付ステップと、
    前記画像の画像特徴を示す第1特徴量を抽出する抽出ステップと、
    前記評価基準を用いて前記第1特徴量を第2特徴量に変換する変換ステップと、
    認識テーブル記憶部から認識基準となる複数の基準特徴量それぞれとカテゴリとを対応付けた認識テーブルを参照し、前記第2特徴量と前記複数の基準特徴量それぞれとを用いて、前記認識テーブル内のカテゴリに対する前記物体の類似度を計算する計算ステップと、
    前記認識テーブル内のカテゴリに対する前記物体の類似度を認識結果として出力部に出力させる出力制御ステップと、
    前記物体のカテゴリの入力を受け付ける第2受付ステップと、
    前記第2特徴量を前記基準特徴量として前記物体のカテゴリに対応付けて前記認識テーブルに登録するとともに、前記第1特徴量を前記物体のカテゴリに属する学習サンプルとして前記学習サンプル記憶部に登録する登録ステップと、
    所定の条件が成立すると前記生成処理を再度行う第2生成ステップと、
    をコンピュータに実行させるための認識プログラム。
JP2011067398A 2011-03-25 2011-03-25 認識装置、方法及びプログラム Expired - Fee Related JP5214762B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011067398A JP5214762B2 (ja) 2011-03-25 2011-03-25 認識装置、方法及びプログラム
US13/420,833 US9002101B2 (en) 2011-03-25 2012-03-15 Recognition device, recognition method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011067398A JP5214762B2 (ja) 2011-03-25 2011-03-25 認識装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012203634A JP2012203634A (ja) 2012-10-22
JP5214762B2 true JP5214762B2 (ja) 2013-06-19

Family

ID=46877405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011067398A Expired - Fee Related JP5214762B2 (ja) 2011-03-25 2011-03-25 認識装置、方法及びプログラム

Country Status (2)

Country Link
US (1) US9002101B2 (ja)
JP (1) JP5214762B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5214760B2 (ja) 2011-03-23 2013-06-19 株式会社東芝 学習装置、方法及びプログラム
JP5649601B2 (ja) 2012-03-14 2015-01-07 株式会社東芝 照合装置、方法及びプログラム
JP2013210971A (ja) 2012-03-30 2013-10-10 Toshiba Tec Corp 情報処理装置及びプログラム
JP2014092904A (ja) * 2012-11-02 2014-05-19 Nissan Motor Co Ltd ワーク認識方法およびワーク認識装置
JP2014123184A (ja) * 2012-12-20 2014-07-03 Toshiba Corp 認識装置、方法及びプログラム
JP6474107B2 (ja) 2013-06-28 2019-02-27 日本電気株式会社 映像監視システム、映像処理装置、映像処理方法および映像処理プログラム
JP5927147B2 (ja) * 2013-07-12 2016-05-25 東芝テック株式会社 商品認識装置及び商品認識プログラム
JP5826800B2 (ja) * 2013-07-17 2015-12-02 東芝テック株式会社 認識辞書評価装置及び認識辞書評価プログラム
JP5826801B2 (ja) * 2013-07-19 2015-12-02 東芝テック株式会社 商品認識装置及び商品認識プログラム
JP6360350B2 (ja) * 2013-08-08 2018-07-18 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP6453618B2 (ja) * 2014-11-12 2019-01-16 株式会社東芝 算出装置、方法及びプログラム
JP6643856B2 (ja) * 2014-11-28 2020-02-12 キヤノン株式会社 分類方法、検査方法、検査装置、およびプログラム
JP6590477B2 (ja) * 2014-11-28 2019-10-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US10282722B2 (en) * 2015-05-04 2019-05-07 Yi Sun Huang Machine learning system, method, and program product for point of sale systems
JP6631641B2 (ja) * 2016-01-20 2020-01-15 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6528723B2 (ja) * 2016-05-25 2019-06-12 トヨタ自動車株式会社 物体認識装置、物体認識方法及びプログラム
WO2018155412A1 (ja) * 2017-02-21 2018-08-30 日本電気株式会社 分類装置と分類方法並びにプログラム
CN108197638B (zh) * 2017-12-12 2020-03-20 阿里巴巴集团控股有限公司 对待评估样本进行分类的方法及装置
JP6933164B2 (ja) * 2018-03-08 2021-09-08 株式会社Jvcケンウッド 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム
JP7208480B2 (ja) * 2018-10-12 2023-01-19 富士通株式会社 学習プログラム、検出プログラム、学習装置、検出装置、学習方法および検出方法
JP7152938B2 (ja) * 2018-11-21 2022-10-13 株式会社東芝 機械学習モデル構築装置および機械学習モデル構築方法
JP7357454B2 (ja) * 2019-03-25 2023-10-06 三菱電機株式会社 特徴特定装置、特徴特定方法及び特徴特定プログラム
JP7353851B2 (ja) * 2019-08-02 2023-10-02 キヤノン株式会社 システム、方法、及びプログラム
JP2021189598A (ja) * 2020-05-27 2021-12-13 パナソニックIpマネジメント株式会社 発注管理装置及び発注管理方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287275A (en) * 1988-08-20 1994-02-15 Fujitsu Limited Image recognition apparatus and method for recognizing a pattern within an image
US5086479A (en) * 1989-06-30 1992-02-04 Hitachi, Ltd. Information processing system using neural network learning function
JP3318958B2 (ja) * 1992-04-30 2002-08-26 松下電器産業株式会社 学習型波形認識処理装置
US5479570A (en) 1992-10-06 1995-12-26 Matsushita Electric Industrial Co., Ltd. Learning and recognition machine
US5537488A (en) * 1993-09-16 1996-07-16 Massachusetts Institute Of Technology Pattern recognition system with statistical classification
JP2986074B2 (ja) * 1995-07-26 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 近傍点検出方法及びパターン認識装置
US6636635B2 (en) * 1995-11-01 2003-10-21 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
JP4827285B2 (ja) 2000-09-04 2011-11-30 東京エレクトロン株式会社 パターン認識方法、パターン認識装置及び記録媒体
JP3945971B2 (ja) 2000-11-07 2007-07-18 グローリー株式会社 パターン認識装置、パターン認識方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
US7149356B2 (en) * 2002-07-10 2006-12-12 Northrop Grumman Corporation System and method for template matching of candidates within a two-dimensional image
US20040042665A1 (en) * 2002-08-30 2004-03-04 Lockheed Martin Corporation Method and computer program product for automatically establishing a classifiction system architecture
KR100571813B1 (ko) * 2003-07-28 2006-04-17 삼성전자주식회사 로컬 선형변환함수를 이용한 특징벡터 추출방법과 이를이용한 영상인식방법 및 장치
JP2005100122A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
JP2005149455A (ja) * 2003-10-21 2005-06-09 Sharp Corp 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体
JP2005309535A (ja) 2004-04-16 2005-11-04 Hitachi High-Technologies Corp 画像自動分類方法
WO2006034366A1 (en) * 2004-09-21 2006-03-30 Siemens Medical Solutions Usa, Inc. Hierarchical medical image view determination
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
JP4462176B2 (ja) * 2005-12-05 2010-05-12 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR100723417B1 (ko) * 2005-12-23 2007-05-30 삼성전자주식회사 얼굴 인식 방법, 그 장치, 이를 위한 얼굴 영상에서 특징추출 방법 및 그 장치
JP4951995B2 (ja) * 2006-02-22 2012-06-13 オムロン株式会社 顔照合装置
US8014572B2 (en) * 2007-06-08 2011-09-06 Microsoft Corporation Face annotation framework with partial clustering and interactive labeling
JP5214367B2 (ja) * 2008-08-08 2013-06-19 株式会社東芝 特徴量抽出装置、特徴量抽出方法、画像処理装置、及び、プログラム
JP5075111B2 (ja) 2008-12-29 2012-11-14 株式会社日立ハイテクノロジーズ 画像分類基準更新方法、プログラムおよび画像分類装置
JP5247480B2 (ja) 2009-01-13 2013-07-24 キヤノン株式会社 オブジェクト識別装置及びオブジェクト識別方法
JP5166335B2 (ja) * 2009-03-25 2013-03-21 株式会社東芝 特徴を抽出する装置、方法およびプログラム
JP5214679B2 (ja) 2010-08-30 2013-06-19 株式会社東芝 学習装置、方法及びプログラム
JP5214760B2 (ja) 2011-03-23 2013-06-19 株式会社東芝 学習装置、方法及びプログラム

Also Published As

Publication number Publication date
US9002101B2 (en) 2015-04-07
US20120243779A1 (en) 2012-09-27
JP2012203634A (ja) 2012-10-22

Similar Documents

Publication Publication Date Title
JP5214762B2 (ja) 認識装置、方法及びプログラム
US10909455B2 (en) Information processing apparatus using multi-layer neural network and method therefor
JP5214760B2 (ja) 学習装置、方法及びプログラム
JP2019028839A (ja) 分類器、分類器の学習方法、分類器における分類方法
JP5880454B2 (ja) 画像識別装置及びプログラム
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
CN101373519A (zh) 字符识别装置和方法
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
JP6004015B2 (ja) 学習方法、情報処理装置および学習プログラム
WO2018116921A1 (ja) 辞書学習装置、辞書学習方法、データ認識方法およびプログラム記憶媒体
JP5214679B2 (ja) 学習装置、方法及びプログラム
Kang et al. Learning imbalanced datasets with maximum margin loss
JP2016095640A (ja) 密度計測装置、密度計測方法、およびプログラム
CN110199300A (zh) 用于自动编码器的模糊输入
WO2021095509A1 (ja) 推定システム、推定装置および推定方法
JP2014115920A (ja) 多クラス識別器、方法、及びプログラム
CN111488400B (zh) 数据分类方法、装置和计算机可读存储介质
Fedorov et al. Multimodal sparse Bayesian dictionary learning applied to multimodal data classification
CN107636678B (zh) 用于预测图像样本的属性的方法和设备
WO2020039610A1 (ja) 異常要因推定装置、異常要因推定方法、及びプログラム
JP2003208594A (ja) 類識別装置及び類識別方法
US9378466B2 (en) Data reduction in nearest neighbor classification
JP2016062249A (ja) 識別辞書学習システム、認識辞書学習方法および認識辞書学習プログラム
CN114818979A (zh) 一种基于最大化间隔机制的含噪多标记分类方法
WO2023188085A1 (ja) 学習装置、学習方法及び記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130227

R151 Written notification of patent or utility model registration

Ref document number: 5214762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees