JP2017208004A - クラス推定装置及びプログラム - Google Patents

クラス推定装置及びプログラム Download PDF

Info

Publication number
JP2017208004A
JP2017208004A JP2016101232A JP2016101232A JP2017208004A JP 2017208004 A JP2017208004 A JP 2017208004A JP 2016101232 A JP2016101232 A JP 2016101232A JP 2016101232 A JP2016101232 A JP 2016101232A JP 2017208004 A JP2017208004 A JP 2017208004A
Authority
JP
Japan
Prior art keywords
class
data
probability table
tree structure
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016101232A
Other languages
English (en)
Other versions
JP6687894B2 (ja
Inventor
尾崎 良太
Ryota Ozaki
良太 尾崎
幸寛 坪下
Yukihiro Tsuboshita
幸寛 坪下
加藤 典司
Noriji Kato
典司 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2016101232A priority Critical patent/JP6687894B2/ja
Priority to US15/292,528 priority patent/US10303985B2/en
Priority to EP16194087.9A priority patent/EP3246853A1/en
Priority to CN201611128941.9A priority patent/CN107403186B/zh
Publication of JP2017208004A publication Critical patent/JP2017208004A/ja
Application granted granted Critical
Publication of JP6687894B2 publication Critical patent/JP6687894B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】識別器の再作成を行う際、木構造の分岐条件を新規に作成することなく、ULSを用いた場合よりも、推定精度を向上させること。
【解決手段】本発明に係るクラス推定装置は、データの特徴量の入力を受け付けるデータ受付手段と、木構造を持つ識別器の入力を受け付ける識別器受付手段と、前記木構造の葉ノードに確率テーブルと特徴量テーブルを保存するテーブル保存手段と、前記確率テーブルを補正する確率テーブル補正手段と、データのクラスを推定するクラス推定手段と、を具えている。
【選択図】図1

Description

本発明は、クラス推定装置及びプログラムに関する。
下記非特許文献1には、木構造の識別器を再作成するための手法として、葉ノードの確率テーブルのみを更新する手法である、ULS(Update Leaf Statics)、葉ノードを親ノードとして新規分岐条件を追加する手法である、IGT(Incrementally Grow Tree)、一部の葉ノードの親の分岐条件を新規に作成した後、葉ノードを親ノードとして新規分岐条件を追加する手法である、RTST(Re-Train SubTree)、及び、一部の葉ノードの親の分岐条件に条件を追加した後、葉ノードを親ノードとして新規分岐条件を追加する手法である、RUST(Re-Use SubTree)が開示されている。
下記特許文献1には、対象画像から選択された部分領域に対する第1の特徴ベクトルを算出する算出手段と、学習用画像の部分領域に対して算出された第2の特徴ベクトルと学習用画像全体に対して付与された第2の識別情報とに基づいて決定木群を用いて対象画像の内容を表す第1の識別情報を当該対象画像に付与する手段であって、第2の特徴ベクトル群と第2の識別情報群を決定木群に流したとき、決定木群の各葉に到達した第2の識別情報の数の全体に対する割り合いから求まる尤度関数を掛け合わせたものと第1の特徴ベクトルの事前確率を掛け合わせたものとの比に、第2の識別情報の事前確率を掛けることにより、第1の識別情報を決定して付与する付与手段とを備えた、画像識別情報付与装置が開示されている。
特開2012−042990号公報
M.Ristin, M.Guillaumin, J.Gall, and L.V.Gool, "Incremental Learning of NCM Forests for Large-Scale Image Classification", CVPR, 2014.
木構造を持つ識別器を用いて属するクラスが未知であるデータの属するクラスを推定する、という処理において、クラスが追加される等によって対象クラスに変更が生じた場合には、変更されたクラスに対応するために、再度学習を行うことにより識別器を再作成する必要がある。単純に識別器を再作成しようとすると、木構造を新規に再構築することが考えられるが、その場合全ての分岐条件を新規に作成することになるため時間を要することとなる。
木構造を再作成せずに確率テーブルの更新のみを行うことにより、識別器の再作成に要する時間を低減させることができるULSに対して、推定精度の改善がなされているIGT、RTST、及び、RUSTが提案されているが、いずれもの手法も葉ノードを親ノードとして分岐条件を新規に作成するものであるため、木構造の分岐条件の作成のために時間を要するものであった。
本発明は、識別器の再作成を行う際、木構造の分岐条件を新規に作成することなく、ULSを用いた場合よりも、推定精度を向上させることを目的とする。
[クラス推定装置]
請求項1に係る本発明は、データの特徴量の入力を受け付けるデータ受付手段と、
木構造を持つ識別器の入力を受け付ける識別器受付手段と、
前記木構造の葉ノードに確率テーブルと特徴量テーブルを保存するテーブル保存手段と、
前記確率テーブルを補正する確率テーブル補正手段と、
データのクラスを推定するクラス推定手段と、
を具えたクラス推定装置である。
請求項2に係る本発明は、前記補正手段が、前記特徴量テーブルの値を用いて前記確率テーブルを補正する、請求項1に記載のクラス推定装置である。
請求項3に係る本発明は、前記補正手段が、前記確率テーブルの値から算出された尤度と、入力されたデータの特徴量及び前記特徴量テーブルの値から算出された距離と、を用いて前記確率テーブルを補正する、請求項2に記載のクラス推定装置である。
請求項4に係る本発明は、入力されたデータの特徴量及び前記特徴量テーブルの値から算出された確率密度を用いて前記確率テーブルを補正する、請求項2に記載のクラス推定装置である。
請求項5に係る本発明は、更に、前記木構造の葉ノードに重要度を保存する重要度保存手段を具えた、請求項1〜4のいずれかに記載のクラス推定装置である。
[プログラム]
請求項6に係る本発明は、データの特徴量の入力を受け付けるデータ受付ステップと、
木構造を持つ識別器の入力を受け付ける識別器受付ステップと、
前記木構造の葉ノードに確率テーブルと特徴量テーブルを保存するテーブル保存ステップと、
前記確率テーブルを補正する確率テーブル補正ステップと、
データのクラスを推定するクラス推定ステップと、
をコンピュータに実行させるためのプログラムである。
請求項1に係る本発明よれば、識別器の再作成を行う際、木構造の分岐条件を新規に作成することなく、ULSを用いた場合よりも推定精度を向上させることができる。
請求項2に係る本発明よれば、識別器の再作成を行う際、木構造の分岐条件を新規に作成することなく、ULSを用いた場合よりも推定精度を向上させることができる。
請求項3に係る本発明よれば、識別器の再作成を行う際、木構造の分岐条件を新規に作成することなく、ULSを用いた場合よりも推定精度を向上させることができる。
請求項4に係る本発明よれば、識別器の再作成を行う際、木構造の分岐条件を新規に作成することなく、ULSを用いた場合よりも推定精度を向上させることができる。
請求項5に係る本発明よれば、確率テーブルの補正の際に、より重要度の高い葉ノードの影響を高くすることができる。
請求項6に係る本発明よれば、識別器の再作成を行う際、木構造の分岐条件を新規に作成することなく、ULSを用いた場合よりも推定精度を向上させることができる。
本実施形態に係るクラス推定装置における処理の基本的な構成を示す概念図である。 本実施形態に係るクラス推定装置における処理の一例を示すフローチャートである。 事前学習データとしての木構造識別器を示す概念図である。 従来手法を用いて再作成された木構造識別器を示す概念図である。 本実施形態に係るクラス推定装置によって作成された木構造識別器を示す概念図である。。
以下、本発明を実施するための形態を詳細に説明する。但し、以下に示す実施形態は、本発明の技術思想を具体化するためのクラス推定装置の一例を示すものであって、本発明をこの実施形態に限定することを意図するものではなく、本発明は特許請求の範囲に示した技術思想を逸脱することなく種々の変更を行ったものにも均しく適用し得るものである。
本実施形態に係るクラス推定装置は、データの特徴量が入力されるデータ受付部と、木構造を持つ識別器が入力される識別器受付部と、木構造の葉ノードに確率テーブル及び特徴量テーブルを保存するテーブル保存部と、確率テーブルを補正する確率テーブル補正部と、属するクラスが未知のデータのクラスを推定した結果を出力するクラス推定部を具えている。
本実施形態の処理の流れについて図1及び図2を用いて説明する。図1は、本実施形態に係るクラス推定装置における基本的な処理の流れを示し、図2は、学習データとして画像データを用いた場合のより詳細な処理の一例を示す。
[事前学習データ保存ステップ]
事前学習データ保存ステップS1では、予め作成された木構造識別器が識別器受付部に、その木構造識別器を作成した際の学習データ及び各データの属するクラスがデータ受付部に、それぞれ入力され、事前学習データとして保存される。
学習データは、データの種類を問わないが、M次元のベクトルデータとする。例えば、画像データであれば、各画像から抽出した、色やエッジ情報等の特徴量を学習データとし、その画像に予め付与されているラベルをその学習データが属するクラスとする。その際、1枚の画像から複数個の特徴量を抽出しても良い。この際、DeepLearning手法を用いて予め大量の画像から学習を行い作成した特徴抽出器を用いて特徴量を抽出しても良い。
また、音声データであれば、各音声から抽出した、音素の周波数成分情報等の特徴量を学習データとし、各音声に予め付与されているラベル(話した人、単語等)をその学習データが属するクラスとする。
また、テキストデータであれば、各テキストから抽出した、単語をベクトル化した特徴量を学習データとし、各テキストに予め付与されているラベル(文書の種類、極性等)をその学習データが属するクラスとする。
事前学習データ内に保存される木構造識別器としては、根ノード、内部ノード、葉ノードから成り、根ノードと内部ノードは、分岐条件、葉ノードは確率テーブル(葉ノードに属するクラスとデータ数のペア)を持つ識別器とし、1つの決定木からなるもの、RandomForest、AdaBoost、GradientBoostingDecisionTrees等がある。また、分岐条件は、RandomForestの場合、学習時にエントロピーやジニ係数を基に、内部ノード毎に選択するベクトルの次元と閾値が決定されており、閾値以下の場合は左ノードに、大きい場合は右ノードになるというものとなっている。なお、葉ノードには更に後述する特徴量テーブルを持たせていても良い。
[再作成用データ保存ステップ]
再作成用データ保存ステップS2では、事前学習データ保存ステップにおいてに保存された事前学習データと、追加・変更を行う学習データと各データの属するクラスがデータ受付部に入力され、再作成用データが保存される。
再作成用データとしては、全学習データ数、各クラスの学習データ数、再作成用学習データとそのクラス、更新用識別器等がある。再作成用学習データとしては、全学習データを対象としても良いし、クラスやデータの追加を行う場合、かつ事前学習データ内の識別器が確率テーブルと特徴量テーブルを持つ識別器である場合は、追加する学習データのみを対象にしても良い。
更新用識別器は、事前学習データ内の予め作成された木構造識別器に対し、全データを更新時に使用する場合は、確率テーブルをリセットしたものとする。また、クラスやデータの追加を行う場合、かつ事前学習データ内の識別器が確率テーブルと特徴量テーブルを持つ識別器である場合は、確率テーブルや特徴量テーブルを保持したままでも良い。
識別器がRandomForestの場合等は、再作成用学習データは、ランダムサンプリングを行っても良く、予め作成された木構造識別器が複数個ある場合は、同数個までの再作成に使用する学習データと更新用識別器を作成することができる。
[識別器再作成ステップ]
識別器再作成ステップS3では、再作成用データが入力された後、再作成用学習データと各データの属するクラスを用いて更新用識別器の葉ノードが更新され、テーブル保存部によって葉ノードに確率テーブルと特徴量テーブルが保存されることによって、葉ノードに確率テーブルと特徴量テーブルを持つ更新後の木構造識別器が再作成される。
特徴量テーブルは、葉ノードに属するクラスと特徴量情報のペアとする。例えば、特徴量情報は、葉ノードに属する学習データのクラス毎の平均値、分散値、中央値、標準偏差値、最小値、最大値等とする。また、葉ノードの親の分岐条件として使用する次元のみを使用する、根ノードから葉ノードに至るまで通る内部ノードの分岐条件で使用する次元のみを使用する、ランダムに選んだ次元のみを使用する等、学習データの一部の次元だけを使用し、クラス毎の平均値、分散値、中央値、標準偏差値、最小値、最大値等を求め、特徴量情報としても良い。なお、確率テーブルと特徴量テーブルは同数であるため、1つのテーブルに纏めても良い。表1は通常の確率テーブルの例であり、表2にその確率テーブルに対して特徴量テーブルが一つに纏められたものの例を示した。
Figure 2017208004
Figure 2017208004
[所属葉ノードデータ取得ステップ]
所属葉ノードデータ取得ステップS4では、クラス推定を行う対象である属するクラスが未知のデータと、更新後の木構造識別器が入力され、属するクラスが未知のデータの所属する葉ノードが探索され、その葉ノードへ至るまでに通る内部ノードとその分岐条件、及び、その葉ノードの確率テーブルと特徴量テーブルが、葉ノードデータとして取得される。なお、本実施形態に係るスコア推定装置においては、更に葉ノードの重要度を保存するための、重要度保存部を具えていても良く、その場合、必要に応じて、葉ノードデータに重要度を含めることができる。
重要度は、推定スコアの精度をより高めるために使用することが可能で、葉ノードへ至るまでに通る内部ノードの各分岐条件を設定した際に用いる、エントロピーやジニ係数の減少値の平均値、中央値等とし、葉ノードから任意の数遡った内部ノードまでの減少値を用いることができる。
[確率テーブル補正ステップ]
確率テーブル補正ステップS5では、確率テーブル補正部において、属するクラスが未知のデータと、所属葉ノードデータと、再作成用データが入力され、属するクラスが未知のデータと葉ノードへ至るまでの内部ノードと分岐条件と特徴量テーブルを用いて、確率テーブルが補正される。
例えば、識別器をRandomForestとし、葉ノードの親の分岐条件として使用する次元の平均値と分散値を特徴量情報とする場合、再作成用学習データの数をN、クラスを(C1,…,Cc)、各クラスの再作成用学習データの数を(N1,…,Nc)、クラスが未知のデータをX(X1,…,XM)、親の分岐条件で使用する次元をD、葉ノード内にあるクラスを(C1,C3,Cc)、その数を(P1,P3,Pc)、その平均値を(M1,M3,Mc)、その分散値を(V1,V3,Vc)、確率テーブルと特徴量テーブルをまとめたテーブルを{(C1,P1,M1,V1),(C3,P3,M3,V3) ,(Cc ,Pc,Mc,Vc)}とした際は、下記のような補正ができる。なお、補正パターン1による補正がされない場合に、補正パターン2を適用するというように、補正パターン1と補正パターン2は組み合わせて用いても良い。
(補正パターン1):尤度関数P(X|C)が最も大きいクラスと、クラスが未知のデータとの距離dcが最短となる平均値を持つクラスが同じ場合に、当該クラス以外のクラスのデータ数を0とする。
Figure 2017208004
(補正パターン2):各クラスの確率密度fnを求め、それを基にリーフ内の各クラスのデータ数を補正することで、確率テーブルを補正する。
Figure 2017208004
確率テーブルを補正する際には、例えば、葉ノードの重要度の値に任意の閾値を設けておき、補正する確率テーブルを選別する、あるいは、重要度の値を確率テーブルに掛けあわせる、などのように重要度を利用することで、推定スコアの精度をより向上させることができる。
[推定スコア算出ステップ]
推定スコア算出ステップS6では、クラスが未知のデータと補正した確率テーブルと再作成用学習データが入力され、各クラスの事後確率を基に各クラスの推定スコアを算出する。
例えば、全学習データの総数をA、クラスCの学習データ数をAc、再作成用学習データの総数をN、クラスCの再作成用学習データの数をNc、確率テーブル内のデータ総数をP、確率テーブル内のクラスCに対応する値をPcとすると、クラスが未知のデータXに対する、クラスCの事後確率は、尤度関数を用いて、以下の式で定義することができる。
Figure 2017208004
推定スコアSCは事後確率P(C|X)をそのまま用いても良いし、以下の式で定義しても良い。
Figure 2017208004
識別器がRandomForestの場合等で、T個の木構造識別器から成る場合、以下の式のように各木構造識別器の確率テーブルの平均から尤度関数を求める。
Figure 2017208004
データが画像から抽出された特徴量等で、1つの対象からM個のデータが抽出される場合は、クラスが未知のデータは(X1,…,XM)となり、クラスが未知のデータXiに対する、クラスCの事後確率として、以下の式で定義することができる。
Figure 2017208004
推定スコアSCとしては事後確率P(C|X1,…,XM)をそのまま用いても良いし、以下の式で定義しても良い。
Figure 2017208004
[推定結果出力ステップ]
推定結果出力ステップS7では、クラス推定部において、属するクラスが未知のデータと各クラスの推定スコアが入力され、クラスが未知のデータのクラスが推定結果として出力される。クラス推定については、例えば、推定スコアが最も高いクラスを推定結果としても良いし、推定スコアが予め設定した閾値以上のクラスを推定結果としても良く、全てが閾値以下ならば、該当クラスなしという結果を出力しても良い。
次に、確率テーブルの補正について、20個のクラス1のデータ、10個のクラス2のデータ、及び、図3に示す木構造識別器を事前学習データとし、これに10個のクラス3のデータを追加する場合の具体例を説明する。
まず、従来手法であるIGTを用いた場合、クラス3追加により再作成された後の木構造識別器は例えば図4のようになる。ここでは、事前学習データの木構造識別器における葉ノード1及び葉ノード4において新規に分岐条件が追加され内部ノードとなり、計6個の葉ノードを持つ識別器として再作成されている。
次に、本実施形態による再作成後の木構造識別器を図5に示す。なお、図5は、確率テーブルと特徴量テーブルを纏めた例で示している。本実施形態では、各葉ノードには特徴量テーブルが格納されているが、分岐条件が新規に追加されることはないので、木構造識別器の構造については図3すなわち事前学習データの木構造識別器と同一となっている。
ここで、属するクラスが未知のデータとして、5次元ベクトルX(0.5,0.7,0.4,0.5,0.3)というデータに関して、クラス推定を行う場合は、以下のようになる。
(従来手法のIGTを用いた場合)
木構造識別器は図4に示されるものであり、根ノードからスタートし、根ノードの分岐では、特徴次元の2次元目が、0.7(すなわち、閾値である0.6よりも大きい)であるため、右の子ノードへ辿ることになる。次の分岐では、特徴次元の5次元目が0.3(>0.2)であるため、右の子ノード、というルートを通り、特徴次元の1次元目が0.5(>0.4)であるため、最終的に、{(クラス3,6)}という確率テーブルを持つ葉ノード6に属する、と判断される。
(本実施形態に係るクラス推定装置を用いた場合)
木構造識別器は図5に示されるものであり、根ノードからスタートし、特徴次元の2次元目が0.7(>0.6)であるため、右の子ノードを辿り、特徴次元の5次元目が0.3(>0.2)であるため、まず、葉ノード4に属すると判断される。
この葉ノード4は、{(クラス1,9),(クラス3,6)}という確率テーブルを持っており、次いで確率テーブルの補正を行う。
ここで、尤度関数、P(X|クラス1)=9/20、P(X|クラス3)=6/10 であるため、尤度関数が最大となるクラスは、「クラス3」となる。
また、親ノードで分岐条件に選んだ特徴次元が5次元目であるため、データXの5次元目と葉ノードの特徴量テーブルの平均値の距離を求めると、dクラス1=(0.3−0.8)2の平方根=0.5、dクラス3=(0.3−0.4)2の平方根=0.1である。従って、距離が最短となるクラスは「クラス3」となる。
補正パターン1の適用により、クラス1のデータ数が0に補正され、補正後の葉ノード4の確率テーブルは、{(クラス1,0),(クラス3,6)}となるため、データ数が0であるクラス1が除去されて、葉ノード4の確率テーブルは最終的に{(クラス3,6)}に補正されることになる。以上の様に、今回のデータXでは、本実施形態による手法により、木構造の分岐条件の追加なしに、従来手法であるIGTと同じ確率テーブルを用いて推定を行うことができることになる。
[実施例]
[識別器の再作成に要する時間の比較]
識別器の再作成に要する時間及び推定精度について、従来手法との比較による評価を行った。画像認識のベンチマークで多く用いられるVOC2007を用いて、10個のクラスのデータ(学習用画像:5011枚)と、そのデータから作成されたRandomForestsに対し、10クラスの追加(評価用画像:4952枚)による、識別器再作成に要する時間を計測すると共に、推定精度の評価のため、得られた識別器を用いた場合のMAP(Mean Average Precision)値(各再現率レベル(0.1−1.0を0.1刻み)での適合率の平均の全クラスでの平均の値)を算出した。
本実施例として、10クラスで作成されたRandomForestsをそのまま用い、全学習データで確率テーブルと特徴量テーブルを更新することで、識別器を再作成するものと、比較例1として、RandomForestsを20ラベルで新規に再作成するものとで比較した。MAP値については、本実施形態に係るスコア推定装置において、確率テーブルの補正を行わない場合(これは、従来手法であるULSに相当する)を比較例2とした。MAP値の比較を表3に示し、識別器の再作成時間について表4に示す。
Figure 2017208004
Figure 2017208004
本実施形態のクラス推定装置では、表3からわかるように、ULSよりも推定精度を向上させることができる。
また、表4に示されるように、識別器の再作成に必要な時間を新規に識別器を作成する場合と比較すると、大幅に低減されていることがわかる。これは、本実施形態のクラス推定装置では、新規の分岐条件を作成していないため、識別器の再作成に必要な時間が従来手法であるULSとほぼ同じで済むことによる。
S1…事前学習データ保存ステップ
S2…画再作成用データ保存ステップ
S3…識別器再作成ステップ
S4…所属葉ノードデータ取得ステップ
S5…確率テーブル補正ステップ
S6…推定スコア算出ステップ
S7…推定結果出力ステップ

Claims (6)

  1. データの特徴量の入力を受け付けるデータ受付手段と、
    木構造を持つ識別器の入力を受け付ける識別器受付手段と、
    前記木構造の葉ノードに確率テーブル及び特徴量テーブルを保存するテーブル保存手段と、
    前記確率テーブルを補正する確率テーブル補正手段と、
    データのクラスを推定するクラス推定手段と、
    を具えたクラス推定装置。
  2. 前記補正手段が、前記特徴量テーブルの値を用いて前記確率テーブルを補正する、請求項1に記載のクラス推定装置。
  3. 前記補正手段が、前記確率テーブルの値から算出された尤度と、入力されたデータの特徴量及び前記特徴量テーブルの値から算出された距離と、を用いて前記確率テーブルを補正する、請求項2に記載のクラス推定装置。
  4. 前記補正手段が、入力されたデータの特徴量及び前記特徴量テーブルの値から算出された確率密度を用いて前記確率テーブルを補正する、請求項2に記載のクラス推定装置。
  5. 更に、前記木構造の葉ノードに重要度を保存する重要度保存手段を具えた、請求項1〜4のいずれかに記載のクラス推定装置。
  6. データの特徴量の入力を受け付けるデータ受付ステップと、
    木構造を持つ識別器の入力を受け付ける識別器受付ステップと、
    前記木構造の葉ノードに確率テーブル及び特徴量テーブルを保存するテーブル保存ステップと、
    前記確率テーブルを補正する確率テーブル補正ステップと、
    データのクラスを推定するクラス推定ステップと、
    をコンピュータに実行させるためのプログラム。
JP2016101232A 2016-05-20 2016-05-20 クラス推定装置及びプログラム Expired - Fee Related JP6687894B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016101232A JP6687894B2 (ja) 2016-05-20 2016-05-20 クラス推定装置及びプログラム
US15/292,528 US10303985B2 (en) 2016-05-20 2016-10-13 Class estimation apparatus, non-transitory computer readable medium, and class estimation method
EP16194087.9A EP3246853A1 (en) 2016-05-20 2016-10-17 Class estimation apparatus, program, and class estimation method
CN201611128941.9A CN107403186B (zh) 2016-05-20 2016-12-09 类估计设备和类估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016101232A JP6687894B2 (ja) 2016-05-20 2016-05-20 クラス推定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017208004A true JP2017208004A (ja) 2017-11-24
JP6687894B2 JP6687894B2 (ja) 2020-04-28

Family

ID=57396250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016101232A Expired - Fee Related JP6687894B2 (ja) 2016-05-20 2016-05-20 クラス推定装置及びプログラム

Country Status (4)

Country Link
US (1) US10303985B2 (ja)
EP (1) EP3246853A1 (ja)
JP (1) JP6687894B2 (ja)
CN (1) CN107403186B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256135A1 (ja) * 2020-06-17 2021-12-23 株式会社エイシング 制御装置、方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017324B2 (en) * 2017-05-17 2021-05-25 Microsoft Technology Licensing, Llc Tree ensemble explainability system
EP3709229A1 (en) * 2019-03-13 2020-09-16 Ricoh Company, Ltd. Learning device and learning method
US11734259B2 (en) 2019-05-31 2023-08-22 International Business Machines Corporation Anonymous database rating update
US11569996B2 (en) * 2019-05-31 2023-01-31 International Business Machines Corporation Anonymous rating structure for database

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042990A (ja) * 2010-08-12 2012-03-01 Fuji Xerox Co Ltd 画像識別情報付与プログラム及び画像識別情報付与装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5930392A (en) * 1996-07-12 1999-07-27 Lucent Technologies Inc. Classification technique using random decision forests
US6058205A (en) * 1997-01-09 2000-05-02 International Business Machines Corporation System and method for partitioning the feature space of a classifier in a pattern classification system
US6353814B1 (en) * 1997-10-08 2002-03-05 Michigan State University Developmental learning machine and method
US6532305B1 (en) * 1998-08-04 2003-03-11 Lincom Corporation Machine learning method
US6519580B1 (en) * 2000-06-08 2003-02-11 International Business Machines Corporation Decision-tree-based symbolic rule induction system for text categorization
US6718315B1 (en) * 2000-12-18 2004-04-06 Microsoft Corporation System and method for approximating probabilities using a decision tree
JP3896868B2 (ja) * 2002-02-27 2007-03-22 日本電気株式会社 パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置
US7464068B2 (en) * 2004-06-30 2008-12-09 International Business Machines Corporation System and method for continuous diagnosis of data streams
CN101615789B (zh) * 2008-06-23 2012-12-12 上海申瑞电力科技股份有限公司 广域量测系统追踪状态估计方法
US7941462B2 (en) * 2008-09-24 2011-05-10 Toshiba Medical Visualization Systems Europe, Limited Method and apparatus for classification of coronary artery image data
JP5218109B2 (ja) * 2009-01-30 2013-06-26 富士通株式会社 可視化データ処理装置、可視化データ処理装置の制御方法、及び可視化データ処理装置の制御プログラム
KR101068465B1 (ko) * 2009-11-09 2011-09-28 한국과학기술원 삼차원 물체 인식 시스템 및 방법
JP5394959B2 (ja) * 2010-03-23 2014-01-22 富士フイルム株式会社 判別器生成装置および方法並びにプログラム
JP5675214B2 (ja) * 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US9077958B2 (en) * 2010-08-30 2015-07-07 Honda Motor Co., Ltd. Road departure warning system
US9092797B2 (en) * 2010-09-22 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to analyze and adjust demographic information
US8860715B2 (en) * 2010-09-22 2014-10-14 Siemens Corporation Method and system for evaluation using probabilistic boosting trees
US8953888B2 (en) * 2011-02-10 2015-02-10 Microsoft Corporation Detecting and localizing multiple objects in images using probabilistic inference
US8744172B2 (en) * 2011-06-15 2014-06-03 Siemens Aktiengesellschaft Image processing using random forest classifiers
US8712931B1 (en) * 2011-06-29 2014-04-29 Amazon Technologies, Inc. Adaptive input interface
US8954365B2 (en) * 2012-06-21 2015-02-10 Microsoft Corporation Density estimation and/or manifold learning
US9218524B2 (en) * 2012-12-06 2015-12-22 Siemens Product Lifecycle Management Software Inc. Automatic spatial context based multi-object segmentation in 3D images
US10235605B2 (en) * 2013-04-10 2019-03-19 Microsoft Technology Licensing, Llc Image labeling using geodesic features
EP2849099B1 (en) * 2013-09-11 2021-07-28 Dassault Systèmes A computer-implemented method for designing an industrial product modeled with a binary tree.
US9558396B2 (en) * 2013-10-22 2017-01-31 Samsung Electronics Co., Ltd. Apparatuses and methods for face tracking based on calculated occlusion probabilities
JP6226701B2 (ja) * 2013-11-05 2017-11-08 キヤノン株式会社 データ処理方法及び装置、データ識別方法及び装置、プログラム
CN104809325B (zh) * 2014-01-26 2018-06-01 国际商业机器公司 用于检测事件日志和过程模型之间的区别的方法和装置
US10347042B2 (en) * 2014-03-13 2019-07-09 Pixar Importance sampling of sparse voxel octrees
US9916356B2 (en) * 2014-03-31 2018-03-13 Sandisk Technologies Llc Methods and systems for insert optimization of tiered data structures
US9805248B2 (en) * 2014-08-29 2017-10-31 Definiens Ag Applying pixelwise descriptors to a target image that are generated by segmenting objects in other images
EP3035235B1 (en) * 2014-12-17 2023-07-19 Exipple Studio, Inc. Method for setting a tridimensional shape detection classifier and method for tridimensional shape detection using said shape detection classifier
EP3136293A1 (en) * 2015-08-28 2017-03-01 Thomson Licensing Method and device for processing an image of pixels, corresponding computer program product and computer readable medium
US20170083920A1 (en) * 2015-09-21 2017-03-23 Fair Isaac Corporation Hybrid method of decision tree and clustering technology

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012042990A (ja) * 2010-08-12 2012-03-01 Fuji Xerox Co Ltd 画像識別情報付与プログラム及び画像識別情報付与装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
村田 隆英: "教師あり学習の導入によるMondrian Forestsの効率化", 電子情報通信学会技術研究報告, vol. 115, no. 517, JPN6020008077, 17 March 2016 (2016-03-17), pages 191 - 196, ISSN: 0004226433 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256135A1 (ja) * 2020-06-17 2021-12-23 株式会社エイシング 制御装置、方法及びプログラム

Also Published As

Publication number Publication date
US20170337450A1 (en) 2017-11-23
US10303985B2 (en) 2019-05-28
CN107403186A (zh) 2017-11-28
CN107403186B (zh) 2022-02-01
EP3246853A1 (en) 2017-11-22
JP6687894B2 (ja) 2020-04-28

Similar Documents

Publication Publication Date Title
JP6687894B2 (ja) クラス推定装置及びプログラム
Ioffe Batch renormalization: Towards reducing minibatch dependence in batch-normalized models
JP4618098B2 (ja) 画像処理システム
CN110019779B (zh) 一种文本分类方法、模型训练方法及装置
CN110909868A (zh) 基于图神经网络模型的节点表示方法和装置
JP6365032B2 (ja) データ分類方法、データ分類プログラム、及び、データ分類装置
CN107679501A (zh) 一种基于标签自提纯的深度学习方法
CN110909172A (zh) 一种基于实体距离的知识表示学习方法
RU2017105394A (ru) Способ формирования архитектуры нейросети для классификации объекта, заданного в виде облака точек, способ ее применения для обучения нейросети и поиска семантически схожих облаков точек
JP2016095640A (ja) 密度計測装置、密度計測方法、およびプログラム
CN115293919A (zh) 面向社交网络分布外泛化的图神经网络预测方法及系统
WO2020054551A1 (ja) 情報処理装置、情報処理方法、プログラム
Berlinet et al. Acceleration of the EM algorithm: P-EM versus epsilon algorithm
CN114118259A (zh) 一种目标检测方法及装置
Huang et al. Color object recognition via cross-domain learning on RGB-D images
Roos et al. Analysis of textual variation by latent tree structures
CN111488400B (zh) 数据分类方法、装置和计算机可读存储介质
CN106909894B (zh) 车辆品牌型号识别方法和系统
CN110738270A (zh) 基于均值迭代的多任务学习模型训练以及预测方法
CN111199153A (zh) 一种词向量的生成方法及相关设备
CN108932550B (zh) 一种基于模糊密集稀疏密集算法进行图像分类的方法
Serratosa et al. Edit distance computed by fast bipartite graph matching
JP6625507B2 (ja) 対応付け装置、対応付け方法及びプログラム
Pourjam et al. Segmentation of Human Instances Using Grab-cut and Active Shape Model Feedback.
Al-Fayoumi Enhanced Associative classification based on incremental mining Algorithm (E-ACIM)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R150 Certificate of patent or registration of utility model

Ref document number: 6687894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees