JP2016024503A - クラス分類装置、方法、及びプログラム - Google Patents

クラス分類装置、方法、及びプログラム Download PDF

Info

Publication number
JP2016024503A
JP2016024503A JP2014146173A JP2014146173A JP2016024503A JP 2016024503 A JP2016024503 A JP 2016024503A JP 2014146173 A JP2014146173 A JP 2014146173A JP 2014146173 A JP2014146173 A JP 2014146173A JP 2016024503 A JP2016024503 A JP 2016024503A
Authority
JP
Japan
Prior art keywords
class
case
unit
classifier
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014146173A
Other languages
English (en)
Other versions
JP6163461B2 (ja
Inventor
小萌 武
Xiaomeng Wu
小萌 武
森 稔
Minoru Mori
稔 森
柏野 邦夫
Kunio Kashino
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014146173A priority Critical patent/JP6163461B2/ja
Publication of JP2016024503A publication Critical patent/JP2016024503A/ja
Application granted granted Critical
Publication of JP6163461B2 publication Critical patent/JP6163461B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】精度良く事例のクラスを分類することができる。【解決手段】事例分割部22により、事例セットを予め定められた数だけ作成し、事例セットの各々について、多クラス分類器訓練部32により、多クラス分類器を訓練し、多クラス分類部34により、混同行列を作成し、クラスタリング部36により、クラス階層構造を作成し、階層型分類器訓練部40により、階層型分類器を取得し、確率計算部60により、入力された分類対象となる事例に基づいて、事例セットの各々について訓練された階層型分類器を用いて、分類対象となる事例が、葉ノードが表すクラスの各々に属する確率を計算し、確率結合部62により、各葉ノードが表すクラスの各々について、葉ノードが表すクラスに属する確率を結合し、出力部90により、結合されたクラスに属する確率が最も高いクラスを、分類対象となる事例が属するクラスとして出力する。【選択図】図1

Description

本発明は、クラス分類装置、方法、及びプログラムに係り、特に、入力されたデータをクラスに分類するクラス分類装置、方法、及びプログラムに関する。
多クラス分類(Multi-Class Classification)では、クラス間の曖昧性が高い場合、観測されたデータの特徴空間における分布が複雑であり、正確な分類が困難である。該問題に対し、多クラス分類問題を複数の小さな統計分類問題に階層的に分解する、階層的分類と呼ばれる技術が提供されている。
具体的には、既知のデータを訓練事例集合(Training Set)と検証事例集合(Validation Set)に分割し、訓練事例集合から多クラス分類の分類器を作り、検証事例を該分類器に分類させ、混同行列(Confusion Matrix)を作る。次に、該混同行列を基に、あらかじめ定められた多数のクラスを、複数のクラス集合に、階層的に分割し、各クラス集合に個別の決定木(Decision Tree)分類器を割り当てる。未知のデータを分類対象とする際に、第1レベルの決定木分類器を駆使し、該分類対象が第2レベルのどのクラス集合に属するかを決める。次に、該当クラス集合に割り当てられた決定木を駆使し、該分類対象が第3レベルのどのクラス集合に属するかを決める。前記処理を繰り返すことで、該分類対象が属するクラス集合を再帰的に決め、最後に該分類対象が属する単一のクラスを決める(非特許文献1)。また、決定木の代わりにニューラルネットワークを各クラス集合に割り当て、光学文字認識における階層的分類技術も知られている(非特許文献2)。また、サポートベクターマシンを各クラス集合に割り当て、魚画像分類における階層的分類技術も知られている(非特許文献3)。
Shahar Cohen, Lior Rokach, and Oded Maimon. Decision-tree instance-space decom-position with grouped gain-ratio. Inf. Sci., Vol. 177, No. 17, pp. 3592-3612, 2007. Cinthia Obladen de Almendra Freitas, Luiz S. Oliveira, Simone B. K. Aires, and Flavio Bortolozzi. Metaclasses and Zoning Mechanism Applied to Handwriting Recognition.J. UCS, Vol. 14, No. 2, pp. 211-223, 2008. Phoenix X. Huang, Bastiaan Johannes Boom, and Robert B. Fisher. Underwater Live Fish Recognition Using a Balance-Guaranteed Optimized Tree. In ACCV (1),pp. 422-433, 2012.
非特許文献1〜3の方法は、観測されたデータの特徴の次元数が膨大で、混同行列を作るために用いた多クラス分類の分類器の媒介変数が多すぎる場合、訓練事例の個数に比べて、分類器の自由度が高すぎるため、過剰適合(Overfitting)が生じやすく、未知のデータに対する汎化能力が足りない問題がある。特に、未知のデータを分類する際に、上位レベルの分類器の分類結果を基に下位レベルのクラス集合の選択肢を制限する場合、上位レベルの分類結果の誤差(Error)が下位レベルに伝搬(Propagation)しやすく、過剰適合問題が更に顕著になる可能性が高いという問題がある。
本発明では、上記問題点を解決するために成されたものであり、精度良く事例が属するクラスを分類することができるクラス分類装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係るクラス分類装置は、事例と前記事例が属するクラスを表すクラスラベルとの複数のペアからなる既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、前記サブ訓練事例集合と前記検証事例集合とのペアである事例セットを予め定められた数だけ作成する事例分割部と、前記事例分割部により作成された事例セットの各々について、前記事例セットの前記サブ訓練事例集合に含まれる前記事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を複数のクラスのうちの何れか1つに分類するための多クラス分類器を訓練する多クラス分類器訓練部と、前記事例分割部により作成された事例セットの各々について、前記多クラス分類器訓練部により訓練された多クラス分類器に基づいて、前記事例セットの前記検証事例集合に含まれる前記事例の各々を分類した結果の各々と、前記検証事例集合に含まれる前記事例の各々の前記クラスラベルの各々と、に基づいて、前記クラスのペアの各々についての、一方のクラスに属する事例が他方のクラスに分類されることを表す各要素からなる混同行列を作成する多クラス分類部と、前記事例分割部により作成された事例セットの各々について、前記多クラス分類部により作成された混同行列に基づいて、前記複数のクラスを、階層的に分類し、分類された前記クラスの集合を表す内部ノードの各々と、前記クラスを表す葉ノードの各々とを含むノードの各々について、親子関係にあるノード間をエッジで結んだクラス階層構造を作成するクラスタリング部と、前記事例分割部により作成された事例セットの各々について、前記クラスタリング部により作成されたクラス階層構造に含まれる前記内部ノードの各々について、前記既知データに含まれる、前記内部ノードが表す前記クラスの集合に含まれるクラスの各々に属する事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を、前記内部ノードの子ノードである各内部ノードが表す前記クラスの集合のうちの何れか1つ、又は前記内部ノードの子ノードである各葉ノードが表すクラスのうちの何れか1つに分類するための内部ノード多クラス分類器を訓練し、前記訓練され前記内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得する階層型分類器訓練部と、入力された分類対象となる事例に基づいて、前記階層型分類器訓練部により前記事例セットの各々について訓練された前記階層型分類器の各々に対し、前記階層型分類器を用いて、前記分類対象となる事例が、前記葉ノードが表すクラスの各々に属する確率を計算する確率計算部と、各葉ノードが表すクラスの各々について、前記確率計算部により前記階層型分類器の各々に対して計算された前記葉ノードが表すクラスに属する確率を結合する確率結合部と、前記確率結合部により結合された前記クラスに属する確率が最も高い前記クラスを、前記分類対象となる事例が属するクラスとして出力する出力部と、を含んで構成されている。
第2の発明に係るクラス分類方法は、事例分割部と、多クラス分類器訓練部と、多クラス分類部と、クラスタリング部と、階層型分類器訓練部と、確率計算部と、確率結合部と、出力部と、を含むクラス分類装置におけるクラス分類方法であって、前記事例分割部は、事例と前記事例が属するクラスを表すクラスラベルとの複数のペアからなる既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、前記サブ訓練事例集合と前記検証事例集合とのペアである事例セットを予め定められた数だけ作成し、前記事例分割部により作成された事例セットの各々について、前記多クラス分類器訓練部は、前記事例セットの前記サブ訓練事例集合に含まれる前記事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を複数のクラスのうちの何れか1つに分類するための多クラス分類器を訓練し、前記多クラス分類部は、前記多クラス分類器訓練部により訓練された多クラス分類器に基づいて、前記事例セットの前記検証事例集合に含まれる前記事例の各々を分類した結果の各々と、前記検証事例集合に含まれる前記事例の各々の前記クラスラベルの各々と、に基づいて、前記クラスのペアの各々についての、一方のクラスに属する事例が他方のクラスに分類されることを表す各要素からなる混同行列を作成し、前記クラスタリング部は、前記多クラス分類部により作成された混同行列に基づいて、前記複数のクラスを、階層的に分類し、分類された前記クラスの集合を表す内部ノードの各々と、前記クラスを表す葉ノードの各々とを含むノードの各々について、親子関係にあるノード間をエッジで結んだクラス階層構造を作成し、前記階層型分類器訓練部は、前記クラスタリング部により作成されたクラス階層構造に含まれる前記内部ノードの各々について、前記既知データに含まれる、前記内部ノードが表す前記クラスの集合に含まれるクラスの各々に属する事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を、前記内部ノードの子ノードである各内部ノードが表す前記クラスの集合のうちの何れか1つ、又は前記内部ノードの子ノードである各葉ノードが表すクラスのうちの何れか1つに分類するための内部ノード多クラス分類器を訓練し、前記訓練され前記内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、 前記確率計算部は、入力された分類対象となる事例に基づいて、前記階層型分類器訓練部により前記事例セットの各々について訓練された前記階層型分類器の各々に対し、前記階層型分類器を用いて、前記分類対象となる事例が、前記葉ノードが表すクラスの各々に属する確率を計算し、前記確率結合部は、各葉ノードが表すクラスの各々について、前記確率計算部により前記階層型分類器の各々に対して計算された前記葉ノードが表すクラスに属する確率を結合し、前記出力部は、前記確率結合部により結合された前記クラスに属する確率が最も高い前記クラスを、前記分類対象となる事例が属するクラスとして出力する。
第1及び第2の発明によれば、事例分割部により、事例と事例が属するクラスを表すクラスラベルとの複数のペアからなる既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、サブ訓練事例集合と検証事例集合とのペアである事例セットを予め定められた数だけ作成し、事例分割部により作成された事例セットの各々について、多クラス分類器訓練部により、事例セットのサブ訓練事例集合に含まれる事例の各々と、事例のクラスラベルの各々とに基づいて、事例を複数のクラスのうちの何れか1つに分類するための多クラス分類器を訓練し、多クラス分類部により、多クラス分類器訓練部により訓練された多クラス分類器に基づいて、事例セットの検証事例集合に含まれる事例の各々を分類した結果の各々と、検証事例集合に含まれる事例の各々のクラスラベルの各々と、に基づいて、クラスのペアの各々についての、一方のクラスに属する事例が他方のクラスに分類されることを表す各要素からなる混同行列を作成し、クラスタリング部により、多クラス分類部により作成された混同行列に基づいて、複数のクラスを、階層的に分類し、分類されたクラスの集合を表す内部ノードの各々と、クラスを表す葉ノードの各々とを含むノードの各々について、親子関係にあるノード間をエッジで結んだクラス階層構造を作成し、階層型分類器訓練部により、クラスタリング部により作成されたクラス階層構造に含まれる内部ノードの各々について、既知データに含まれる、内部ノードが表すクラスの集合に含まれるクラスの各々に属する事例の各々と、事例のクラスラベルの各々とに基づいて、事例を、内部ノードの子ノードである各内部ノードが表すクラスの集合のうちの何れか1つ、又は内部ノードの子ノードである各葉ノードが表すクラスのうちの何れか1つに分類するための内部ノード多クラス分類器を訓練し、訓練され内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、確率計算部により、入力された分類対象となる事例に基づいて、前記階層型分類器訓練部により前記事例セットの各々について訓練された前記階層型分類器の各々に対し、前記階層型分類器を用いて、前記分類対象となる事例が、前記葉ノードが表すクラスの各々に属する確率を計算し、確率結合部により、各葉ノードが表すクラスの各々について、前記確率計算部により前記階層型分類器の各々に対して計算された前記葉ノードが表すクラスに属する確率を結合し、出力部により、確率結合部により結合されたクラスに属する確率が最も高いクラスを、分類対象となる事例が属するクラスとして出力する。
このように、第1及び第2の発明によれば、既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、事例セットを予め定められた数だけ作成し、作成された事例セットの各々について、多クラス分類器を訓練し、訓練された多クラス分類器に基づいて、混同行列を作成し、混同行列に基づいて、複数のクラスを、階層的に分類し、クラス階層構造を作成し、内部ノード多クラス分類器を訓練し、訓練され内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、入力された分類対象となる事例に基づいて、事例セットの各々について訓練された階層型分類器を用いて、分類対象となる事例が、葉ノードが表すクラスの各々に属する確率を計算し、各葉ノードが表すクラスの各々について、葉ノードが表すクラスに属する確率を結合し、結合されたクラスに属する確率が最も高いクラスを、分類対象となる事例が属するクラスとして出力することにより、精度良く事例が属するクラスを分類することができる。
また、第1の発明において、前記多クラス分類部は、前記混同行列の各要素M(i,j)を、前記検証事例集合に含まれる前記クラスiに属する前記事例の数に対する、前記検証事例集合に含まれる前記クラスiに属する事例のうちの、前記クラスjに分類された事例の数の割合と、前記検証事例集合に含まれる前記クラスjに属する前記事例の数に対する、前記検証事例集合に含まれる前記クラスjに属する事例のうちの、前記クラスiに分類された事例の数の割合との和として作成することができる。
また、第1の発明において、前記多クラス分類器訓練部は、サポートベクターマシンである多クラス分類器を訓練し、前記多クラス分類部は、前記混同行列の各要素M(i,j)の各々を、前記検証事例集合に含まれる前記クラスiに属する前記事例の各々についての、前記多クラス分類器訓練部によって訓練された多クラス分類器によりクラスiについて出力される値に基づいて計算される、前記事例がクラスiに属する確率の平均値と、前記検証事例集合に含まれる前記クラスjに属する前記事例の各々についての、前記多クラス分類器訓練部によって訓練された多クラス分類器によりクラスjについて出力される値に基づいて計算される、前記事例がクラスjに属する確率の平均値との和として作成することができる。
また、第1の発明において、前記確率計算部は、前記階層型分類器訓練部により前記事例セットの各々について訓練された前記階層型分類器の各々に対し、前記階層型分類器を用いて、前記葉ノードが表すクラスの各々について、前記クラス階層構造の前記葉ノードから根ノードまでに存在する前記内部ノードの各々について、前記内部ノードの前記内部ノード多クラス分類器に基づく、前記分類対象の事例が前記クラスを表す葉ノードを子孫に持つ内部ノード又は前記クラスを表す葉ノードに属する条件付き確率を計算し、前記計算した前記条件付き確率の各々の積を、前記葉ノードが表すクラスに属する確率として計算し、前記確率結合部は、各葉ノードが表すクラスの各々について、前記確率計算部により前記事例セットの各々に対して計算された前記葉ノードが表すクラスに属する確率の総和を計算することにより、前記葉ノードが表すクラスに属する確率を結合することができる。
また、本発明のプログラムは、コンピュータを、上記のクラス分類装置を構成する各部として機能させるためのプログラムである。
以上説明したように、本発明のクラス分類装置、方法、及びプログラムによれば、既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、事例セットを予め定められた数だけ作成し、作成された事例セットの各々について、多クラス分類器を訓練し、訓練された多クラス分類器に基づいて、混同行列を作成し、混同行列に基づいて、複数のクラスを、階層的に分類し、クラス階層構造を作成し、内部ノード多クラス分類器を訓練し、訓練され内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、入力された分類対象となる事例に基づいて、事例セットの各々について訓練された階層型分類器を用いて、分類対象となる事例が、葉ノードが表すクラスの各々に属する確率を計算し、各葉ノードが表すクラスの各々について、葉ノードが表すクラスに属する確率を結合し、結合されたクラスに属する確率が最も高いクラスを、分類対象となる事例が属するクラスとして出力することにより、精度良く事例が属するクラスを分類することができる。
本発明の第1の実施の形態に係るクラス分類装置の機能的構成を示すブロック図である。 クラス階層構造の例を示す。 本発明の第1の実施の形態に係るクラス分類装置における階層型分類器訓練処理ルーチン示すフローチャート図である。 本発明の第1の実施の形態に係るクラス分類装置におけるクラス分類処理ルーチンを示すフローチャート図である。 本発明の第2の実施の形態に係るクラス分類装置の機能的構成を示すブロック図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態の原理>
まず、本発明の実施の形態の原理について説明する。本実施の形態においては、既知のデータから、ランダム分割により、サブ訓練事例集合と検証事例集合をN対生成し、各対に対し、サブ訓練事例集合と検証事例集合を基に、多数のクラスを、複数のクラス集合に、階層的に分割し、クラス階層を生成する。結果的に、N個のクラス階層が生成される。また、クラス階層の内部ノード(Inner Node)は、クラス集合に相当し、葉ノード(Leaf Node)は、単一のクラスに相当する。
また、各クラス階層において、各内部ノードに確率的な分類器を設定し、また、各クラス階層において、未知のデータを分類する際に、全ての内部ノードに設定した分類器に分類対象を入力し、各内部ノードに対し、分類対象が該内部ノードの各子ノード(Child Node)に属する確率を計算する。さらに、各クラス階層において、各葉ノードに対し、該葉ノードの全ての先祖ノード(Ancestor Node)が出力した確率を結合し、分類対象が該葉ノードに属する確率を計算する。そして、各単一のクラスに対し、N個のクラス階層から計算された、分類対象が該クラスに属する(N個の)確率を結合し、分類対象が該クラスに属する最終的な確率を計算し、最終的な確率が最大となるクラスを最終出力とする。
<本発明の第1の実施の形態に係るクラス分類装置の構成>
次に、本発明の第1の実施の形態に係るクラス分類装置の構成について説明する。図1に示すように、本発明の第1の実施の形態に係るクラス分類装置100は、CPUと、RAMと、後述する階層型分類器訓練処理ルーチン及びクラス分類処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このクラス分類装置100は、機能的には図1に示すように入力部10と、演算部20と、を備えている。
入力部10は、事例と事例が属するクラスを表すクラスラベルとの複数のペアからなる既知データを受け付ける。また、入力部10は、分類対象となる事例を受け付ける。なお、クラスラベルは、予め定められ、人手によって既知データの各事例に付与されているものとする。
演算部20は、事例分割部22と、事例セット記憶部24と、クラス階層構築部30と、階層型分類器訓練部40と、階層型分類器記憶部50と、確率計算部60と、確率結合部62と、出力部90とを含んで構成されている。
事例分割部22は、入力部10において受け付けた既知データについて、全事例をランダムにサブ訓練事例集合と検証事例集合とに分割する処理をN回行い、サブ訓練事例集合と前記検証事例集合とのペアである事例セットをN個作成し、事例セット記憶部24に記憶する。
事例セット記憶部24には、事例分割部22により作成されたN個の事例セットが記憶されている。
クラス階層構築部30は、事例セット記憶部24に記憶されているN個の事例セットの各々に基づいて、事例セット毎にクラス階層構造を作成する。また、クラス階層構築部30は、多クラス分類器訓練部32と、多クラス分類部34と、クラスタリング部36と、を備えている。
多クラス分類器訓練部32は、事例セット記憶部24に記憶されているN個の事例セット毎に、当該事例セットのサブ訓練事例集合に含まれる事例の各々と、当該事例のクラスラベルの各々とに基づいて、事例を複数のクラスのうちの何れか1つに分類するための多クラス分類器を訓練する。第1の実施の形態においては、線形カーネルや多項式カーネル等に基づくサポートベクターマシンを多クラス分類器として訓練する。
多クラス分類部34は、事例セット記憶部24に記憶されているN個の事例セット毎に、多クラス分類器訓練部32において訓練された当該事例セットの多クラス分類器に基づいて、当該事例セットの検証事例集合に含まれる事例の各々を分類した結果と、当該検証事例集合に含まれる事例の各々のクラスラベルの各々とに基づいて混同行列を作成する。具体的には、混同行列Mは、m×mのサイズを持ち、当該混同行列Mの各要素M(i,j)は、i番目のクラスcに属する事例がj番目のクラスcに分類されることを表し、下記(1)式によって定義される。
ここで、i番目のクラスcに属する事例の集合をDv(c)とし、クラスの総数をmとし、Pr(c|x)は、事例xがクラスcに属する確率であり、多クラス分類器であるサポートベクターマシンの分類結果f(c|x)を基に、下記(2)式によって計算する。なお、AとBとは、媒介変数であり、多クラス分類器であるサポートベクターマシンと、当該既知データに含まれる事例及びクラスラベルのペアの各々とに基づいて、最尤法によって計算する(非特許文献4:Hsuan-Tien Lin, Chih-Jen Lin, and Ruby C. Weng. A note on Platt's probabilistic outputs for support vector machines. Machine Learning, Vol. 68, No. 3, pp. 267-276,2007.)。
クラスタリング部36は、事例セット記憶部24に記憶されているN個の事例セット毎に、多クラス分類部34において作成された当該事例セットの混同行列に基づいて、階層クラスタリングを実施することにより、複数のクラスを階層的に分類し、分類されたクラスの集合を表す内部ノードの各々と、単一のクラスを表す葉ノードの各々とを含むノードの各々について、親子関係にあるノード間をエッジで結んだクラス階層構造を作成する。各内部ノードは、当該内部ノードにおけるすべての子ノードの和集合に相当する。図2にクラス階層構造の例を示す。なお、図2はクラス数が8である。また、図2中の点線の円は、葉ノード及び単一のクラスを表し、他のノードは、全て内部ノードを表す。
具体的には、まず、混同行列の各要素M(i,j)に基づいて、下記(3)式に従って、クラス間の距離D(i,j)の各々を計算し、距離行列Dを作成する。
そして、階層クラスタリングの一例である、最短距離法(Nearest Neighbor Method)に基づく凝集型階層的クラスタリング(Agglomerative Hierarchical Clustering)を駆使し、計算された距離行列Dに基づいて、二分木(Binary Tree)構造を持つクラス階層構造を作成する。
階層型分類器訓練部40は、事例セット記憶部24に記憶されているN個の事例セット毎に、クラスタリング部36において当該事例セットに対して作成したクラス階層構造に含まれる内部ノードの各々について、既知データに含まれる、内部ノードが表すクラスの集合に含まれるクラスの各々に属する事例の各々と、事例のクラスラベルの各々とに基づいて、事例を、内部ノードの子ノードである各内部ノードが表すクラスの集合のうちの何れか1つ、又は内部ノードの子ノードである各葉ノードが表すクラスのうちの何れか1つに分類するための内部ノード多クラス分類器を訓練し、訓練され内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、N個の事例セット毎の階層型分類器を階層型分類器記憶部50に記憶する。なお、階層型分類器は、当該クラス階層構造と同じ階層構造を持つ。また、内部ノードの各々について、内部ノード多クラス分類器を訓練する際に、当該内部ノードの各子ノードに対し、当該子ノードに相当するクラス集合を単一のクラスと見なす。また、上述したように、内部ノード多クラス分類器を訓練する際に、当該既知データに含まれる事例であって、当該内部ノードに含まれるクラスの各々に属する事例の各々を訓練事例集合とし、当該内部ノードに含まれるクラスの各々に属さない既知データに含まれる事例の各々は全てを無視する。
具体的には、内部ノードの各々に対し、当該内部ノードに含まれるクラスの各々に属する事例であって、かつ既知データに含まれる事例の各々を訓練事例とし、線形カーネルや多項式カーネル等に基づくサポートベクターマシンを内部ノード多クラス分類器とし、訓練する。なお、クラス階層構造が二分木構造であるため、各内部ノードの内部ノード多クラス分類器は、2クラス分類器となる。
確率計算部60は、入力部10において受け付けた分類対象となる事例に基づいて、階層型分類器記憶部50に記憶されている、事例セット毎に訓練されたN個の階層型分類器の各々に対し、当該階層型分類器を用いて、分類対象となる事例が、各葉ノードが表すクラスの各々に属する確率を計算する。当該確率を計算するには、階層型分類器におけるすべての内部ノードの内部ノード多クラス分類器で分類対象となる事例を分類し、各葉ノードについて、内部ノード毎に、分類対象となる事例が当該内部ノードの、当該葉ノードを子孫に持つ子ノードに属する条件付き確率を計算する。各葉ノードに対し、当該葉ノードの先祖ノードとなる全ての内部ノード毎に計算された条件付き確率を結合し、分類対象となる事例が、当該葉ノードが表すクラスに属する確率とする。
具体的には、事例セット毎に訓練された階層型分類器を用いて、葉ノードが表すクラスの各々について、クラス階層構造の当該葉ノードから根ノードまでに存在する内部ノードの各々について、当該内部ノードの内部ノード多クラス分類器に基づく、分類対象の事例がクラスを表す葉ノードを子孫に持つ内部ノード又はクラスを表す葉ノードに属する条件付き確率を計算し、計算した条件付き確率の各々の積を、葉ノードが表すクラスに属する確率として計算する。当該内部ノードの子ノードをvにし、当該内部ノードをPa(v)にし、事例xのクラスラベルをyにし、サポートベクターマシンの出力値をf(y∈v|x)とし、事例xがクラスyを表す葉ノードを子孫に持つ内部ノードv又はクラスyを表す葉ノードvに属する条件付き確率を、Pr(y∈v|y∈Pa(v),x)と表記し、下記(4)式に従って計算する。なお、AとBとは媒介変数であり、内部ノード多クラス分類器であるサポートベクターマシンと、既知データの事例及びクラスラベルのペアの各々とに基づいて最尤法によって計算する(非特許文献4)。
そして、各葉ノードcに対し、当該葉ノードの全ての先祖ノードを下記(5)式のように定義し、
分類対象である事例が当該葉ノードcに属する確率をPr(π(c)|x)と表記し、下記(6)式に従って、計算する。
ここで、vは根ノード、vは根ノードから葉ノードまでの全ての内部ノード又は葉ノードを表し、vは葉ノードを表し、v={c}であり、vk−1=Pa(v)である。また、π(c)は、葉ノードから根ノードまでのパスを表す。
確率結合部62は、各葉ノードが表すクラスの各々について、確率計算部60において階層型分類器毎に計算された、分類対象となる事例が当該クラスに属する確率の総和を計算し、結合する。具体的には、クラスcに対し、l番目の階層型分類器のクラス階層構造から計算された、分類対象となる事例が当該クラスに属する確率をPr(π(l)(c)|x)と表記すると、分類対象となる事例が当該クラスに属する最終確率Pr(π(c)|x)は、下記(7)式に従って計算される。
出力部90は、確率結合部62において結合された分類対象となる事例が各クラスに属する確率のうち、最も高い確率であるクラスを、分類対象となる事例が属するクラスとして出力する。
<本発明の第1の実施の形態に係るクラス分類装置の作用>
次に、本発明の第1の実施の形態に係るクラス分類装置100の作用について説明する。入力部10において既知データを受け付けると、クラス分類装置100は、図3に示す階層型分類器訓練処理ルーチンを実行する。また、階層型分類器訓練処理ルーチン終了後に、入力部10において分類対象である事例を受け付けると、図4に示すクラス分類装置は、クラス分類処理ルーチンを実行する。
まず、ステップS100では、入力部10において受け付けた既知データをN回ランダムに2つに分割し、N個の事例セットを作成し、事例セット記憶部24に記憶する。
次に、ステップS102では、ステップS100において取得した対象となる事例セットについて、当該事例セットに含まれるサブ訓練事例集合に基づいて、サポートベクターマシンを多クラス分類器として訓練する。
次に、ステップS104では、対象となる事例セットに含まれる検証事例集合と、ステップS102において取得した当該事例セットに対応する多クラス分類器とに基づいて、検証事例集合に含まれる検証事例の各々について、多クラス分類器による分類を行う。
次に、ステップS106では、ステップS104において取得した対象となる事例セットに含まれる検証事例の各々の分類結果に基づいて、上記(1)式及び(2)式に従って、混同行列を作成する。
次に、ステップS108では、ステップS106において取得した、当該対象となる事例セットの混同行列の各要素M(i,j)に基づいて、上記(3)式に従って、クラス間距離D(i,j)を計算し、距離行列Dを作成する。
次に、ステップS110では、ステップS108において取得した距離行列Dに基づいて、最短距離法に基づく凝集型階層的クラスタリングを駆使し、二分木(Binary Tree)構造を持つクラス階層構造を作成する。
次に、ステップS112では、ステップS110において取得したクラス階層構造と、既知データとに基づいて、当該クラス階層構造の各内部ノードに対する内部ノード多クラス分類器訓練することによって、当該クラス階層構造と同じ階層構造を持つ階層型分類器を取得する。
次に、ステップS114では、ステップS100において取得した全ての事例セットについて、ステップS102〜ステップS112の処理を終了したか否かを判定する。全ての事例セットについてステップS102〜ステップS112までの処理を終了している場合には、ステップS116へ移行し、全ての事例セットについてステップS102〜ステップS112の処理を終了していない場合には、処理対象となる事例セットを変更し、ステップS102〜ステップS114の処理を繰り返す。
ステップS116では、ステップS112において取得した事例セット各々の階層型分類器を、階層型分類器記憶部50に記憶し、階層型分類器訓練処理ルーチンを終了する。
次に、図4のクラス分類処理ルーチンについて詳細に説明する。
まず、ステップS200では、階層型分類器記憶部50に記憶されている事例セット毎の階層型分類器を読み込む。
次に、ステップS202では、入力部10において受け付けた分類対象となる事例と、ステップS200において取得した階層型分類器の各々とに基づいて、階層型分類器の各々に対し、当該階層型分類器を用いて、分類対象となる事例が、各葉ノードが表すクラスの各々に属する確率を上記(4)式〜(6)式に従って計算する。
次に、ステップS204では、各葉ノードが表すクラスの各々について、ステップS202において取得した階層型分類器毎に計算された、入力部10において受け付けた分類対象となる事例が、当該葉ノードが表すクラスに属する確率の総和を計算し、結合する。
次に、ステップS206では、ステップS204において取得した、各クラスに属する確率のうち、最も高い確率であるクラスを、分類対象となる事例の属するクラスとして決定する。
次に、ステップS208では、ステップS206において取得したクラスを分類結果として出力部90から出力して、クラス分類処理ルーチンを終了する。
以上説明したように、本発明の第1の実施の形態に係るクラス分類装置によれば、既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、事例セットを予め定められた数だけ作成し、作成された事例セットの各々について、サポートベクターマシンである多クラス分類器を訓練し、訓練された多クラス分類器に基づいて、混同行列を作成し、混同行列に基づいて、複数のクラスを、階層的に分類し、クラス階層構造を作成し、内部ノード多クラス分類器を訓練し、訓練され内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、入力された分類対象となる事例に基づいて、事例セットの各々について訓練された階層型分類器を用いて、分類対象となる事例が、葉ノードが表すクラスの各々に属する確率を計算し、各葉ノードが表すクラスの各々について、当該葉ノードが表すクラスに属する確率を結合し、結合されたクラスに属する確率が最も高いクラスを、分類対象となる事例が属するクラスとして出力することにより、精度良く事例が属するクラスを分類することができる。
また、未知データを分類する際に、上位レベルの分類器の分類結果を基に下位レベルのクラス集合の選択肢を制限するのではなく、未知データを全ての内部ノードの分類器で分類し、分類確率の伝搬を基に多クラス分類を実現するため、従来技術と比べて、誤差の伝搬に対してより頑健な階層的分類が可能となる。
また、ランダム分割によって多数のクラス階層を構築し、最後に分類確率を結合することによって、従来技術と比べて、過剰適合の影響にもより頑健な階層的分類が可能となる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、第1の実施の形態においては、多クラス分類器訓練部32においてサポートベクターマシンを分類器として訓練する場合について説明したが、これに限定されるものではなく、K近傍法(K-Nearest Neighbors Algorithm)、単純ベイズ分類器(Naive Bayes Classifier)、ニューラルネットワーク等を駆使してもよい。
また、第1の実施の形態においては、クラス階層構造を二分木構造として作成する場合について説明したが、これに限定されるものではない。例えば、四分木や八分木等の多分木構造としてクラス階層構造を作成してもよい。
また、第1の実施の形態においては、内部ノードの分類器、及び階層型分類器をサポートベクターマシンとする場合について説明したが、これに限定されるものではない。例えば、単純ベイズ分類器(Naive Bayes Classifier)、ニューラルネットワーク等を駆使してもよい。
次に、第2の実施の形態に係るクラス分類装置について説明する。
第2の実施の形態においては、クラス分類装置100の、多クラス分類部において混同行列を作成する方法が第1の実施の形態と異なる。なお、第1の実施の形態に係るクラス分類装置100と同様の構成及び作用については、同一の符号を付して説明を省略する。
<本発明の第2の実施の形態に係るクラス分類装置の構成>
次に、本発明の第2の実施の形態に係るクラス分類装置の構成について説明する。図5に示すように、本発明の第2の実施の形態に係るクラス分類装置200は、CPUと、RAMと、後述する階層型分類器訓練処理ルーチン及びクラス分類処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このクラス分類装置200は、機能的には図5に示すように入力部10と、演算部220と、を備えている。
演算部220は、事例分割部22と、事例セット記憶部24と、クラス階層構築部230と、階層型分類器記憶部50と、確率計算部60と、確率結合部62と、出力部90とを備えている。
クラス階層構築部230は、事例セット記憶部24に記憶されているN個の事例セットの各々に基づいて、事例セット毎にクラス階層構造を作成する。また、クラス階層構築部230は、多クラス分類器訓練部32と、多クラス分類部234と、クラスタリング部36と、を備えている。
多クラス分類部234は、事例セット記憶部24に記憶されているN個の事例セット毎に、多クラス分類器訓練部32において訓練された当該事例セットの多クラス分類器に基づいて、当該事例セットの検証事例集合に含まれる事例の各々を分類した結果と、当該検証事例集合に含まれる事例の各々のクラスラベルの各々とに基づいて混同行列を作成する。具体的には、混同行列Mは、m×mのサイズを持ち、当該混同行列Mの各要素M(i,j)は、i番目のクラスcに属する事例がj番目のクラスcに分類されることを表し、下記(8)式によって定義される。
ここで、cはi番目のクラスであり、yは事例xに付与されているクラスラベルであり、yΘは事例xを多クラス分類器で分類した際に分類されるクラスであり、mはクラスの総数である。また、Prは確率であり、例えば、Pr(yΘ=c|y=c,x)は、cに属する事例に占める、cに分類された事例の割合を表す。
なお、第2の実施の形態に係るクラス分類装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。
以上説明したように、本発明の第2の実施の形態に係るクラス分類装置によれば、既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、事例セットを予め定められた数だけ作成し、作成された事例セットの各々について、多クラス分類器を訓練し、訓練された多クラス分類器に基づいて、混同行列を作成し、混同行列に基づいて、複数のクラスを、階層的に分類し、クラス階層構造を作成し、内部ノード多クラス分類器を訓練し、訓練され内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、入力された分類対象となる事例に基づいて、事例セットの各々について訓練された階層型分類器を用いて、分類対象となる事例が、葉ノードが表すクラスの各々に属する確率を計算し、各葉ノードが表すクラスの各々について、葉ノードが表すクラスに属する確率を結合し、結合されたクラスに属する確率が最も高いクラスを、分類対象となる事例が属するクラスとして出力することにより、精度良く事例が属するクラスを分類することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、第2の実施の形態においては、多クラス分類器訓練部32においてサポートベクターマシンを多クラス分類器として訓練する場合について説明したが、これに限定されるものではなく、K近傍法(K-Nearest Neighbors Algorithm)、単純ベイズ分類器、ニューラルネットワーク等を駆使してもよい。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能であるし、ネットワークを介して提供することも可能である。
10 入力部
20 演算部
22 事例分割部
24 事例セット記憶部
30 クラス階層構築部
32 多クラス分類器訓練部
34 多クラス分類部
36 クラスタリング部
40 階層型分類器訓練部
50 階層型分類器記憶部
60 確率計算部
62 確率結合部
90 出力部
100 クラス分類装置
200 クラス分類装置
220 演算部
230 クラス階層構築部
234 多クラス分類部

Claims (6)

  1. 事例と前記事例が属するクラスを表すクラスラベルとの複数のペアからなる既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、前記サブ訓練事例集合と前記検証事例集合とのペアである事例セットを予め定められた数だけ作成する事例分割部と、
    前記事例分割部により作成された事例セットの各々について、前記事例セットの前記サブ訓練事例集合に含まれる前記事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を複数のクラスのうちの何れか1つに分類するための多クラス分類器を訓練する多クラス分類器訓練部と、
    前記事例分割部により作成された事例セットの各々について、前記多クラス分類器訓練部により訓練された多クラス分類器に基づいて、前記事例セットの前記検証事例集合に含まれる前記事例の各々を分類した結果の各々と、前記検証事例集合に含まれる前記事例の各々の前記クラスラベルの各々と、に基づいて、前記クラスのペアの各々についての、一方のクラスに属する事例が他方のクラスに分類されることを表す各要素からなる混同行列を作成する多クラス分類部と、
    前記事例分割部により作成された事例セットの各々について、前記多クラス分類部により作成された混同行列に基づいて、前記複数のクラスを、階層的に分類し、分類された前記クラスの集合を表す内部ノードの各々と、前記クラスを表す葉ノードの各々とを含むノードの各々について、親子関係にあるノード間をエッジで結んだクラス階層構造を作成するクラスタリング部と、
    前記事例分割部により作成された事例セットの各々について、前記クラスタリング部により作成されたクラス階層構造に含まれる前記内部ノードの各々について、前記既知データに含まれる、前記内部ノードが表す前記クラスの集合に含まれるクラスの各々に属する事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を、前記内部ノードの子ノードである各内部ノードが表す前記クラスの集合のうちの何れか1つ、又は前記内部ノードの子ノードである各葉ノードが表すクラスのうちの何れか1つに分類するための内部ノード多クラス分類器を訓練し、前記訓練され前記内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得する階層型分類器訓練部と、
    入力された分類対象となる事例に基づいて、前記階層型分類器訓練部により前記事例セットの各々について訓練された前記階層型分類器の各々に対し、前記階層型分類器を用いて、前記分類対象となる事例が、前記葉ノードが表すクラスの各々に属する確率を計算する確率計算部と、
    各葉ノードが表すクラスの各々について、前記確率計算部により前記階層型分類器の各々に対して計算された前記葉ノードが表すクラスに属する確率を結合する確率結合部と、
    前記確率結合部により結合された前記クラスに属する確率が最も高い前記クラスを、前記分類対象となる事例が属するクラスとして出力する出力部と、
    を含む、クラス分類装置。
  2. 前記多クラス分類部は、前記混同行列の各要素M(i,j)を、前記検証事例集合に含まれる前記クラスiに属する前記事例の数に対する、前記検証事例集合に含まれる前記クラスiに属する事例のうちの、前記クラスjに分類された事例の数の割合と、前記検証事例集合に含まれる前記クラスjに属する前記事例の数に対する、前記検証事例集合に含まれる前記クラスjに属する事例のうちの、前記クラスiに分類された事例の数の割合との和として作成する請求項1記載のクラス分類装置。
  3. 前記多クラス分類器訓練部は、サポートベクターマシンである多クラス分類器を訓練し、
    前記多クラス分類部は、前記混同行列の各要素M(i,j)の各々を、前記検証事例集合に含まれる前記クラスiに属する前記事例の各々についての、前記多クラス分類器訓練部によって訓練された多クラス分類器によりクラスiについて出力される値に基づいて計算される、前記事例がクラスiに属する確率の平均値と、前記検証事例集合に含まれる前記クラスjに属する前記事例の各々についての、前記多クラス分類器訓練部によって訓練された多クラス分類器によりクラスjについて出力される値に基づいて計算される、前記事例がクラスjに属する確率の平均値との和として作成する請求項1記載のクラス分類装置。
  4. 前記確率計算部は、前記階層型分類器訓練部により前記事例セットの各々について訓練された前記階層型分類器の各々に対し、前記階層型分類器を用いて、前記葉ノードが表すクラスの各々について、前記クラス階層構造の前記葉ノードから根ノードまでに存在する前記内部ノードの各々について、前記内部ノードの前記内部ノード多クラス分類器に基づく、前記分類対象の事例が前記クラスを表す葉ノードを子孫に持つ内部ノード又は前記クラスを表す葉ノードに属する条件付き確率を計算し、前記計算した前記条件付き確率の各々の積を、前記葉ノードが表すクラスに属する確率として計算し、
    前記確率結合部は、各葉ノードが表すクラスの各々について、前記確率計算部により前記事例セットの各々に対して計算された前記葉ノードが表すクラスに属する確率の総和を計算することにより、前記葉ノードが表すクラスに属する確率を結合する請求項1〜3の何れか1項記載のクラス分類装置。
  5. 事例分割部と、多クラス分類器訓練部と、多クラス分類部と、クラスタリング部と、階層型分類器訓練部と、確率計算部と、確率結合部と、出力部と、を含むクラス分類装置におけるクラス分類方法であって、
    前記事例分割部は、事例と前記事例が属するクラスを表すクラスラベルとの複数のペアからなる既知データをサブ訓練事例集合と検証事例集合とに分割する処理を予め定められた回数行い、前記サブ訓練事例集合と前記検証事例集合とのペアである事例セットを予め定められた数だけ作成し、
    前記事例分割部により作成された事例セットの各々について、
    前記多クラス分類器訓練部は、前記事例セットの前記サブ訓練事例集合に含まれる前記事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を複数のクラスのうちの何れか1つに分類するための多クラス分類器を訓練し、
    前記多クラス分類部は、前記多クラス分類器訓練部により訓練された多クラス分類器に基づいて、前記事例セットの前記検証事例集合に含まれる前記事例の各々を分類した結果の各々と、前記検証事例集合に含まれる前記事例の各々の前記クラスラベルの各々と、に基づいて、前記クラスのペアの各々についての、一方のクラスに属する事例が他方のクラスに分類されることを表す各要素からなる混同行列を作成し、
    前記クラスタリング部は、前記多クラス分類部により作成された混同行列に基づいて、前記複数のクラスを、階層的に分類し、分類された前記クラスの集合を表す内部ノードの各々と、前記クラスを表す葉ノードの各々とを含むノードの各々について、親子関係にあるノード間をエッジで結んだクラス階層構造を作成し、
    前記階層型分類器訓練部は、前記クラスタリング部により作成されたクラス階層構造に含まれる前記内部ノードの各々について、前記既知データに含まれる、前記内部ノードが表す前記クラスの集合に含まれるクラスの各々に属する事例の各々と、前記事例のクラスラベルの各々とに基づいて、事例を、前記内部ノードの子ノードである各内部ノードが表す前記クラスの集合のうちの何れか1つ、又は前記内部ノードの子ノードである各葉ノードが表すクラスのうちの何れか1つに分類するための内部ノード多クラス分類器を訓練し、前記訓練され前記内部ノードの各々についての内部ノード多クラス分類器からなる階層型分類器を取得し、
    前記確率計算部は、入力された分類対象となる事例に基づいて、前記階層型分類器訓練部により前記事例セットの各々について訓練された前記階層型分類器の各々に対し、前記階層型分類器を用いて、前記分類対象となる事例が、前記葉ノードが表すクラスの各々に属する確率を計算し、
    前記確率結合部は、各葉ノードが表すクラスの各々について、前記確率計算部により前記階層型分類器の各々に対して計算された前記葉ノードが表すクラスに属する確率を結合し、
    前記出力部は、前記確率結合部により結合された前記クラスに属する確率が最も高い前記クラスを、前記分類対象となる事例が属するクラスとして出力する
    クラス分類方法。
  6. コンピュータを、請求項1〜請求項4の何れか1項記載のクラス分類装置を構成する各部として機能させるためのプログラム。
JP2014146173A 2014-07-16 2014-07-16 クラス分類装置、方法、及びプログラム Active JP6163461B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014146173A JP6163461B2 (ja) 2014-07-16 2014-07-16 クラス分類装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014146173A JP6163461B2 (ja) 2014-07-16 2014-07-16 クラス分類装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016024503A true JP2016024503A (ja) 2016-02-08
JP6163461B2 JP6163461B2 (ja) 2017-07-12

Family

ID=55271244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014146173A Active JP6163461B2 (ja) 2014-07-16 2014-07-16 クラス分類装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6163461B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017146957A (ja) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化
KR101882743B1 (ko) * 2017-04-17 2018-08-30 인하대학교 산학협력단 콘볼루션 신경망 기반-계층적 특징 모델링을 이용한 효율적인 객체 검출 방법
CN108664927A (zh) * 2018-05-10 2018-10-16 林丽惠 基于全自动支持向量机的武夷岩茶叶片图像分类方法
CN110362677A (zh) * 2019-05-31 2019-10-22 平安科技(深圳)有限公司 文本数据类别的识别方法及装置、存储介质、计算机设备
CN111402383A (zh) * 2020-03-23 2020-07-10 中建八局科技建设有限公司 应用于Houdini的Revit模型处理方法
JP2020522077A (ja) * 2017-07-20 2020-07-27 北京三快在線科技有限公司Beijing Sankuai Online Technology Co.,Ltd. 画像特徴の取得
CN112088380A (zh) * 2018-06-07 2020-12-15 法弗人工智能有限公司 图像分割

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962793A (ja) * 1995-08-18 1997-03-07 Internatl Business Mach Corp <Ibm> 混同行列介在ワード予測
JPH11250100A (ja) * 1998-02-27 1999-09-17 Nec Corp 階層型文章分類装置およびプログラムを記録した機械読み取り可能な記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962793A (ja) * 1995-08-18 1997-03-07 Internatl Business Mach Corp <Ibm> 混同行列介在ワード予測
JPH11250100A (ja) * 1998-02-27 1999-09-17 Nec Corp 階層型文章分類装置およびプログラムを記録した機械読み取り可能な記録媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017146957A (ja) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化
KR101882743B1 (ko) * 2017-04-17 2018-08-30 인하대학교 산학협력단 콘볼루션 신경망 기반-계층적 특징 모델링을 이용한 효율적인 객체 검출 방법
JP2020522077A (ja) * 2017-07-20 2020-07-27 北京三快在線科技有限公司Beijing Sankuai Online Technology Co.,Ltd. 画像特徴の取得
US11282295B2 (en) 2017-07-20 2022-03-22 Beijing Sankuai Online Technology Co., Ltd Image feature acquisition
CN108664927A (zh) * 2018-05-10 2018-10-16 林丽惠 基于全自动支持向量机的武夷岩茶叶片图像分类方法
CN108664927B (zh) * 2018-05-10 2021-08-17 武夷学院 基于全自动支持向量机的武夷岩茶叶片图像分类方法
CN112088380A (zh) * 2018-06-07 2020-12-15 法弗人工智能有限公司 图像分割
CN110362677A (zh) * 2019-05-31 2019-10-22 平安科技(深圳)有限公司 文本数据类别的识别方法及装置、存储介质、计算机设备
CN111402383A (zh) * 2020-03-23 2020-07-10 中建八局科技建设有限公司 应用于Houdini的Revit模型处理方法
CN111402383B (zh) * 2020-03-23 2024-02-13 中建八局科技建设有限公司 应用于Houdini的Revit模型处理方法

Also Published As

Publication number Publication date
JP6163461B2 (ja) 2017-07-12

Similar Documents

Publication Publication Date Title
JP6163461B2 (ja) クラス分類装置、方法、及びプログラム
US9002101B2 (en) Recognition device, recognition method, and computer program product
US9805138B2 (en) Efficient calculation of all-pair path-based distance measures
JP6004016B2 (ja) 情報変換方法、情報変換装置および情報変換プログラム
JP6566397B2 (ja) 認識装置、実数行列分解方法、認識方法
JP2015158712A (ja) 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
JP6004015B2 (ja) 学習方法、情報処理装置および学習プログラム
CN112651418B (zh) 数据分类方法、分类器训练方法及系统
JP2016095640A (ja) 密度計測装置、密度計測方法、およびプログラム
Zhai et al. Direct 0-1 loss minimization and margin maximization with boosting
Mandlik et al. Mapping the internet: Modelling entity interactions in complex heterogeneous networks
Da San Martino et al. QCRI at SemEval-2016 Task 4: Probabilistic methods for binary and ordinal quantification
JP6259671B2 (ja) 関連性判定装置、関連性判定プログラム、及び関連性判定方法
US9792561B2 (en) Learning method, information conversion device, and recording medium
Li et al. A classifier fusion method based on classifier accuracy
Yellamraju et al. Benchmarks for image classification and other high-dimensional pattern recognition problems
Krishnaveni et al. Classifier fusion based on Bayes aggregation method for Indian sign language datasets
He Analysis of rare categories
JP7395396B2 (ja) 情報処理装置、情報処理方法およびプログラム
Baranwal et al. Weighted kernel deterministic annealing: A maximum-entropy principle approach for shape clustering
JP6973733B2 (ja) 特許情報処理装置、特許情報処理方法およびプログラム
Maddouri et al. Geometric Affinity Propagation for Clustering With Network Knowledge
Gupta et al. A Concept of A-KNN Clustering in Software Engineering
Moran Learning to hash for large scale image retrieval
Bögli Statistical vs. Structural Pattern Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6163461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150