JP2023123247A - Apparatus and method for classification and program - Google Patents
Apparatus and method for classification and program Download PDFInfo
- Publication number
- JP2023123247A JP2023123247A JP2022027215A JP2022027215A JP2023123247A JP 2023123247 A JP2023123247 A JP 2023123247A JP 2022027215 A JP2022027215 A JP 2022027215A JP 2022027215 A JP2022027215 A JP 2022027215A JP 2023123247 A JP2023123247 A JP 2023123247A
- Authority
- JP
- Japan
- Prior art keywords
- classification
- index
- information
- unit
- similar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013145 classification model Methods 0.000 claims abstract description 57
- 238000010801 machine learning Methods 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 44
- 238000010586 diagram Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 5
- 238000007621 cluster analysis Methods 0.000 claims description 4
- 238000000513 principal component analysis Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 description 23
- 238000012549 training Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 8
- 230000008439 repair process Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本発明は、分類装置、分類方法およびプログラムに関する。 The present invention relates to a classification device, a classification method and a program.
情報を分類するための方法として、近年ニューラルネットワークを使用したディープラーニングによる手法が用いられるようになっている。 As a method for classifying information, a method based on deep learning using a neural network has been used in recent years.
その中でも非特許文献1に示されているプロトタイプベースの手法は、その出力であるインデックスを用いることで、分類だけでなく類似情報の検索も行うことができ、AIの判断根拠となる類似事例を示すことができる手法として注目されている。プロトタイプベースの手法では、分類モデルは入力データをエンコーダ層によりインデックスに変換し、プロトタイプ層でインデックスと複数のプロトタイプとの距離を算出して、その距離をもとに出力層で分類を行う手法である。ここでプロトタイプとは、訓練データでの典型的なインデックスの値であり、訓練時に分類モデルのパラメータとして学習される。この構成により、入力データの内容が類似していて、かつ分類結果が同じ情報は、インデックスが近い値になるように学習される。 Among them, the prototype-based method shown in Non-Patent Document 1 can perform not only classification but also retrieval of similar information by using the index that is the output, and can find similar cases that serve as the basis for AI judgment. It is attracting attention as a method that can show In the prototype-based method, the classification model converts the input data into an index in the encoder layer, calculates the distance between the index and multiple prototypes in the prototype layer, and classifies in the output layer based on the distance. be. A prototype here is a typical index value in training data, and is learned as a parameter of a classification model during training. With this configuration, information with similar input data content and the same classification result is learned so that the index values are close to each other.
また、特許文献1に記載の技術は、テキストデータや時系列データなどの列データを入力データとできるようにプロトタイプベースの手法を改良したものであり、テキストで表現された情報の分類に適用することができる。 In addition, the technology described in Patent Document 1 is an improvement of the prototype-based method so that column data such as text data and time-series data can be used as input data, and is applied to the classification of information expressed in text. be able to.
これらの技術は、例えば訪問修理サービスにおける不具合の原因の分類に用いることができる。この場合、入力データとしては、例えば、商品の大まかな分類を表す商品品目や、商品を特定するための商品品番、不具合の大まかな分類を表す大分類、中分類などのコード、顧客が申し出た不具合の内容を表すテキストデータ、修理エンジニアが現場で確認した結果を表すテキストデータなどを用いる。これらを入力データとしてプロトタイプベースの手法を適用することで、不具合の原因を分類するとともに、インデックスにより類似事例を検索して、それらの事例の修理報告書を参照することで、適切な処置を行うことができる。 These techniques can be used, for example, to classify causes of defects in on-site repair services. In this case, the input data includes, for example, product items representing rough classifications of products, product product numbers for identifying products, codes such as major and middle classifications representing rough classifications of defects, and codes requested by customers. Text data representing the content of the defect, text data representing the results of on-site confirmation by a repair engineer, etc. are used. By applying a prototype-based method using these as input data, we classify the causes of failures, search for similar cases using an index, and refer to the repair reports of those cases to take appropriate measures. be able to.
インデックスによる類似事例の検索は、修理サービスでの利用にとどまらず、蓄積された修理サービスデータの品質分析を行う場面でも利点が期待される。修理サービスを提供する住設機器メーカでは、あるドメイン(たとえばある特定の商品品目)で発生した不具合について、他のドメイン(たとえば別の商品品目)でも類似事例がないか横断的に分析したいというニーズがある。 Searching for similar cases using an index is expected to be advantageous not only for use in repair services, but also for quality analysis of accumulated repair service data. A housing equipment manufacturer that provides repair services needs to cross-sectionally analyze whether there are similar cases in other domains (for example, different product items) for defects that occurred in one domain (for example, a specific product item). There is
しかしながら、従来の技術では、情報の属するドメインが異なる類似事例も検索できるようにインデックスを生成することが困難であるという課題があった。 However, with the conventional technology, there is a problem that it is difficult to generate an index so that similar cases to which information belongs to different domains can also be retrieved.
たとえば、非特許文献1や特許文献1に記載されている技術では、商品品目のコードも含めてすべての入力データをインデックスに変換するため、インデックスが商品品目の情報を含んでしまい、不具合の内容や原因が類似していても、商品品目が異なる場合にはインデックスが近い値にならない。そのため、従来の技術で生成されるインデックスでは、ドメイン(商品品目)が異なる類似事例を検索することは困難である。 For example, the technology described in Non-Patent Document 1 and Patent Document 1 converts all input data, including the product item code, into an index, so the index includes product item information, resulting in the content of the defect. Even if the factors and causes are similar, if the product items are different, the index values will not be close. Therefore, it is difficult to retrieve similar cases with different domains (merchandise items) with the index generated by the conventional technique.
本発明は、上記の課題を解決するためになされたものであり、情報の属するドメインが異なる類似事例も検索できるようにインデックスを生成することができる分類装置、分類方法およびプログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and provides a classification device, a classification method, and a program capable of generating an index so that similar cases with different domains to which information belongs can also be searched. aim.
本発明に係る分類装置の一例は、
分類対象情報を、複数の分類結果のいずれかに分類する分類装置であって、
前記分類装置は、分類モデル学習部および分類実行部を備え、
前記分類モデル学習部は、前記分類対象情報の属するドメインを表すドメインコードと、前記分類対象情報に関する属性情報と、前記分類対象情報が分類されるべき正解の分類結果を表す分類結果情報とに基づき、機械学習を行うことにより分類モデルを学習して、学習済みモデルを生成し、
前記分類モデルは、
前記属性情報の一部または全部に関する入力を受け付け、複数次元の数値ベクトルであるインデックスを出力する、エンコーダ層と、
前記機械学習により学習したプロトタイプと前記インデックスとの類似度を出力する、プロトタイプ層と、
前記ドメインコードおよび前記類似度に関する入力を受け付け、分類結果を出力する、出力層と、
前記インデックスに基づき前記ドメインコードを予測する、ドメインコード予測部と、
を備え、
前記分類モデル学習部は、前記機械学習において、敵対的学習を適用することにより、前記ドメインコード予測部による前記ドメインコードの予測誤差が最大化されるように機械学習を行い、
前記分類実行部は、前記ドメインコードおよび前記属性情報に基づき、前記学習済みモデルを用いて前記分類対象情報を分類する。
An example of the classification device according to the present invention is
A classification device that classifies classification target information into one of a plurality of classification results,
The classification device comprises a classification model learning unit and a classification execution unit,
The classification model learning unit is based on a domain code representing a domain to which the classification target information belongs, attribute information related to the classification target information, and classification result information representing a correct classification result to which the classification target information should be classified. , trains a classification model by performing machine learning to generate a trained model,
The classification model includes:
an encoder layer that receives an input regarding part or all of the attribute information and outputs an index that is a multi-dimensional numerical vector;
a prototype layer that outputs the similarity between the prototype learned by the machine learning and the index;
an output layer that receives inputs regarding the domain code and the similarity and outputs a classification result;
a domain code prediction unit that predicts the domain code based on the index;
with
The classification model learning unit performs machine learning by applying adversarial learning in the machine learning so that the domain code prediction error by the domain code prediction unit is maximized,
The classification execution unit classifies the classification target information using the trained model based on the domain code and the attribute information.
一例において、前記分類装置は、さらに、
前記エンコーダ層により出力された前記インデックスと、当該インデックスに対応する前記分類対象情報との関連をインデックステーブルに格納する、インデックス作成部と、
検索対象の前記分類対象情報に対するインデックスである検索対象インデックスおよび前記インデックステーブルに基づき、前記検索対象インデックスと値が類似するインデックスを類似インデックスとして取得し、前記類似インデックスに関連付けられた分類対象情報を出力する、類似情報検索部と、
を備える。
In one example, the classifier further comprises:
an index creation unit that stores, in an index table, a relationship between the index output by the encoder layer and the classification target information corresponding to the index;
Based on a search target index, which is an index for the classification target information to be searched, and the index table, an index whose value is similar to the search target index is obtained as a similar index, and the classification target information associated with the similar index is output. a similar information search unit;
Prepare.
一例において、前記類似情報検索部は、
ユークリッド距離が指定された閾値以下であること、または、
コサイン類似度が指定された閾値以上であること、
のいずれかを基準として、インデックスの値が類似しているかどうかを判定する。
In one example, the similar information search unit
the Euclidean distance is less than or equal to a specified threshold, or
that the cosine similarity is greater than or equal to a specified threshold;
is used as a reference to determine whether the index values are similar.
一例において、前記インデックスは3次元以上のベクトルであり、
前記類似情報検索部は、主成分分析またはt-SNEのいずれかの手法を用いて、前記類似インデックスを2次元のベクトルに次元圧縮し、前記2次元のベクトルを散布図により表示する。
In one example, the index is a vector of three or more dimensions,
The similarity information search unit dimensionally compresses the similarity index into a two-dimensional vector using either principal component analysis or t-SNE, and displays the two-dimensional vector as a scatter diagram.
一例において、前記類似情報検索部は、前記類似インデックスをクラスタ分析によりクラスタリングし、
前記散布図はバブルチャートを含み、前記バブルチャートは、クラスタの中心点およびクラスタに属する前記類似インデックスの数を、それぞれ円の中心点と円の大きさにより表す。
In one example, the similar information search unit clusters the similar indexes by cluster analysis,
The scatter chart includes a bubble chart, and the bubble chart represents the center point of a cluster and the number of similar indices belonging to the cluster by the center point of a circle and the size of the circle, respectively.
本発明に係る分類方法は、分類対象情報を、複数の分類結果のいずれかに分類する分類方法であって、上述の分類装置によって実行される。 A classification method according to the present invention is a classification method for classifying classification target information into one of a plurality of classification results, and is executed by the classification device described above.
本発明に係るプログラムは、コンピュータを、上述の分類装置として機能させる。 A program according to the present invention causes a computer to function as the above-described classification device.
本発明に係る分類装置、分類方法およびプログラムによれば、情報の属するドメインが異なる類似事例も検索できるようにインデックスを生成することができる。 INDUSTRIAL APPLICABILITY According to the classification device, classification method, and program of the present invention, an index can be generated so that similar cases to which information belongs to different domains can also be retrieved.
以下、本発明の実施形態を添付図面に基づいて説明する。
[実施形態1]
図1に、本発明の実施形態1に係る分類装置10の構成を示す。分類装置10は、本明細書に記載される情報の分類方法を実行することにより、分類対象情報を、複数の分類結果のいずれかに分類する装置である。分類対象情報は、本実施形態では商品の不具合報告であるが、変形例として様々な情報とすることができる。具体例として、画像、心電図等の時系列データ、テキストデータ、等に応用が可能である。
An embodiment of the present invention will be described below with reference to the accompanying drawings.
[Embodiment 1]
FIG. 1 shows the configuration of a
分類装置10は、公知のコンピュータとしてのハードウェア構成を有し、たとえば記憶部20および処理部30を備える。記憶部20はたとえば半導体メモリ装置および磁気ディスク装置等の記憶媒体を含む。記憶媒体の一部または全部が、過渡的でない(non-transitory)記憶媒体であってもよい。処理部30はたとえばプロセッサを含む。
The
また、分類装置10は図示しない入出力手段を備えてもよい。入出力手段は、たとえばキーボードおよびマウス等の入力装置と、ディスプレイおよびプリンタ等の出力装置と、ネットワークインタフェース等の通信装置とを含む。
The
記憶部20は、分類対象情報テーブル21、分類結果テーブル22、訓練データテーブル23、学習済み分類モデル24およびインデックステーブル25を記憶する。処理部30は、分類モデル学習部31、分類実行部32、インデックス作成部33および類似情報検索部34として機能する。
The
記憶部20は、図示しないプログラムを記憶してもよい。プロセッサがこのプログラムを実行することにより、分類装置10は本明細書において説明される機能を実行してもよい。すなわち、このプログラムは、コンピュータを分類装置10として(より具体的には、プロセッサを、分類モデル学習部31、分類実行部32、インデックス作成部33および類似情報検索部34として)機能させるものであってもよい。
The
図2に、分類対象情報テーブル21の構成例を示す。分類対象情報テーブル21は、分類対象情報である不具合報告のそれぞれについて、その不具合報告を識別する情報(情報ID)に、その不具合報告に関する情報を関連付けて格納する。 FIG. 2 shows a configuration example of the classification target information table 21. As shown in FIG. The classification target information table 21 stores, for each defect report, which is classification target information, associated information (information ID) for identifying the defect report with information related to the defect report.
不具合報告に関する情報は、ドメインコードおよび属性情報を含む。ドメインコードは、その不具合報告の属する大まかな分類であるところのドメインを表す。本実施形態では、ドメインとは、不具合報告に係る商品の品目であるが、変形例において、ドメインは当業者が適宜定義可能である。 Information related to bug reports includes domain codes and attribute information. The domain code represents a domain that is a rough classification to which the bug report belongs. In this embodiment, the domain is the product item related to the defect report, but in a modification, the domain can be appropriately defined by those skilled in the art.
属性情報は、不具合報告に関する情報であってドメインコードとは異なるものであればとくに制限はないが、本実施形態では、商品の品番と、不具合の大分類と、不具合の中分類と、顧客の申し出内容を表すテキストデータと、作業員による不具合の確認結果を表すテキストデータとを含む。 The attribute information is not particularly limited as long as it is information related to the defect report and is different from the domain code. It contains text data representing the content of the offer and text data representing the results of confirmation of the defect by the worker.
図3に、分類結果テーブル22の構成例を示す。分類結果テーブル22は、不具合報告のそれぞれについて、その不具合報告の情報IDに、その不具合報告の分類結果を関連付けて格納する。分類結果は、本実施形態では不具合の原因を表すコードであるが、変形例において、当業者が適宜定義可能である。この分類結果は、たとえば人間により指定された適切なものであり、機械学習の際には、分類対象情報が分類されるべき正解の分類結果を表す分類結果情報として用いることができる。また、後述するように、分類モデル学習部31によって分類が行われた後には、その分類結果を含んでもよい。
FIG. 3 shows a configuration example of the classification result table 22. As shown in FIG. The classification result table 22 stores each trouble report in association with the information ID of the trouble report and the classification result of the trouble report. The classification result is a code representing the cause of the problem in this embodiment, but can be defined as appropriate by those skilled in the art in the modification. This classification result is, for example, an appropriate one specified by a human, and can be used as classification result information representing a correct classification result to which the classification target information should be classified in machine learning. Further, as will be described later, after the classification is performed by the classification
図4に、訓練データテーブル23の構成例を示す。訓練データテーブル23は、不具合のそれぞれについて、その不具合報告の情報IDに、その不具合報告のドメインコード、その不具合報告の属性情報、その不具合報告の分類結果、等を関連付けて格納する。ドメインコードおよび属性情報は、図2の分類対象情報テーブル21のものと同一とすることができ、分類結果は、図3の分類結果テーブル22のものと同一とすることができる。 FIG. 4 shows a configuration example of the training data table 23. As shown in FIG. The training data table 23 stores, for each defect, the information ID of the defect report in association with the domain code of the defect report, the attribute information of the defect report, the classification result of the defect report, and the like. The domain code and attribute information can be the same as those in the classification target information table 21 in FIG. 2, and the classification results can be the same as in the classification result table 22 in FIG.
分類装置10の分類モデル学習部31は、訓練データテーブル23に基づいて機械学習を行うことにより分類モデルを学習し、学習済みモデルとして、学習済み分類モデル24を生成する。この際の具体的な処理については、図7等を用いて後述する。
A classification
図5に、インデックステーブル25の構成例を示す。インデックステーブル25は、不具合報告のそれぞれについて、その不具合報告の情報IDに、その不具合報告のインデックスを関連付けて格納する。インデックスは、不具合報告の属性情報の一部または全部を入力として、後述するエンコーダ層42が出力する、複数次元(好ましくは多次元)の数値ベクトルであり、要素として、インデックス要素1、インデックス要素2、インデックス要素3、等を含む。
FIG. 5 shows a configuration example of the index table 25. As shown in FIG. The index table 25 stores each defect report in association with the information ID of the defect report and the index of the defect report. The index is a multi-dimensional (preferably multi-dimensional) numeric vector that is output by the
図6は、分類装置10の動作の例を示すフローチャートである。このフローチャートは、分類装置10が実行する情報の分類方法を表す。
FIG. 6 is a flow chart showing an example of the operation of the
まず分類装置10の分類モデル学習部31は、分類モデルの学習を実行する(ステップS1)。この時点で、分類対象情報テーブル21および分類結果テーブル22は記憶部20に記憶されているものとする。
First, the classification
図7に、ステップS1の詳細例を示す。ステップS1において、まず分類モデル学習部31は、分類対象情報テーブル21および分類結果テーブル22を、情報IDをキーとして内部結合により連結し、訓練データテーブル23に格納する(ステップS11)。このようにして訓練データテーブル23が生成される。
FIG. 7 shows a detailed example of step S1. In step S1, the classification
次に、分類モデル学習部31は、訓練データテーブル23のデータに基づき、分類モデルを学習する(ステップS12)。これについて、以下、具体的に説明する。
Next, the classification
図8に、分類モデル学習部31の構成例を示す。分類モデル学習部31は、プロトタイプベースのニューラルネットワークを機械学習により学習する。とくに、敵対的学習により、ドメインコードの予測誤差が最大になるようにインデックスを学習し、インデックスにドメイン特有の情報が含まれることを防ぐ。そして、プロトタイプ層の出力である類似度ベクトルに、ドメインコードに対応するベクトルを付加(連結)して出力層に入力することにより、分類対象情報を分類する。
FIG. 8 shows a configuration example of the classification
分類モデル学習部31が学習する分類モデルは、埋め込み層41と、エンコーダ層42と、プロトタイプ層43と、出力層44と、ドメインコード予測部45とを備える。
The classification model learned by the classification
埋め込み層41は、分類対象情報に含まれるドメインコードおよび属性情報を入力として受け付け、複数の数値ベクトルを出力する。本実施形態では、ドメインコード(商品品目)に対応するベクトルv1、商品品番に対応するベクトルv2、不具合の大分類に対応するベクトルv3、不具合の中分類に対応するベクトルv4、顧客の申し出に含まれる単語1~nに対応するベクトルv5~vn+4、確認結果に含まれる単語’1~mに対応するベクトルvn+5~vn+m+4が出力される。
The embedding
ドメインコード等のコードをベクトルに変換する具体的処理は、当業者が公知技術等に基づいて適宜設計することができる。また、テキストデータを単語に分割する具体的処理および各単語をベクトルに変換する具体的処理も、当業者が公知技術等に基づいて適宜設計することができる。 Specific processing for converting a code such as a domain code into a vector can be appropriately designed by those skilled in the art based on known techniques. Further, a specific process of dividing text data into words and a specific process of converting each word into a vector can also be appropriately designed by those skilled in the art based on known techniques.
エンコーダ層42は、埋め込み層41が生成したベクトルのうち、属性情報に対応するベクトルの一部または全部に基づき、インデックスを生成する。本実施形態では、顧客の申し出および確認結果に対応するベクトルを用いているが、どのベクトルを用いるかは当業者が適宜設計可能であり、たとえば全部のベクトルを用いてもよい。ただし、ドメインコードに対応するベクトルは用いず、属性情報に対応するベクトルのみを用いる。エンコーダ層42は、たとえば複数の層42aを含むリカレントニューラルネットワーク(RNN)を用いて構成することができるが、これに限らない。
The
このように、エンコーダ層42は、属性情報の一部または全部に関する入力を受け付け、インデックスを出力する。
Thus, the
プロトタイプ層43は、パラメータとしてプロトタイプp1~pk(ただしkは1以上)を保持している。各プロトタイプは、インデックスと同じ次元のベクトルである。プロトタイプは、訓練データテーブル23のデータに基づき、分類モデル学習部31が行う機械学習により、分類モデルのパラメータの一部として学習される。その結果、各プロトタイプは、訓練データテーブル23に含まれる不具合報告に対する典型的なインデックスの値となるように学習される。この際の機械学習の具体的な処理は、特許文献1および非特許文献1を含む公知技術等に基づき、当業者が適宜設計可能である。
The
プロトタイプ層43は、プロトタイプp1~pkのそれぞれと、エンコーダ層42から出力されるインデックスとの類似度を計算して出力する。
The
類似度の定義は、当業者が適宜設計可能であるが、たとえば、ベクトル間のユークリッド距離を類似度として用いることができ、または、ベクトル間のコサイン類似度を類似度として用いることもできる。このような手法を用いると、インデックスと1つのプロトタイプとの類似度が1つのスカラー値として計算されるので、すべて(k個)の類似度を連結してk次元の類似度ベクトルを生成することができる。 The definition of similarity can be appropriately designed by those skilled in the art. For example, Euclidean distance between vectors can be used as similarity, or cosine similarity between vectors can also be used as similarity. Using such an approach, the similarity between the index and one prototype is computed as a single scalar value, so all (k) similarities are concatenated to generate a k-dimensional similarity vector. can be done.
出力層44は、埋め込み層41から出力されるドメインコード(商品品目)に対応するベクトルv1と、属性情報に対応するベクトルの一部と、類似度ベクトルとを含む入力を受け付け、分類結果として不具合の原因を出力する。出力層44は、たとえば複数の層44aを含むRNNを用いて構成することができるが、これに限らない。RNNを用いる場合には、ドメインコード等に対応するベクトルv1~v4を、類似度ベクトルに連結して入力することができる。
The
不具合の原因は、たとえば図3の分類結果テーブル22に示すようなコードによって表される。出力層44の出力(たとえばベクトル)をコードに変換する具体的処理は、当業者が適宜設計することができるが、一例を以下に説明する。まず、複数の分類結果にそれぞれ番号を付与しておく。そして、複数の分類結果のそれぞれについて、分類対象情報がその分類結果に分類される確率を表す値を要素として含むベクトルを、出力層44が生成する。すなわち、分類結果を表すコードの取り得る値がq種類である場合には、出力層44はq次元のベクトルを生成する。そして、このq次元のベクトルの要素のうち最大の値を持つ要素に対応する分類結果を、出力層44による出力とする。
The cause of failure is represented by a code as shown in the classification result table 22 of FIG. 3, for example. A person skilled in the art can appropriately design a specific process for converting the output (for example, vector) of the
ここで、出力層44の入力は、ドメインコードに対応するベクトルv1および類似度ベクトルを含む。このように、出力層44は、ドメインコードおよび類似度に関する入力を受け付け、分類結果を出力するということができる。
Here, the input of the
ドメインコード予測部45は、インデックスに基づいてドメインコードを予測する。ドメインコード予測部45は、たとえば複数の全結合層を含むニューラルネットワークを用いて構成することができるが、これに限らない。 A domain code prediction unit 45 predicts a domain code based on the index. The domain code prediction unit 45 can be configured using, for example, a neural network including a plurality of fully connected layers, but is not limited to this.
分類モデル学習部31は、出力層44が出力した分類結果と、ドメインコード予測部45が出力したドメインコードとに基づいて、機械学習を行うことにより分類モデルを学習する。ここで、分類モデル学習部31は、出力された分類結果と、訓練データテーブル23においてその分類対象情報に関連付けられた分類結果との誤差が最小化されるように、かつ、出力されたドメインコードと、訓練データテーブル23においてその分類対象情報に関連付けられたドメインコードとの誤差が最大化されるように、分類モデルのパラメータを更新する。
The classification
すなわち、分類モデル学習部31は、敵対的学習を適用することにより、ドメインコード予測部45によるドメインコードの予測誤差が最大化されるように機械学習を行う。この敵対的学習により、インデックスにドメイン特有の情報が含まれるのを防ぐことが可能となり、分類対象情報の属するドメインが異なる類似事例も検索できるようなインデックスを生成することができる。
That is, the classification
また、分類モデル学習部31は、このような敵対的学習と並行して、ドメインコードと、属性情報と、正解の分類結果を表す分類結果情報とに基づき、機械学習を行うことにより分類モデルを学習する。分類モデル学習部31は、このような2通りの機械学習を並行して行うことにより、学習済み分類モデル24を生成する。
Further, in parallel with such hostile learning, the classification
学習の際の具体的な誤差伝搬演算は、当業者が適宜設計することができる。たとえば、エンコーダ層42の学習については、ドメインコード予測部45の入力層の前にGRL(Gradient Reversal Layer)を配置しておき、出力層44から逆伝搬される誤差と、ドメインコード予測部45から逆伝搬される誤差(GRLによって勾配が逆転されたもの)とを、それぞれ最小化するように学習してもよい。
A person skilled in the art can appropriately design specific error propagation calculations during learning. For example, for the learning of the
以上のようにして、分類モデル学習部31は学習済み分類モデル24を生成する。なお、学習が完了した学習済み分類モデル24は、学習前の分類モデルと同様の層構造を有するものとすることができるが、ドメインコード予測部45を省略したものであってもよい。
As described above, the classification
このようにしてステップS12(図7)が終了する。次に、分類モデル学習部31は、学習済み分類モデル24を、記憶部20に格納する(ステップS13)。これによってステップS1(図6)が終了する。
Thus, step S12 (FIG. 7) ends. Next, the classification
ステップS1の後、分類実行部32が分類を実行する(ステップS2)。すなわち、分類実行部32は、新たに入力される分類対象情報に含まれるドメインコードおよび属性情報に基づき、学習済み分類モデル24を用いて分類結果を予測することにより、分類対象情報を分類する。
After step S1, the
図9に、ステップS2の詳細例を示す。ステップS2において、まず分類実行部32は、分類装置10のユーザが指定した分類対象情報(たとえば、新たに入力される分類対象情報であってもよいし、新たな分類対象情報テーブル21におけるレコードの1つであってもよい)を入力として、学習済み分類モデル24を用いて分類を実行する(ステップS21)。
FIG. 9 shows a detailed example of step S2. In step S2, first, the
次に、分類実行部32は、学習済み分類モデル24の出力層により出力された分類結果を、入力された分類対象情報の情報IDに関連付けて、分類結果テーブル22に格納する(ステップS22)。このようにしてステップS2が終了する。
Next, the
図6に示すように、ステップS2の後、インデックス作成部33がインデックステーブル25を生成する(ステップS3)。
As shown in FIG. 6, after step S2, the
図10に、ステップS3の詳細例を示す。ステップS3において、まずインデックス作成部33は、すべての分類対象情報(たとえば新たな分類対象情報テーブル21のレコードすべて)を入力として、学習済み分類モデル24を用いて分類を実行する(ステップS31)。
FIG. 10 shows a detailed example of step S3. In step S3, the
次に、インデックス作成部33は、学習済み分類モデル24のエンコーダ層42により出力されたインデックスと、そのインデックスに対応する元の分類対象情報との関連を、インデックステーブル25に格納する(ステップS32)。このようにしてステップS3が終了する。
Next, the
図6に示すように、ステップS3の後、類似情報検索部34が類似情報の検索を行う(ステップS4)。
As shown in FIG. 6, after step S3, the similar
図11に、ステップS4の詳細例を示す。ステップS4において、まず類似情報検索部34は、特定のインデックス(以下では「検索対象インデックス」と呼ぶ)を取得する(ステップS41)。検索対象インデックスは、たとえば、ユーザが指定した分類対象情報について、その情報IDをキーとして、インデックステーブル25を参照することにより取得されるが、これ以外の方法で指定または取得されるものであってもよい。
FIG. 11 shows a detailed example of step S4. In step S4, first, the similar
次に、類似情報検索部34は、検索対象インデックスと、インデックステーブル25とに基づき、インデックステーブル25のうちから、検索対象インデックスと値が類似するインデックスを特定する(ステップS42)。ここで特定されるインデックスを、以下では「類似インデックス」と呼ぶ。類似インデックスは複数であってもよい。
Next, based on the search target index and the index table 25, the similar
次に、類似情報検索部34は、取得した類似インデックスに関連付けられた情報IDをキーとして、分類対象情報テーブル21を参照し、対応する分類対象情報を取得し、これを検索結果として出力する(ステップS43)。
Next, the similar
ここで、上述の敵対的学習により、インデックスにドメイン特有の情報が含まれるのを防ぐことが可能となり、検索対象の情報とは異なるドメインに属する類似事例も検索することができる。 Here, the above-described adversarial learning makes it possible to prevent domain-specific information from being included in the index, and it is possible to search for similar cases belonging to a domain different from the information to be searched.
類似情報検索部34による類似判定処理は、当業者が適宜設計することができるが、たとえば、検索対象インデックスと、インデックステーブル25の各インデックスとのユークリッド距離が指定された閾値以下であることを基準として、インデックスの値が類似しているかどうかを判定してもよい。または、類似情報検索部34は、検索対象インデックスと、インデックステーブル25の各インデックスとのコサイン類似度が指定された閾値以上であることを基準として、インデックスの値が類似しているかどうかを判定してもよい。
The similarity determination process by the similar
とくに図示しないが、類似情報検索部34は、類似インデックスを散布図により表示してもよい。散布図はたとえば2次元で表される。とくに、インデックスが3次元以上のベクトルである場合には、類似情報検索部34は類似インデックスを2次元のベクトルに次元圧縮し、2次元のベクトルを散布図により表示してもよい。次元圧縮の具体的処理は当業者が適宜設計することができるが、たとえば主成分分析の手法を用いてもよいし、t-SNE(t-distributed Stochastic Neighbor Embedding)の手法を用いてもよい。
Although not shown, the similarity
このような2次元の散布図を用いることにより、ユーザは、類似検索の結果をより容易に把握することができる。 By using such a two-dimensional scatter diagram, the user can more easily understand the similarity search results.
また、とくに図示しないが、類似情報検索部34は、類似インデックスをクラスタ分析によりクラスタリングしてもよい。クラスタ分析の具体的処理は当業者が適宜設計可能である。クラスタリングの結果は上述の散布図として表示することができる。たとえば、散布図はバブルチャートを含んでもよい。バブルチャートは、クラスタの中心点およびクラスタに属する類似インデックスの数を、それぞれ円の中心点(たとえば2次元座標によって表される)と円の大きさ(たとえば半径または面積によって表される)により表してもよい。
Moreover, although not shown, the similarity
このようなバブルチャートを用いることにより、分類装置10の使用者は、類似検索の結果をさらに容易に把握することができる。
By using such a bubble chart, the user of the
分類モデルの具体的な構造は、図8に示すものに限らない。当業者は、特許文献1および非特許文献1を含む公知技術等に基づき、適宜変更を加えることができる。 The specific structure of the classification model is not limited to that shown in FIG. Those skilled in the art can make appropriate modifications based on known techniques including Patent Document 1 and Non-Patent Document 1.
10…分類装置
20…記憶部
21…分類対象情報テーブル
22…分類結果テーブル
23…訓練データテーブル
24…学習済み分類モデル
25…インデックステーブル
30…処理部
31…分類モデル学習部
32…分類実行部
33…インデックス作成部
34…類似情報検索部
41…埋め込み層
42…エンコーダ層
43…プロトタイプ層
44…出力層
45…ドメインコード予測部
REFERENCE SIGNS
Claims (7)
前記分類装置は、分類モデル学習部および分類実行部を備え、
前記分類モデル学習部は、前記分類対象情報の属するドメインを表すドメインコードと、前記分類対象情報に関する属性情報と、前記分類対象情報が分類されるべき正解の分類結果を表す分類結果情報とに基づき、機械学習を行うことにより分類モデルを学習して、学習済みモデルを生成し、
前記分類モデルは、
前記属性情報の一部または全部に関する入力を受け付け、複数次元の数値ベクトルであるインデックスを出力する、エンコーダ層と、
前記機械学習により学習したプロトタイプと前記インデックスとの類似度を出力する、プロトタイプ層と、
前記ドメインコードおよび前記類似度に関する入力を受け付け、分類結果を出力する、出力層と、
前記インデックスに基づき前記ドメインコードを予測する、ドメインコード予測部と、
を備え、
前記分類モデル学習部は、前記機械学習において、敵対的学習を適用することにより、前記ドメインコード予測部による前記ドメインコードの予測誤差が最大化されるように機械学習を行い、
前記分類実行部は、前記ドメインコードおよび前記属性情報に基づき、前記学習済みモデルを用いて前記分類対象情報を分類する、
分類装置。 A classification device that classifies classification target information into one of a plurality of classification results,
The classification device comprises a classification model learning unit and a classification execution unit,
The classification model learning unit is based on a domain code representing a domain to which the classification target information belongs, attribute information related to the classification target information, and classification result information representing a correct classification result to which the classification target information should be classified. , trains a classification model by performing machine learning to generate a trained model,
The classification model includes:
an encoder layer that receives an input regarding part or all of the attribute information and outputs an index that is a multi-dimensional numerical vector;
a prototype layer that outputs the similarity between the prototype learned by the machine learning and the index;
an output layer that receives input regarding the domain code and the similarity and outputs a classification result;
a domain code prediction unit that predicts the domain code based on the index;
with
The classification model learning unit performs machine learning by applying adversarial learning in the machine learning so that the domain code prediction error by the domain code prediction unit is maximized,
The classification execution unit classifies the classification target information using the trained model based on the domain code and the attribute information.
Classifier.
前記エンコーダ層により出力された前記インデックスと、当該インデックスに対応する前記分類対象情報との関連をインデックステーブルに格納する、インデックス作成部と、
検索対象の前記分類対象情報に対するインデックスである検索対象インデックスおよび前記インデックステーブルに基づき、前記検索対象インデックスと値が類似するインデックスを類似インデックスとして取得し、前記類似インデックスに関連付けられた分類対象情報を出力する、類似情報検索部と、
を備える、請求項1に記載の分類装置。 The classification device further comprises:
an index creation unit that stores, in an index table, a relationship between the index output by the encoder layer and the classification target information corresponding to the index;
Based on a search target index, which is an index for the classification target information to be searched, and the index table, an index whose value is similar to the search target index is obtained as a similar index, and the classification target information associated with the similar index is output. a similar information search unit;
2. The classifier of claim 1, comprising:
ユークリッド距離が指定された閾値以下であること、または、
コサイン類似度が指定された閾値以上であること、
のいずれかを基準として、インデックスの値が類似しているかどうかを判定する、請求項2に記載の分類装置。 The similar information search unit is
the Euclidean distance is less than or equal to a specified threshold, or
that the cosine similarity is greater than or equal to a specified threshold;
3. The classification device according to claim 2, wherein it is determined whether or not the index values are similar based on any of .
前記類似情報検索部は、主成分分析またはt-SNEのいずれかの手法を用いて、前記類似インデックスを2次元のベクトルに次元圧縮し、前記2次元のベクトルを散布図により表示する、
請求項2または3に記載の分類装置。 the index is a vector of three or more dimensions;
The similarity information search unit uses either principal component analysis or t-SNE to dimensionally compress the similarity index into a two-dimensional vector, and displays the two-dimensional vector as a scatter diagram.
4. A sorting device according to claim 2 or 3.
前記散布図はバブルチャートを含み、前記バブルチャートは、クラスタの中心点およびクラスタに属する前記類似インデックスの数を、それぞれ円の中心点と円の大きさにより表す、
請求項4に記載の分類装置。 The similar information search unit clusters the similar indexes by cluster analysis,
The scatter diagram includes a bubble chart, wherein the bubble chart represents the center point of a cluster and the number of similar indices belonging to the cluster by the center point of a circle and the size of the circle, respectively.
5. A sorting device according to claim 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022027215A JP2023123247A (en) | 2022-02-24 | 2022-02-24 | Apparatus and method for classification and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022027215A JP2023123247A (en) | 2022-02-24 | 2022-02-24 | Apparatus and method for classification and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023123247A true JP2023123247A (en) | 2023-09-05 |
Family
ID=87885793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022027215A Pending JP2023123247A (en) | 2022-02-24 | 2022-02-24 | Apparatus and method for classification and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023123247A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102638384B1 (en) * | 2023-09-07 | 2024-02-20 | 주식회사 포딕스시스템 | 3-Dimensional moving object detecting apparatus using stationary lidar and method thereof |
-
2022
- 2022-02-24 JP JP2022027215A patent/JP2023123247A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102638384B1 (en) * | 2023-09-07 | 2024-02-20 | 주식회사 포딕스시스템 | 3-Dimensional moving object detecting apparatus using stationary lidar and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10127477B2 (en) | Distributed event prediction and machine learning object recognition system | |
Guidotti et al. | Explaining any time series classifier | |
Cao et al. | Domain-driven, actionable knowledge discovery | |
CN111143838B (en) | Database user abnormal behavior detection method | |
US20210133630A1 (en) | Model induction method for explainable a.i. | |
US20030037015A1 (en) | Methods and apparatus for user-centered similarity learning | |
US20220121823A1 (en) | System and method for artificial intelligence driven document analysis, including searching, indexing, comparing or associating datasets based on learned representations | |
Bhartiya et al. | Employee attrition prediction using classification models | |
Fu et al. | Multiple instance learning for group record linkage | |
JP2023532639A (en) | Obtaining Compact Representations and Time Series Segments with Deep Learning | |
US20220121942A1 (en) | Method and system for cognitive information processing using representation learning and decision learning on data | |
Yan et al. | A comprehensive survey of deep transfer learning for anomaly detection in industrial time series: Methods, applications, and directions | |
JP2023123247A (en) | Apparatus and method for classification and program | |
Jin et al. | DAKA: design activity knowledge acquisition through data-mining | |
Rao et al. | A novel feature-based SHM assessment and predication approach for robust evaluation of damage data diagnosis systems | |
Kraeva et al. | Application of the metric learning for security incident playbook recommendation | |
Stein et al. | Applying data science for shop-floor performance prediction | |
Ashtaiwi | Artificial intelligence is transforming the world development indicators | |
Punjabi et al. | Forensic Intelligence-Combining Artificial Intelligence with Digital Forensics | |
Tamura et al. | Time series classification using macd-histogram-based recurrence plot | |
Khalid et al. | A comparative study of various data mining techniques: statistics, decision trees and neural neworks | |
Sangeetha et al. | Preprocessing using attribute selection in data stream mining | |
Raj | Clustering and Classification of Digital Forensic Data Using Machine Learning and Data Mining Approaches | |
Deng et al. | A novel fault analysis and diagnosis method based on combining computational intelligence methods | |
Kalita et al. | Fundamentals of Data Science: Theory and Practice |