JP2023123247A - Apparatus and method for classification and program - Google Patents

Apparatus and method for classification and program Download PDF

Info

Publication number
JP2023123247A
JP2023123247A JP2022027215A JP2022027215A JP2023123247A JP 2023123247 A JP2023123247 A JP 2023123247A JP 2022027215 A JP2022027215 A JP 2022027215A JP 2022027215 A JP2022027215 A JP 2022027215A JP 2023123247 A JP2023123247 A JP 2023123247A
Authority
JP
Japan
Prior art keywords
classification
index
information
unit
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022027215A
Other languages
Japanese (ja)
Inventor
新司 飯塚
Shinji Iizuka
隆 中山
Takashi Nakayama
朋哉 塚原
Tomoya Tsukahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions East Japan Ltd
Original Assignee
Hitachi Solutions East Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions East Japan Ltd filed Critical Hitachi Solutions East Japan Ltd
Priority to JP2022027215A priority Critical patent/JP2023123247A/en
Publication of JP2023123247A publication Critical patent/JP2023123247A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an apparatus and method for classification and a program to generate an index so as to retrieve also a similar case different in the domain to which information belongs.SOLUTION: An apparatus for classification, for classifying object-of-classification information into any of a plurality of classification results, comprises a classification-model learning section 31 and a classification executing section. The classification-model learning section learns a classification model by performing machine learning based on a domain code representative of a domain to which the object-of-classification information belongs, attribute information about the object-of-classification information and classification result information representative of a classification result of a correct answer to which the object-of-classification information should be classified, thereby creating a learnt model. The classification executing section classifies the object-of-classification information using the learnt model based on the domain code and the attribute information.SELECTED DRAWING: Figure 8

Description

本発明は、分類装置、分類方法およびプログラムに関する。 The present invention relates to a classification device, a classification method and a program.

情報を分類するための方法として、近年ニューラルネットワークを使用したディープラーニングによる手法が用いられるようになっている。 As a method for classifying information, a method based on deep learning using a neural network has been used in recent years.

その中でも非特許文献1に示されているプロトタイプベースの手法は、その出力であるインデックスを用いることで、分類だけでなく類似情報の検索も行うことができ、AIの判断根拠となる類似事例を示すことができる手法として注目されている。プロトタイプベースの手法では、分類モデルは入力データをエンコーダ層によりインデックスに変換し、プロトタイプ層でインデックスと複数のプロトタイプとの距離を算出して、その距離をもとに出力層で分類を行う手法である。ここでプロトタイプとは、訓練データでの典型的なインデックスの値であり、訓練時に分類モデルのパラメータとして学習される。この構成により、入力データの内容が類似していて、かつ分類結果が同じ情報は、インデックスが近い値になるように学習される。 Among them, the prototype-based method shown in Non-Patent Document 1 can perform not only classification but also retrieval of similar information by using the index that is the output, and can find similar cases that serve as the basis for AI judgment. It is attracting attention as a method that can show In the prototype-based method, the classification model converts the input data into an index in the encoder layer, calculates the distance between the index and multiple prototypes in the prototype layer, and classifies in the output layer based on the distance. be. A prototype here is a typical index value in training data, and is learned as a parameter of a classification model during training. With this configuration, information with similar input data content and the same classification result is learned so that the index values are close to each other.

また、特許文献1に記載の技術は、テキストデータや時系列データなどの列データを入力データとできるようにプロトタイプベースの手法を改良したものであり、テキストで表現された情報の分類に適用することができる。 In addition, the technology described in Patent Document 1 is an improvement of the prototype-based method so that column data such as text data and time-series data can be used as input data, and is applied to the classification of information expressed in text. be able to.

これらの技術は、例えば訪問修理サービスにおける不具合の原因の分類に用いることができる。この場合、入力データとしては、例えば、商品の大まかな分類を表す商品品目や、商品を特定するための商品品番、不具合の大まかな分類を表す大分類、中分類などのコード、顧客が申し出た不具合の内容を表すテキストデータ、修理エンジニアが現場で確認した結果を表すテキストデータなどを用いる。これらを入力データとしてプロトタイプベースの手法を適用することで、不具合の原因を分類するとともに、インデックスにより類似事例を検索して、それらの事例の修理報告書を参照することで、適切な処置を行うことができる。 These techniques can be used, for example, to classify causes of defects in on-site repair services. In this case, the input data includes, for example, product items representing rough classifications of products, product product numbers for identifying products, codes such as major and middle classifications representing rough classifications of defects, and codes requested by customers. Text data representing the content of the defect, text data representing the results of on-site confirmation by a repair engineer, etc. are used. By applying a prototype-based method using these as input data, we classify the causes of failures, search for similar cases using an index, and refer to the repair reports of those cases to take appropriate measures. be able to.

インデックスによる類似事例の検索は、修理サービスでの利用にとどまらず、蓄積された修理サービスデータの品質分析を行う場面でも利点が期待される。修理サービスを提供する住設機器メーカでは、あるドメイン(たとえばある特定の商品品目)で発生した不具合について、他のドメイン(たとえば別の商品品目)でも類似事例がないか横断的に分析したいというニーズがある。 Searching for similar cases using an index is expected to be advantageous not only for use in repair services, but also for quality analysis of accumulated repair service data. A housing equipment manufacturer that provides repair services needs to cross-sectionally analyze whether there are similar cases in other domains (for example, different product items) for defects that occurred in one domain (for example, a specific product item). There is

米国特許出願公開第2020/0364504号明細書U.S. Patent Application Publication No. 2020/0364504

Oscar Li、他、「Deep Learning for Case-Based Reasoning Through Prototypes: A Neural Network That Explains Its Predictions」、Proceedings of the AAAI Conference on Artificial Intelligence、Vol. 32、No. 1、2018年Oscar Li, et al., "Deep Learning for Case-Based Reasoning Through Prototypes: A Neural Network That Explains Its Predictions," Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, 2018.

しかしながら、従来の技術では、情報の属するドメインが異なる類似事例も検索できるようにインデックスを生成することが困難であるという課題があった。 However, with the conventional technology, there is a problem that it is difficult to generate an index so that similar cases to which information belongs to different domains can also be retrieved.

たとえば、非特許文献1や特許文献1に記載されている技術では、商品品目のコードも含めてすべての入力データをインデックスに変換するため、インデックスが商品品目の情報を含んでしまい、不具合の内容や原因が類似していても、商品品目が異なる場合にはインデックスが近い値にならない。そのため、従来の技術で生成されるインデックスでは、ドメイン(商品品目)が異なる類似事例を検索することは困難である。 For example, the technology described in Non-Patent Document 1 and Patent Document 1 converts all input data, including the product item code, into an index, so the index includes product item information, resulting in the content of the defect. Even if the factors and causes are similar, if the product items are different, the index values will not be close. Therefore, it is difficult to retrieve similar cases with different domains (merchandise items) with the index generated by the conventional technique.

本発明は、上記の課題を解決するためになされたものであり、情報の属するドメインが異なる類似事例も検索できるようにインデックスを生成することができる分類装置、分類方法およびプログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and provides a classification device, a classification method, and a program capable of generating an index so that similar cases with different domains to which information belongs can also be searched. aim.

本発明に係る分類装置の一例は、
分類対象情報を、複数の分類結果のいずれかに分類する分類装置であって、
前記分類装置は、分類モデル学習部および分類実行部を備え、
前記分類モデル学習部は、前記分類対象情報の属するドメインを表すドメインコードと、前記分類対象情報に関する属性情報と、前記分類対象情報が分類されるべき正解の分類結果を表す分類結果情報とに基づき、機械学習を行うことにより分類モデルを学習して、学習済みモデルを生成し、
前記分類モデルは、
前記属性情報の一部または全部に関する入力を受け付け、複数次元の数値ベクトルであるインデックスを出力する、エンコーダ層と、
前記機械学習により学習したプロトタイプと前記インデックスとの類似度を出力する、プロトタイプ層と、
前記ドメインコードおよび前記類似度に関する入力を受け付け、分類結果を出力する、出力層と、
前記インデックスに基づき前記ドメインコードを予測する、ドメインコード予測部と、
を備え、
前記分類モデル学習部は、前記機械学習において、敵対的学習を適用することにより、前記ドメインコード予測部による前記ドメインコードの予測誤差が最大化されるように機械学習を行い、
前記分類実行部は、前記ドメインコードおよび前記属性情報に基づき、前記学習済みモデルを用いて前記分類対象情報を分類する。
An example of the classification device according to the present invention is
A classification device that classifies classification target information into one of a plurality of classification results,
The classification device comprises a classification model learning unit and a classification execution unit,
The classification model learning unit is based on a domain code representing a domain to which the classification target information belongs, attribute information related to the classification target information, and classification result information representing a correct classification result to which the classification target information should be classified. , trains a classification model by performing machine learning to generate a trained model,
The classification model includes:
an encoder layer that receives an input regarding part or all of the attribute information and outputs an index that is a multi-dimensional numerical vector;
a prototype layer that outputs the similarity between the prototype learned by the machine learning and the index;
an output layer that receives inputs regarding the domain code and the similarity and outputs a classification result;
a domain code prediction unit that predicts the domain code based on the index;
with
The classification model learning unit performs machine learning by applying adversarial learning in the machine learning so that the domain code prediction error by the domain code prediction unit is maximized,
The classification execution unit classifies the classification target information using the trained model based on the domain code and the attribute information.

一例において、前記分類装置は、さらに、
前記エンコーダ層により出力された前記インデックスと、当該インデックスに対応する前記分類対象情報との関連をインデックステーブルに格納する、インデックス作成部と、
検索対象の前記分類対象情報に対するインデックスである検索対象インデックスおよび前記インデックステーブルに基づき、前記検索対象インデックスと値が類似するインデックスを類似インデックスとして取得し、前記類似インデックスに関連付けられた分類対象情報を出力する、類似情報検索部と、
を備える。
In one example, the classifier further comprises:
an index creation unit that stores, in an index table, a relationship between the index output by the encoder layer and the classification target information corresponding to the index;
Based on a search target index, which is an index for the classification target information to be searched, and the index table, an index whose value is similar to the search target index is obtained as a similar index, and the classification target information associated with the similar index is output. a similar information search unit;
Prepare.

一例において、前記類似情報検索部は、
ユークリッド距離が指定された閾値以下であること、または、
コサイン類似度が指定された閾値以上であること、
のいずれかを基準として、インデックスの値が類似しているかどうかを判定する。
In one example, the similar information search unit
the Euclidean distance is less than or equal to a specified threshold, or
that the cosine similarity is greater than or equal to a specified threshold;
is used as a reference to determine whether the index values are similar.

一例において、前記インデックスは3次元以上のベクトルであり、
前記類似情報検索部は、主成分分析またはt-SNEのいずれかの手法を用いて、前記類似インデックスを2次元のベクトルに次元圧縮し、前記2次元のベクトルを散布図により表示する。
In one example, the index is a vector of three or more dimensions,
The similarity information search unit dimensionally compresses the similarity index into a two-dimensional vector using either principal component analysis or t-SNE, and displays the two-dimensional vector as a scatter diagram.

一例において、前記類似情報検索部は、前記類似インデックスをクラスタ分析によりクラスタリングし、
前記散布図はバブルチャートを含み、前記バブルチャートは、クラスタの中心点およびクラスタに属する前記類似インデックスの数を、それぞれ円の中心点と円の大きさにより表す。
In one example, the similar information search unit clusters the similar indexes by cluster analysis,
The scatter chart includes a bubble chart, and the bubble chart represents the center point of a cluster and the number of similar indices belonging to the cluster by the center point of a circle and the size of the circle, respectively.

本発明に係る分類方法は、分類対象情報を、複数の分類結果のいずれかに分類する分類方法であって、上述の分類装置によって実行される。 A classification method according to the present invention is a classification method for classifying classification target information into one of a plurality of classification results, and is executed by the classification device described above.

本発明に係るプログラムは、コンピュータを、上述の分類装置として機能させる。 A program according to the present invention causes a computer to function as the above-described classification device.

本発明に係る分類装置、分類方法およびプログラムによれば、情報の属するドメインが異なる類似事例も検索できるようにインデックスを生成することができる。 INDUSTRIAL APPLICABILITY According to the classification device, classification method, and program of the present invention, an index can be generated so that similar cases to which information belongs to different domains can also be retrieved.

本発明の実施形態1に係る分類装置10の構成。1 is a configuration of a classification device 10 according to Embodiment 1 of the present invention; 分類対象情報テーブル21の構成例。A configuration example of a classification target information table 21 . 分類結果テーブル22の構成例。An example of the configuration of a classification result table 22. FIG. 訓練データテーブル23の構成例。A configuration example of a training data table 23 . インデックステーブル25の構成例。3 is a configuration example of an index table 25; 分類装置10の動作の例を示すフローチャート。4 is a flowchart showing an example of the operation of the classification device 10; ステップS1の詳細例。A detailed example of step S1. 分類モデルの構成例。A configuration example of a classification model. ステップS2の詳細例。A detailed example of step S2. ステップS3の詳細例。A detailed example of step S3. ステップS4の詳細例。Detailed example of step S4.

以下、本発明の実施形態を添付図面に基づいて説明する。
[実施形態1]
図1に、本発明の実施形態1に係る分類装置10の構成を示す。分類装置10は、本明細書に記載される情報の分類方法を実行することにより、分類対象情報を、複数の分類結果のいずれかに分類する装置である。分類対象情報は、本実施形態では商品の不具合報告であるが、変形例として様々な情報とすることができる。具体例として、画像、心電図等の時系列データ、テキストデータ、等に応用が可能である。
An embodiment of the present invention will be described below with reference to the accompanying drawings.
[Embodiment 1]
FIG. 1 shows the configuration of a classification device 10 according to Embodiment 1 of the present invention. The classification device 10 is a device that classifies information to be classified into one of a plurality of classification results by executing the information classification method described herein. In this embodiment, the classification target information is product defect reports, but as a modification, various information can be used. As a specific example, it can be applied to time-series data such as images and electrocardiograms, text data, and the like.

分類装置10は、公知のコンピュータとしてのハードウェア構成を有し、たとえば記憶部20および処理部30を備える。記憶部20はたとえば半導体メモリ装置および磁気ディスク装置等の記憶媒体を含む。記憶媒体の一部または全部が、過渡的でない(non-transitory)記憶媒体であってもよい。処理部30はたとえばプロセッサを含む。 The classification device 10 has a hardware configuration as a known computer, and includes a storage unit 20 and a processing unit 30, for example. Storage unit 20 includes a storage medium such as a semiconductor memory device and a magnetic disk device. Some or all of the storage media may be non-transitory storage media. Processing unit 30 includes, for example, a processor.

また、分類装置10は図示しない入出力手段を備えてもよい。入出力手段は、たとえばキーボードおよびマウス等の入力装置と、ディスプレイおよびプリンタ等の出力装置と、ネットワークインタフェース等の通信装置とを含む。 The classification device 10 may also include input/output means (not shown). The input/output means includes, for example, input devices such as a keyboard and mouse, output devices such as a display and printer, and communication devices such as a network interface.

記憶部20は、分類対象情報テーブル21、分類結果テーブル22、訓練データテーブル23、学習済み分類モデル24およびインデックステーブル25を記憶する。処理部30は、分類モデル学習部31、分類実行部32、インデックス作成部33および類似情報検索部34として機能する。 The storage unit 20 stores a classification target information table 21 , a classification result table 22 , a training data table 23 , a learned classification model 24 and an index table 25 . The processing unit 30 functions as a classification model learning unit 31 , a classification executing unit 32 , an index creating unit 33 and a similar information searching unit 34 .

記憶部20は、図示しないプログラムを記憶してもよい。プロセッサがこのプログラムを実行することにより、分類装置10は本明細書において説明される機能を実行してもよい。すなわち、このプログラムは、コンピュータを分類装置10として(より具体的には、プロセッサを、分類モデル学習部31、分類実行部32、インデックス作成部33および類似情報検索部34として)機能させるものであってもよい。 The storage unit 20 may store a program (not shown). Execution of this program by the processor may cause the classifier 10 to perform the functions described herein. That is, this program causes the computer to function as the classification device 10 (more specifically, the processor as the classification model learning unit 31, the classification execution unit 32, the index creation unit 33, and the similar information search unit 34). may

図2に、分類対象情報テーブル21の構成例を示す。分類対象情報テーブル21は、分類対象情報である不具合報告のそれぞれについて、その不具合報告を識別する情報(情報ID)に、その不具合報告に関する情報を関連付けて格納する。 FIG. 2 shows a configuration example of the classification target information table 21. As shown in FIG. The classification target information table 21 stores, for each defect report, which is classification target information, associated information (information ID) for identifying the defect report with information related to the defect report.

不具合報告に関する情報は、ドメインコードおよび属性情報を含む。ドメインコードは、その不具合報告の属する大まかな分類であるところのドメインを表す。本実施形態では、ドメインとは、不具合報告に係る商品の品目であるが、変形例において、ドメインは当業者が適宜定義可能である。 Information related to bug reports includes domain codes and attribute information. The domain code represents a domain that is a rough classification to which the bug report belongs. In this embodiment, the domain is the product item related to the defect report, but in a modification, the domain can be appropriately defined by those skilled in the art.

属性情報は、不具合報告に関する情報であってドメインコードとは異なるものであればとくに制限はないが、本実施形態では、商品の品番と、不具合の大分類と、不具合の中分類と、顧客の申し出内容を表すテキストデータと、作業員による不具合の確認結果を表すテキストデータとを含む。 The attribute information is not particularly limited as long as it is information related to the defect report and is different from the domain code. It contains text data representing the content of the offer and text data representing the results of confirmation of the defect by the worker.

図3に、分類結果テーブル22の構成例を示す。分類結果テーブル22は、不具合報告のそれぞれについて、その不具合報告の情報IDに、その不具合報告の分類結果を関連付けて格納する。分類結果は、本実施形態では不具合の原因を表すコードであるが、変形例において、当業者が適宜定義可能である。この分類結果は、たとえば人間により指定された適切なものであり、機械学習の際には、分類対象情報が分類されるべき正解の分類結果を表す分類結果情報として用いることができる。また、後述するように、分類モデル学習部31によって分類が行われた後には、その分類結果を含んでもよい。 FIG. 3 shows a configuration example of the classification result table 22. As shown in FIG. The classification result table 22 stores each trouble report in association with the information ID of the trouble report and the classification result of the trouble report. The classification result is a code representing the cause of the problem in this embodiment, but can be defined as appropriate by those skilled in the art in the modification. This classification result is, for example, an appropriate one specified by a human, and can be used as classification result information representing a correct classification result to which the classification target information should be classified in machine learning. Further, as will be described later, after the classification is performed by the classification model learning unit 31, the classification result may be included.

図4に、訓練データテーブル23の構成例を示す。訓練データテーブル23は、不具合のそれぞれについて、その不具合報告の情報IDに、その不具合報告のドメインコード、その不具合報告の属性情報、その不具合報告の分類結果、等を関連付けて格納する。ドメインコードおよび属性情報は、図2の分類対象情報テーブル21のものと同一とすることができ、分類結果は、図3の分類結果テーブル22のものと同一とすることができる。 FIG. 4 shows a configuration example of the training data table 23. As shown in FIG. The training data table 23 stores, for each defect, the information ID of the defect report in association with the domain code of the defect report, the attribute information of the defect report, the classification result of the defect report, and the like. The domain code and attribute information can be the same as those in the classification target information table 21 in FIG. 2, and the classification results can be the same as in the classification result table 22 in FIG.

分類装置10の分類モデル学習部31は、訓練データテーブル23に基づいて機械学習を行うことにより分類モデルを学習し、学習済みモデルとして、学習済み分類モデル24を生成する。この際の具体的な処理については、図7等を用いて後述する。 A classification model learning unit 31 of the classification device 10 learns a classification model by performing machine learning based on the training data table 23, and generates a trained classification model 24 as a trained model. Specific processing at this time will be described later with reference to FIG. 7 and the like.

図5に、インデックステーブル25の構成例を示す。インデックステーブル25は、不具合報告のそれぞれについて、その不具合報告の情報IDに、その不具合報告のインデックスを関連付けて格納する。インデックスは、不具合報告の属性情報の一部または全部を入力として、後述するエンコーダ層42が出力する、複数次元(好ましくは多次元)の数値ベクトルであり、要素として、インデックス要素1、インデックス要素2、インデックス要素3、等を含む。 FIG. 5 shows a configuration example of the index table 25. As shown in FIG. The index table 25 stores each defect report in association with the information ID of the defect report and the index of the defect report. The index is a multi-dimensional (preferably multi-dimensional) numeric vector that is output by the encoder layer 42, which will be described later, with a part or all of the attribute information of the defect report as an input. , index element 3, and so on.

図6は、分類装置10の動作の例を示すフローチャートである。このフローチャートは、分類装置10が実行する情報の分類方法を表す。 FIG. 6 is a flow chart showing an example of the operation of the classification device 10. As shown in FIG. This flow chart represents the information classification method performed by the classification device 10 .

まず分類装置10の分類モデル学習部31は、分類モデルの学習を実行する(ステップS1)。この時点で、分類対象情報テーブル21および分類結果テーブル22は記憶部20に記憶されているものとする。 First, the classification model learning unit 31 of the classification device 10 learns a classification model (step S1). It is assumed that the classification target information table 21 and the classification result table 22 are stored in the storage unit 20 at this point.

図7に、ステップS1の詳細例を示す。ステップS1において、まず分類モデル学習部31は、分類対象情報テーブル21および分類結果テーブル22を、情報IDをキーとして内部結合により連結し、訓練データテーブル23に格納する(ステップS11)。このようにして訓練データテーブル23が生成される。 FIG. 7 shows a detailed example of step S1. In step S1, the classification model learning unit 31 first connects the classification target information table 21 and the classification result table 22 by internal join using the information ID as a key, and stores them in the training data table 23 (step S11). The training data table 23 is thus generated.

次に、分類モデル学習部31は、訓練データテーブル23のデータに基づき、分類モデルを学習する(ステップS12)。これについて、以下、具体的に説明する。 Next, the classification model learning unit 31 learns a classification model based on the data in the training data table 23 (step S12). This will be specifically described below.

図8に、分類モデル学習部31の構成例を示す。分類モデル学習部31は、プロトタイプベースのニューラルネットワークを機械学習により学習する。とくに、敵対的学習により、ドメインコードの予測誤差が最大になるようにインデックスを学習し、インデックスにドメイン特有の情報が含まれることを防ぐ。そして、プロトタイプ層の出力である類似度ベクトルに、ドメインコードに対応するベクトルを付加(連結)して出力層に入力することにより、分類対象情報を分類する。 FIG. 8 shows a configuration example of the classification model learning unit 31. As shown in FIG. The classification model learning unit 31 learns a prototype-based neural network by machine learning. In particular, adversarial learning learns the index to maximize the prediction error of the domain code and avoids containing domain-specific information in the index. Then, the classification target information is classified by adding (concatenating) a vector corresponding to the domain code to the similarity vector output from the prototype layer and inputting it to the output layer.

分類モデル学習部31が学習する分類モデルは、埋め込み層41と、エンコーダ層42と、プロトタイプ層43と、出力層44と、ドメインコード予測部45とを備える。 The classification model learned by the classification model learning unit 31 includes an embedding layer 41 , an encoder layer 42 , a prototype layer 43 , an output layer 44 and a domain code prediction unit 45 .

埋め込み層41は、分類対象情報に含まれるドメインコードおよび属性情報を入力として受け付け、複数の数値ベクトルを出力する。本実施形態では、ドメインコード(商品品目)に対応するベクトルv、商品品番に対応するベクトルv、不具合の大分類に対応するベクトルv、不具合の中分類に対応するベクトルv、顧客の申し出に含まれる単語1~nに対応するベクトルv~vn+4、確認結果に含まれる単語’1~mに対応するベクトルvn+5~vn+m+4が出力される。 The embedding layer 41 receives domain codes and attribute information included in the classification target information as inputs, and outputs a plurality of numerical vectors. In this embodiment, a vector v 1 corresponding to the domain code (product item), a vector v 2 corresponding to the product number, a vector v 3 corresponding to the major defect classification, a vector v 4 corresponding to the minor defect classification, the customer and vectors v n+5 to v n+m+4 corresponding to words 1 to n included in the confirmation result.

ドメインコード等のコードをベクトルに変換する具体的処理は、当業者が公知技術等に基づいて適宜設計することができる。また、テキストデータを単語に分割する具体的処理および各単語をベクトルに変換する具体的処理も、当業者が公知技術等に基づいて適宜設計することができる。 Specific processing for converting a code such as a domain code into a vector can be appropriately designed by those skilled in the art based on known techniques. Further, a specific process of dividing text data into words and a specific process of converting each word into a vector can also be appropriately designed by those skilled in the art based on known techniques.

エンコーダ層42は、埋め込み層41が生成したベクトルのうち、属性情報に対応するベクトルの一部または全部に基づき、インデックスを生成する。本実施形態では、顧客の申し出および確認結果に対応するベクトルを用いているが、どのベクトルを用いるかは当業者が適宜設計可能であり、たとえば全部のベクトルを用いてもよい。ただし、ドメインコードに対応するベクトルは用いず、属性情報に対応するベクトルのみを用いる。エンコーダ層42は、たとえば複数の層42aを含むリカレントニューラルネットワーク(RNN)を用いて構成することができるが、これに限らない。 The encoder layer 42 generates an index based on part or all of the vector corresponding to the attribute information among the vectors generated by the embedding layer 41 . In this embodiment, the vectors corresponding to the customer's offer and confirmation result are used, but which vectors to use can be designed as appropriate by those skilled in the art. For example, all vectors may be used. However, the vector corresponding to the domain code is not used, and only the vector corresponding to the attribute information is used. The encoder layer 42 can be configured using, for example, a recurrent neural network (RNN) including multiple layers 42a, but is not limited to this.

このように、エンコーダ層42は、属性情報の一部または全部に関する入力を受け付け、インデックスを出力する。 Thus, the encoder layer 42 accepts input regarding some or all of the attribute information and outputs an index.

プロトタイプ層43は、パラメータとしてプロトタイプp~p(ただしkは1以上)を保持している。各プロトタイプは、インデックスと同じ次元のベクトルである。プロトタイプは、訓練データテーブル23のデータに基づき、分類モデル学習部31が行う機械学習により、分類モデルのパラメータの一部として学習される。その結果、各プロトタイプは、訓練データテーブル23に含まれる不具合報告に対する典型的なインデックスの値となるように学習される。この際の機械学習の具体的な処理は、特許文献1および非特許文献1を含む公知技術等に基づき、当業者が適宜設計可能である。 The prototype layer 43 holds prototypes p 1 to p k (where k is 1 or more) as parameters. Each prototype is a vector of the same dimension as the index. The prototype is learned as part of the parameters of the classification model by machine learning performed by the classification model learning unit 31 based on the data in the training data table 23 . As a result, each prototype is learned to have typical index values for failure reports contained in the training data table 23 . Specific processing of machine learning at this time can be appropriately designed by those skilled in the art based on known techniques including Patent Document 1 and Non-Patent Document 1.

プロトタイプ層43は、プロトタイプp~pのそれぞれと、エンコーダ層42から出力されるインデックスとの類似度を計算して出力する。 The prototype layer 43 calculates and outputs the similarity between each of the prototypes p 1 to p k and the index output from the encoder layer 42 .

類似度の定義は、当業者が適宜設計可能であるが、たとえば、ベクトル間のユークリッド距離を類似度として用いることができ、または、ベクトル間のコサイン類似度を類似度として用いることもできる。このような手法を用いると、インデックスと1つのプロトタイプとの類似度が1つのスカラー値として計算されるので、すべて(k個)の類似度を連結してk次元の類似度ベクトルを生成することができる。 The definition of similarity can be appropriately designed by those skilled in the art. For example, Euclidean distance between vectors can be used as similarity, or cosine similarity between vectors can also be used as similarity. Using such an approach, the similarity between the index and one prototype is computed as a single scalar value, so all (k) similarities are concatenated to generate a k-dimensional similarity vector. can be done.

出力層44は、埋め込み層41から出力されるドメインコード(商品品目)に対応するベクトルvと、属性情報に対応するベクトルの一部と、類似度ベクトルとを含む入力を受け付け、分類結果として不具合の原因を出力する。出力層44は、たとえば複数の層44aを含むRNNを用いて構成することができるが、これに限らない。RNNを用いる場合には、ドメインコード等に対応するベクトルv~vを、類似度ベクトルに連結して入力することができる。 The output layer 44 receives input including a vector v1 corresponding to the domain code (product item) output from the embedding layer 41, a part of the vector corresponding to the attribute information, and a similarity vector. Output the cause of the problem. The output layer 44 can be configured using, for example, an RNN including multiple layers 44a, but is not limited to this. When RNN is used, vectors v 1 to v 4 corresponding to domain codes and the like can be connected to the similarity vector and input.

不具合の原因は、たとえば図3の分類結果テーブル22に示すようなコードによって表される。出力層44の出力(たとえばベクトル)をコードに変換する具体的処理は、当業者が適宜設計することができるが、一例を以下に説明する。まず、複数の分類結果にそれぞれ番号を付与しておく。そして、複数の分類結果のそれぞれについて、分類対象情報がその分類結果に分類される確率を表す値を要素として含むベクトルを、出力層44が生成する。すなわち、分類結果を表すコードの取り得る値がq種類である場合には、出力層44はq次元のベクトルを生成する。そして、このq次元のベクトルの要素のうち最大の値を持つ要素に対応する分類結果を、出力層44による出力とする。 The cause of failure is represented by a code as shown in the classification result table 22 of FIG. 3, for example. A person skilled in the art can appropriately design a specific process for converting the output (for example, vector) of the output layer 44 into a code, but one example will be described below. First, a number is assigned to each of a plurality of classification results. Then, for each of the plurality of classification results, the output layer 44 generates a vector whose elements are values representing the probability that the classification target information is classified into that classification result. That is, when the code representing the classification result can take q values, the output layer 44 generates a q-dimensional vector. Then, the classification result corresponding to the element having the maximum value among the elements of this q-dimensional vector is output by the output layer 44 .

ここで、出力層44の入力は、ドメインコードに対応するベクトルvおよび類似度ベクトルを含む。このように、出力層44は、ドメインコードおよび類似度に関する入力を受け付け、分類結果を出力するということができる。 Here, the input of the output layer 44 includes the vector v1 corresponding to the domain code and the similarity vector. In this way, it can be said that the output layer 44 receives inputs regarding domain codes and similarities, and outputs classification results.

ドメインコード予測部45は、インデックスに基づいてドメインコードを予測する。ドメインコード予測部45は、たとえば複数の全結合層を含むニューラルネットワークを用いて構成することができるが、これに限らない。 A domain code prediction unit 45 predicts a domain code based on the index. The domain code prediction unit 45 can be configured using, for example, a neural network including a plurality of fully connected layers, but is not limited to this.

分類モデル学習部31は、出力層44が出力した分類結果と、ドメインコード予測部45が出力したドメインコードとに基づいて、機械学習を行うことにより分類モデルを学習する。ここで、分類モデル学習部31は、出力された分類結果と、訓練データテーブル23においてその分類対象情報に関連付けられた分類結果との誤差が最小化されるように、かつ、出力されたドメインコードと、訓練データテーブル23においてその分類対象情報に関連付けられたドメインコードとの誤差が最大化されるように、分類モデルのパラメータを更新する。 The classification model learning unit 31 learns a classification model by performing machine learning based on the classification result output by the output layer 44 and the domain code output by the domain code prediction unit 45 . Here, the classification model learning unit 31 minimizes the error between the output classification result and the classification result associated with the classification target information in the training data table 23, and sets the output domain code Then, the parameters of the classification model are updated so that the error with the domain code associated with the classification target information in the training data table 23 is maximized.

すなわち、分類モデル学習部31は、敵対的学習を適用することにより、ドメインコード予測部45によるドメインコードの予測誤差が最大化されるように機械学習を行う。この敵対的学習により、インデックスにドメイン特有の情報が含まれるのを防ぐことが可能となり、分類対象情報の属するドメインが異なる類似事例も検索できるようなインデックスを生成することができる。 That is, the classification model learning unit 31 applies adversarial learning to perform machine learning so that the domain code prediction error by the domain code prediction unit 45 is maximized. This adversarial learning makes it possible to prevent domain-specific information from being included in the index, and to generate an index that allows retrieval of similar cases to which the classification target information belongs to different domains.

また、分類モデル学習部31は、このような敵対的学習と並行して、ドメインコードと、属性情報と、正解の分類結果を表す分類結果情報とに基づき、機械学習を行うことにより分類モデルを学習する。分類モデル学習部31は、このような2通りの機械学習を並行して行うことにより、学習済み分類モデル24を生成する。 Further, in parallel with such hostile learning, the classification model learning unit 31 performs machine learning based on the domain code, the attribute information, and the classification result information representing the correct classification result to generate the classification model. learn. The classification model learning unit 31 generates the trained classification model 24 by performing such two types of machine learning in parallel.

学習の際の具体的な誤差伝搬演算は、当業者が適宜設計することができる。たとえば、エンコーダ層42の学習については、ドメインコード予測部45の入力層の前にGRL(Gradient Reversal Layer)を配置しておき、出力層44から逆伝搬される誤差と、ドメインコード予測部45から逆伝搬される誤差(GRLによって勾配が逆転されたもの)とを、それぞれ最小化するように学習してもよい。 A person skilled in the art can appropriately design specific error propagation calculations during learning. For example, for the learning of the encoder layer 42, a GRL (Gradient Reversal Layer) is arranged before the input layer of the domain code prediction unit 45, and the error backpropagated from the output layer 44 and the error from the domain code prediction unit 45 It may be learned to minimize the back-propagated error (gradient reversed by GRL), respectively.

以上のようにして、分類モデル学習部31は学習済み分類モデル24を生成する。なお、学習が完了した学習済み分類モデル24は、学習前の分類モデルと同様の層構造を有するものとすることができるが、ドメインコード予測部45を省略したものであってもよい。 As described above, the classification model learning unit 31 generates the trained classification model 24 . The trained classification model 24 that has completed learning can have the same layer structure as the classification model before learning, but the domain code prediction unit 45 may be omitted.

このようにしてステップS12(図7)が終了する。次に、分類モデル学習部31は、学習済み分類モデル24を、記憶部20に格納する(ステップS13)。これによってステップS1(図6)が終了する。 Thus, step S12 (FIG. 7) ends. Next, the classification model learning unit 31 stores the trained classification model 24 in the storage unit 20 (step S13). This completes step S1 (FIG. 6).

ステップS1の後、分類実行部32が分類を実行する(ステップS2)。すなわち、分類実行部32は、新たに入力される分類対象情報に含まれるドメインコードおよび属性情報に基づき、学習済み分類モデル24を用いて分類結果を予測することにより、分類対象情報を分類する。 After step S1, the classification executing section 32 executes classification (step S2). That is, the classification executing unit 32 classifies the classification target information by predicting the classification result using the trained classification model 24 based on the domain code and attribute information included in the newly input classification target information.

図9に、ステップS2の詳細例を示す。ステップS2において、まず分類実行部32は、分類装置10のユーザが指定した分類対象情報(たとえば、新たに入力される分類対象情報であってもよいし、新たな分類対象情報テーブル21におけるレコードの1つであってもよい)を入力として、学習済み分類モデル24を用いて分類を実行する(ステップS21)。 FIG. 9 shows a detailed example of step S2. In step S2, first, the classification execution unit 32 selects classification target information specified by the user of the classification device 10 (for example, it may be newly input classification target information, or a record in the new classification target information table 21). ) is input, classification is executed using the trained classification model 24 (step S21).

次に、分類実行部32は、学習済み分類モデル24の出力層により出力された分類結果を、入力された分類対象情報の情報IDに関連付けて、分類結果テーブル22に格納する(ステップS22)。このようにしてステップS2が終了する。 Next, the classification execution unit 32 associates the classification result output by the output layer of the trained classification model 24 with the information ID of the input classification target information and stores it in the classification result table 22 (step S22). Thus, step S2 ends.

図6に示すように、ステップS2の後、インデックス作成部33がインデックステーブル25を生成する(ステップS3)。 As shown in FIG. 6, after step S2, the index creation unit 33 creates the index table 25 (step S3).

図10に、ステップS3の詳細例を示す。ステップS3において、まずインデックス作成部33は、すべての分類対象情報(たとえば新たな分類対象情報テーブル21のレコードすべて)を入力として、学習済み分類モデル24を用いて分類を実行する(ステップS31)。 FIG. 10 shows a detailed example of step S3. In step S3, the index creation unit 33 first receives all classification target information (for example, all records in the new classification target information table 21) and performs classification using the learned classification model 24 (step S31).

次に、インデックス作成部33は、学習済み分類モデル24のエンコーダ層42により出力されたインデックスと、そのインデックスに対応する元の分類対象情報との関連を、インデックステーブル25に格納する(ステップS32)。このようにしてステップS3が終了する。 Next, the index creation unit 33 stores the relationship between the index output by the encoder layer 42 of the trained classification model 24 and the original classification target information corresponding to the index in the index table 25 (step S32). . Thus, step S3 ends.

図6に示すように、ステップS3の後、類似情報検索部34が類似情報の検索を行う(ステップS4)。 As shown in FIG. 6, after step S3, the similar information search unit 34 searches for similar information (step S4).

図11に、ステップS4の詳細例を示す。ステップS4において、まず類似情報検索部34は、特定のインデックス(以下では「検索対象インデックス」と呼ぶ)を取得する(ステップS41)。検索対象インデックスは、たとえば、ユーザが指定した分類対象情報について、その情報IDをキーとして、インデックステーブル25を参照することにより取得されるが、これ以外の方法で指定または取得されるものであってもよい。 FIG. 11 shows a detailed example of step S4. In step S4, first, the similar information search unit 34 acquires a specific index (hereinafter referred to as "search target index") (step S41). The search target index is obtained, for example, by referring to the index table 25 using the information ID as a key for the classification target information specified by the user, but it may be specified or obtained by other methods. good too.

次に、類似情報検索部34は、検索対象インデックスと、インデックステーブル25とに基づき、インデックステーブル25のうちから、検索対象インデックスと値が類似するインデックスを特定する(ステップS42)。ここで特定されるインデックスを、以下では「類似インデックス」と呼ぶ。類似インデックスは複数であってもよい。 Next, based on the search target index and the index table 25, the similar information search unit 34 identifies an index whose value is similar to the search target index from the index table 25 (step S42). The index specified here is hereinafter referred to as a "similar index". A plurality of similarity indices may be used.

次に、類似情報検索部34は、取得した類似インデックスに関連付けられた情報IDをキーとして、分類対象情報テーブル21を参照し、対応する分類対象情報を取得し、これを検索結果として出力する(ステップS43)。 Next, the similar information search unit 34 refers to the classification target information table 21 using the information ID associated with the acquired similarity index as a key, acquires the corresponding classification target information, and outputs it as a search result ( step S43).

ここで、上述の敵対的学習により、インデックスにドメイン特有の情報が含まれるのを防ぐことが可能となり、検索対象の情報とは異なるドメインに属する類似事例も検索することができる。 Here, the above-described adversarial learning makes it possible to prevent domain-specific information from being included in the index, and it is possible to search for similar cases belonging to a domain different from the information to be searched.

類似情報検索部34による類似判定処理は、当業者が適宜設計することができるが、たとえば、検索対象インデックスと、インデックステーブル25の各インデックスとのユークリッド距離が指定された閾値以下であることを基準として、インデックスの値が類似しているかどうかを判定してもよい。または、類似情報検索部34は、検索対象インデックスと、インデックステーブル25の各インデックスとのコサイン類似度が指定された閾値以上であることを基準として、インデックスの値が類似しているかどうかを判定してもよい。 The similarity determination process by the similar information search unit 34 can be appropriately designed by a person skilled in the art. , it may be determined whether the index values are similar. Alternatively, the similar information search unit 34 determines whether or not the index values are similar based on whether the cosine similarity between the search target index and each index in the index table 25 is equal to or greater than a specified threshold. may

とくに図示しないが、類似情報検索部34は、類似インデックスを散布図により表示してもよい。散布図はたとえば2次元で表される。とくに、インデックスが3次元以上のベクトルである場合には、類似情報検索部34は類似インデックスを2次元のベクトルに次元圧縮し、2次元のベクトルを散布図により表示してもよい。次元圧縮の具体的処理は当業者が適宜設計することができるが、たとえば主成分分析の手法を用いてもよいし、t-SNE(t-distributed Stochastic Neighbor Embedding)の手法を用いてもよい。 Although not shown, the similarity information search unit 34 may display the similarity index as a scatter diagram. A scatter diagram is represented, for example, in two dimensions. In particular, when the index is a three-dimensional vector or more, the similarity information search unit 34 may dimensionally compress the similarity index into a two-dimensional vector and display the two-dimensional vector as a scatter diagram. A person skilled in the art can appropriately design the specific process of dimensionality reduction. For example, a technique of principal component analysis or a technique of t-SNE (t-distributed stochastic neighbor embedding) may be used.

このような2次元の散布図を用いることにより、ユーザは、類似検索の結果をより容易に把握することができる。 By using such a two-dimensional scatter diagram, the user can more easily understand the similarity search results.

また、とくに図示しないが、類似情報検索部34は、類似インデックスをクラスタ分析によりクラスタリングしてもよい。クラスタ分析の具体的処理は当業者が適宜設計可能である。クラスタリングの結果は上述の散布図として表示することができる。たとえば、散布図はバブルチャートを含んでもよい。バブルチャートは、クラスタの中心点およびクラスタに属する類似インデックスの数を、それぞれ円の中心点(たとえば2次元座標によって表される)と円の大きさ(たとえば半径または面積によって表される)により表してもよい。 Moreover, although not shown, the similarity information search unit 34 may cluster similarity indexes by cluster analysis. Specific processing of cluster analysis can be appropriately designed by those skilled in the art. The clustering results can be displayed as a scatter plot as described above. For example, a scatter plot may include a bubble chart. The bubble chart represents the center point of a cluster and the number of similarity indices belonging to the cluster, respectively, by the center point of a circle (eg, represented by two-dimensional coordinates) and the size of a circle (eg, represented by a radius or area). may

このようなバブルチャートを用いることにより、分類装置10の使用者は、類似検索の結果をさらに容易に把握することができる。 By using such a bubble chart, the user of the classification device 10 can more easily understand the similarity search results.

分類モデルの具体的な構造は、図8に示すものに限らない。当業者は、特許文献1および非特許文献1を含む公知技術等に基づき、適宜変更を加えることができる。 The specific structure of the classification model is not limited to that shown in FIG. Those skilled in the art can make appropriate modifications based on known techniques including Patent Document 1 and Non-Patent Document 1.

10…分類装置
20…記憶部
21…分類対象情報テーブル
22…分類結果テーブル
23…訓練データテーブル
24…学習済み分類モデル
25…インデックステーブル
30…処理部
31…分類モデル学習部
32…分類実行部
33…インデックス作成部
34…類似情報検索部
41…埋め込み層
42…エンコーダ層
43…プロトタイプ層
44…出力層
45…ドメインコード予測部
REFERENCE SIGNS LIST 10 classification device 20 storage unit 21 classification target information table 22 classification result table 23 training data table 24 learned classification model 25 index table 30 processing unit 31 classification model learning unit 32 classification execution unit 33 Index creating unit 34 Similar information searching unit 41 Embedding layer 42 Encoder layer 43 Prototype layer 44 Output layer 45 Domain code prediction unit

Claims (7)

分類対象情報を、複数の分類結果のいずれかに分類する分類装置であって、
前記分類装置は、分類モデル学習部および分類実行部を備え、
前記分類モデル学習部は、前記分類対象情報の属するドメインを表すドメインコードと、前記分類対象情報に関する属性情報と、前記分類対象情報が分類されるべき正解の分類結果を表す分類結果情報とに基づき、機械学習を行うことにより分類モデルを学習して、学習済みモデルを生成し、
前記分類モデルは、
前記属性情報の一部または全部に関する入力を受け付け、複数次元の数値ベクトルであるインデックスを出力する、エンコーダ層と、
前記機械学習により学習したプロトタイプと前記インデックスとの類似度を出力する、プロトタイプ層と、
前記ドメインコードおよび前記類似度に関する入力を受け付け、分類結果を出力する、出力層と、
前記インデックスに基づき前記ドメインコードを予測する、ドメインコード予測部と、
を備え、
前記分類モデル学習部は、前記機械学習において、敵対的学習を適用することにより、前記ドメインコード予測部による前記ドメインコードの予測誤差が最大化されるように機械学習を行い、
前記分類実行部は、前記ドメインコードおよび前記属性情報に基づき、前記学習済みモデルを用いて前記分類対象情報を分類する、
分類装置。
A classification device that classifies classification target information into one of a plurality of classification results,
The classification device comprises a classification model learning unit and a classification execution unit,
The classification model learning unit is based on a domain code representing a domain to which the classification target information belongs, attribute information related to the classification target information, and classification result information representing a correct classification result to which the classification target information should be classified. , trains a classification model by performing machine learning to generate a trained model,
The classification model includes:
an encoder layer that receives an input regarding part or all of the attribute information and outputs an index that is a multi-dimensional numerical vector;
a prototype layer that outputs the similarity between the prototype learned by the machine learning and the index;
an output layer that receives input regarding the domain code and the similarity and outputs a classification result;
a domain code prediction unit that predicts the domain code based on the index;
with
The classification model learning unit performs machine learning by applying adversarial learning in the machine learning so that the domain code prediction error by the domain code prediction unit is maximized,
The classification execution unit classifies the classification target information using the trained model based on the domain code and the attribute information.
Classifier.
前記分類装置は、さらに、
前記エンコーダ層により出力された前記インデックスと、当該インデックスに対応する前記分類対象情報との関連をインデックステーブルに格納する、インデックス作成部と、
検索対象の前記分類対象情報に対するインデックスである検索対象インデックスおよび前記インデックステーブルに基づき、前記検索対象インデックスと値が類似するインデックスを類似インデックスとして取得し、前記類似インデックスに関連付けられた分類対象情報を出力する、類似情報検索部と、
を備える、請求項1に記載の分類装置。
The classification device further comprises:
an index creation unit that stores, in an index table, a relationship between the index output by the encoder layer and the classification target information corresponding to the index;
Based on a search target index, which is an index for the classification target information to be searched, and the index table, an index whose value is similar to the search target index is obtained as a similar index, and the classification target information associated with the similar index is output. a similar information search unit;
2. The classifier of claim 1, comprising:
前記類似情報検索部は、
ユークリッド距離が指定された閾値以下であること、または、
コサイン類似度が指定された閾値以上であること、
のいずれかを基準として、インデックスの値が類似しているかどうかを判定する、請求項2に記載の分類装置。
The similar information search unit is
the Euclidean distance is less than or equal to a specified threshold, or
that the cosine similarity is greater than or equal to a specified threshold;
3. The classification device according to claim 2, wherein it is determined whether or not the index values are similar based on any of .
前記インデックスは3次元以上のベクトルであり、
前記類似情報検索部は、主成分分析またはt-SNEのいずれかの手法を用いて、前記類似インデックスを2次元のベクトルに次元圧縮し、前記2次元のベクトルを散布図により表示する、
請求項2または3に記載の分類装置。
the index is a vector of three or more dimensions;
The similarity information search unit uses either principal component analysis or t-SNE to dimensionally compress the similarity index into a two-dimensional vector, and displays the two-dimensional vector as a scatter diagram.
4. A sorting device according to claim 2 or 3.
前記類似情報検索部は、前記類似インデックスをクラスタ分析によりクラスタリングし、
前記散布図はバブルチャートを含み、前記バブルチャートは、クラスタの中心点およびクラスタに属する前記類似インデックスの数を、それぞれ円の中心点と円の大きさにより表す、
請求項4に記載の分類装置。
The similar information search unit clusters the similar indexes by cluster analysis,
The scatter diagram includes a bubble chart, wherein the bubble chart represents the center point of a cluster and the number of similar indices belonging to the cluster by the center point of a circle and the size of the circle, respectively.
5. A sorting device according to claim 4.
分類対象情報を、複数の分類結果のいずれかに分類する分類方法であって、請求項1に記載の分類装置によって実行される、分類方法。 A classification method for classifying information to be classified into one of a plurality of classification results, the classification method being executed by the classification device according to claim 1 . コンピュータを、請求項1に記載の分類装置として機能させるプログラム。 A program that causes a computer to function as the classification device according to claim 1 .
JP2022027215A 2022-02-24 2022-02-24 Apparatus and method for classification and program Pending JP2023123247A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022027215A JP2023123247A (en) 2022-02-24 2022-02-24 Apparatus and method for classification and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022027215A JP2023123247A (en) 2022-02-24 2022-02-24 Apparatus and method for classification and program

Publications (1)

Publication Number Publication Date
JP2023123247A true JP2023123247A (en) 2023-09-05

Family

ID=87885793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022027215A Pending JP2023123247A (en) 2022-02-24 2022-02-24 Apparatus and method for classification and program

Country Status (1)

Country Link
JP (1) JP2023123247A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102638384B1 (en) * 2023-09-07 2024-02-20 주식회사 포딕스시스템 3-Dimensional moving object detecting apparatus using stationary lidar and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102638384B1 (en) * 2023-09-07 2024-02-20 주식회사 포딕스시스템 3-Dimensional moving object detecting apparatus using stationary lidar and method thereof

Similar Documents

Publication Publication Date Title
US10127477B2 (en) Distributed event prediction and machine learning object recognition system
Guidotti et al. Explaining any time series classifier
Cao et al. Domain-driven, actionable knowledge discovery
CN111143838B (en) Database user abnormal behavior detection method
US20210133630A1 (en) Model induction method for explainable a.i.
US20030037015A1 (en) Methods and apparatus for user-centered similarity learning
US20220121823A1 (en) System and method for artificial intelligence driven document analysis, including searching, indexing, comparing or associating datasets based on learned representations
Bhartiya et al. Employee attrition prediction using classification models
Fu et al. Multiple instance learning for group record linkage
JP2023532639A (en) Obtaining Compact Representations and Time Series Segments with Deep Learning
US20220121942A1 (en) Method and system for cognitive information processing using representation learning and decision learning on data
Yan et al. A comprehensive survey of deep transfer learning for anomaly detection in industrial time series: Methods, applications, and directions
JP2023123247A (en) Apparatus and method for classification and program
Jin et al. DAKA: design activity knowledge acquisition through data-mining
Rao et al. A novel feature-based SHM assessment and predication approach for robust evaluation of damage data diagnosis systems
Kraeva et al. Application of the metric learning for security incident playbook recommendation
Stein et al. Applying data science for shop-floor performance prediction
Ashtaiwi Artificial intelligence is transforming the world development indicators
Punjabi et al. Forensic Intelligence-Combining Artificial Intelligence with Digital Forensics
Tamura et al. Time series classification using macd-histogram-based recurrence plot
Khalid et al. A comparative study of various data mining techniques: statistics, decision trees and neural neworks
Sangeetha et al. Preprocessing using attribute selection in data stream mining
Raj Clustering and Classification of Digital Forensic Data Using Machine Learning and Data Mining Approaches
Deng et al. A novel fault analysis and diagnosis method based on combining computational intelligence methods
Kalita et al. Fundamentals of Data Science: Theory and Practice