JP6770709B2 - Model generator and program for machine learning. - Google Patents

Model generator and program for machine learning. Download PDF

Info

Publication number
JP6770709B2
JP6770709B2 JP2016175389A JP2016175389A JP6770709B2 JP 6770709 B2 JP6770709 B2 JP 6770709B2 JP 2016175389 A JP2016175389 A JP 2016175389A JP 2016175389 A JP2016175389 A JP 2016175389A JP 6770709 B2 JP6770709 B2 JP 6770709B2
Authority
JP
Japan
Prior art keywords
classes
similarity
class
machine learning
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016175389A
Other languages
Japanese (ja)
Other versions
JP2018041300A (en
Inventor
元樹 谷口
元樹 谷口
大熊 智子
智子 大熊
鈴木 星児
星児 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016175389A priority Critical patent/JP6770709B2/en
Publication of JP2018041300A publication Critical patent/JP2018041300A/en
Application granted granted Critical
Publication of JP6770709B2 publication Critical patent/JP6770709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、機械学習用モデル生成装置及びプログラムに関する。 The present invention relates to a machine learning model generator and a program.

自然言語処理を用いたアプリケーションの要素技術としても用いられる固有表現抽出は、テキストに含まれる固有名詞等の固有表現を抽出する技術であり、Support Vector Machine(SVM)や、Conditional Random Fields(CRFs)などの識別問題(分類問題)を扱う機械学習手法を用いたシステムが知られている。 Named entity recognition, which is also used as an elemental technology for applications that use natural language processing, is a technology that extracts proper expressions such as proper nouns contained in text, such as Support Vector Machine (SVM) and Conditional Random Fields (CRFs). A system using a machine learning method for dealing with identification problems (classification problems) such as is known.

下記特許文献1には、既存のモデルのパラメータへの影響を少なくしたままで、追加データに適応したモデルパラメータを推定することができる、モデルパラメータ推定方法が開示されている。 Patent Document 1 below discloses a model parameter estimation method capable of estimating model parameters adapted to additional data while reducing the influence on the parameters of the existing model.

下記非特許文献1には、CRFsに隠れユニット層が追加されたCRFsの派生の一種であるHidden-Unit CRF(HUCRF)が開示されている。 Non-Patent Document 1 below discloses Hidden-Unit CRF (HUCRF), which is a kind of derivative of CRFs in which a hidden unit layer is added to CRFs.

下記非特許文献2には、ラベル付けされていないデータ群に対して正準相関分析を利用したクラスタリングによって仮のラベル付けをしたデータをHUCRFに学習させ、得られるパラメータを初期値として実際にラベルがつけられているデータで追加学習を行う事前学習の方法が開示されている。 In Non-Patent Document 2 below, HUCRF is made to learn tentatively labeled data by clustering using canonical correlation analysis for an unlabeled data group, and the obtained parameters are actually labeled as initial values. A pre-learning method for performing additional learning with the data marked with is disclosed.

特開2015− 38709号公報JP 2015-38709

L.maaten, M.welling, L.K.Saul "Hidden-Unit Conditional Random Fields" Int. Conf. on Artificial Intelligence & Statistics pp.479-488, 2011L.maaten, M.welling, L.K.Saul "Hidden-Unit Conditional Random Fields" Int. Conf. On Artificial Intelligence & Statistics pp.479-488, 2011 Y.B.Kim, K.Stratos, R.Sarikaya, "Pre-training of Hidden-Unit CRFs" Association for Computational Linguistics, pp.192-198, 2015Y.B.Kim, K.Stratos, R.Sarikaya, "Pre-training of Hidden-Unit CRFs" Association for Computational Linguistics, pp.192-198, 2015

識別問題においては、一般的に、ラベル(「タグ」等ともいわれる)が既に付与されている学習データ(既知データ)を与えて学習させる教師あり学習が行われ、学習の結果得られたモデルパラメータを用いて未知データの識別(いずれかのラベルを付与することによるクラス分類)を行う。このような、機械学習手法を用いて高い精度を達成するためには、一般的に大量の学習データ(コーパスや辞書)が必要となる。 In the identification problem, in general, supervised learning is performed by giving learning data (known data) to which a label (also called "tag") is already attached to learn, and model parameters obtained as a result of learning. Is used to identify unknown data (classification by assigning one of the labels). In order to achieve high accuracy by using such a machine learning method, a large amount of learning data (corpus or dictionary) is generally required.

例えば、企業内の文書には機密性の高い情報を含むものや、各企業独自の知識やルールを前提にしないと意味を理解できないものが多いため、企業内文書に対して固有表現抽出を行うためには、学習用コーパスを独自に用意する必要が生じる。このような企業内文書に対して大量のアノテーション(関連する注釈情報)を付与するには極めてコストがかかるため、結果として、企業内文書に対して固有表現抽出を行おうとしても、高精度を達成できるだけの大量の学習データを用意することは現実的ではない。 For example, many documents in a company contain highly confidential information, and many documents cannot be understood without assuming the knowledge and rules unique to each company. Therefore, unique expressions are extracted for documents in a company. For that purpose, it is necessary to prepare a learning corpus independently. It is extremely costly to add a large amount of annotations (related annotation information) to such an in-house document, and as a result, even if an attempt is made to extract a unique expression for the in-house document, high accuracy is achieved. It is not realistic to prepare as much training data as possible.

学習データを大量に用意できないタスクの場合でも、大量の学習データが存在する別のタスクで事前学習させたモデルパラメータ(「モデル」ともいう)の一部を初期条件として、目的のタスクで追加学習することで、学習精度(識別問題であれば、得られたモデルを用いて未知データを識別する場合の精度)を向上させられる場合があるが、精度が高くなるような適切な事前学習の条件が不明であるため、条件の探索に時間がかかる。 Even in the case of a task for which a large amount of training data cannot be prepared, additional learning is performed for the target task with some of the model parameters (also called "models") pre-trained in another task that has a large amount of training data as initial conditions. By doing so, the learning accuracy (in the case of an identification problem, the accuracy when identifying unknown data using the obtained model) may be improved, but appropriate pre-learning conditions such that the accuracy is high. Is unknown, so it takes time to search for the condition.

本発明は、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することのできる機械学習用モデル生成装置及びプログラムの提供を目的とする。 An object of the present invention is to provide a machine learning model generator and a program capable of generating a model having higher learning accuracy as compared with the case where classes are not integrated at the time of pre-learning.

[機械学習用モデル生成装置]
請求項1に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を算出する、第一類似度算出手段と、
前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
教師あり機械学習処理を行う機械学習手段と、
を具えた、機械学習用モデル生成装置である。
[Model generator for machine learning]
The present invention according to claim 1 comprises a first similarity calculation means for calculating the similarity between the classes based on the mutual relationship between the classes in which the relationship is defined in advance.
A second similarity calculation means that calculates the similarity between the classes based on the features of the classes, and
A determination means for determining whether or not the classes are similar based on the calculation results of the first calculation means and the second calculation means.
A class integration means for integrating classes determined to be similar by the determination means into one class,
Machine learning means for supervised machine learning processing,
It is a model generator for machine learning equipped with.

請求項2に係る本発明は、前記関係性が階層構造またはグラフ構造である、請求項1記載の機械学習用モデル生成装置である。 The present invention according to claim 2 is the machine learning model generation device according to claim 1, wherein the relationship is a hierarchical structure or a graph structure.

請求項3に係る本発明は、前記機械学習手段が、モデルパラメータを推定するモデルパラメータ推定手段と、学習されたモデルパラメータからデータの各クラスにおける事後確率を推定する手段と、を具えている請求項1又は2記載のモデル生成装置である。 According to the third aspect of the present invention, the machine learning means includes a model parameter estimation means for estimating model parameters and a means for estimating posterior probabilities of data in each class of data from the learned model parameters. Item 2. The model generator according to item 1 or 2.

[プログラム]
請求項4に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を第一類似度として算出するステップと、
前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
教師あり機械学習処理を行うステップと、
をコンピュータに実行させるためのプログラムである。
[program]
The present invention according to claim 4 includes a step of calculating the similarity between the classes as the first similarity based on the mutual relationship between the classes in which the relationship is defined in advance.
A step of calculating the similarity between the classes as a second similarity based on the features of the classes, and
A step of determining whether or not the classes are similar based on the first similarity and the second similarity, and
A step to integrate classes judged to be similar into one class,
Steps to perform supervised machine learning processing,
Is a program to make a computer execute.

請求項1に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。 According to the first aspect of the present invention, it is possible to generate a model in which the learning accuracy is higher than that in the case where the classes are not integrated at the time of pre-learning.

請求項2に係る本発明よれば、請求項1の効果に加えて、クラスの関係性が階層構造又はグラフ構造の場合に適用可能となる。 According to the second aspect of the present invention, in addition to the effect of the first aspect, it can be applied when the class relationship has a hierarchical structure or a graph structure.

請求項3に係る本発明よれば、請求項1又は2の効果に加えて、事後確率に基づいて算出された第二類似度に基づいてクラス間が類似しているか否かを判定される、機械学習用モデル生成装置が得られる。 According to the present invention according to claim 3, in addition to the effect of claim 1 or 2, it is determined whether or not the classes are similar based on the second similarity calculated based on the posterior probability. A model generator for machine learning is obtained.

請求項4に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。 According to the fourth aspect of the present invention, it is possible to generate a model in which the learning accuracy is higher than that in the case where the classes are not integrated at the time of pre-learning.

本発明の実施形態に係るモデル生成装置10の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the model generation apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係るモデル生成装置10のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the model generation apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係るモデル生成装置10の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation of the model generation apparatus 10 which concerns on embodiment of this invention. 実施例1に係るクラスの階層構造の例を示す。An example of the hierarchical structure of the class according to the first embodiment is shown. 実施例1に係るクラスにおける、各インスタンスの推定確率の例である。This is an example of the estimated probability of each instance in the class according to the first embodiment. 実施例1に係る学習クラス間の相関係数を示す行列である。It is a matrix which shows the correlation coefficient between learning classes which concerns on Example 1. 実施例1に係る学習クラス間の階層構造上の類似度と、クラスの階層構造との関係を示す。The relationship between the hierarchical structure similarity between the learning classes according to the first embodiment and the hierarchical structure of the classes is shown. 実施例1において、クラスの統合処理がされた後の階層構造を示す。In the first embodiment, the hierarchical structure after the class integration processing is performed is shown. 実施例2に係るクラスのグラフ構造の例を示す。An example of the graph structure of the class according to the second embodiment is shown. 実施例2に係るクラスにおける、各インスタンスの推定確率の例である。This is an example of the estimated probability of each instance in the class according to the second embodiment. 実施例2に係る学習クラス間の相関係数を示す行列である。It is a matrix which shows the correlation coefficient between learning classes which concerns on Example 2. 実施例2に係る学習クラス間のグラフ構造上の類似度と、クラスのグラフ構造との関係を示す。The relationship between the graph structure similarity between the learning classes according to the second embodiment and the graph structure of the classes is shown. 実施例2において、クラスの統合処理がされた後のグラフ構造を示す。In Example 2, the graph structure after the class integration process is shown.

図1は、本発明の実施形態に係るモデル生成装置10の機能構成を示すブロック図である。本実施形態のモデル生成装置10は、機械学習部11と、第一類似度算出部12と、第二類似度算出部13と、判定部14と、クラス統合部15と、出力部16を具えている。 FIG. 1 is a block diagram showing a functional configuration of the model generation device 10 according to the embodiment of the present invention. The model generation device 10 of the present embodiment includes a machine learning unit 11, a first similarity calculation unit 12, a second similarity calculation unit 13, a determination unit 14, a class integration unit 15, and an output unit 16. I have.

機械学習部11では、ラベル付き学習データが記録された学習データ17から機械学習処理が行われ、モデルパラメータの推定、及び、インスタンス(一件ごとの学習データ)がどのクラスに該当するのかというクラス分類に関する事後確率の推定、を行う。 In the machine learning unit 11, machine learning processing is performed from the learning data 17 in which the labeled learning data is recorded, model parameters are estimated, and a class of which class the instance (learning data for each case) corresponds to. Estimate posterior probabilities for classification.

第一類似度算出部12では、機械学習部11で推定された各インスタンスの事後確率(以下、「推定確率」ともいう)を基にして生成されるベクトル量を各クラスの特徴量として、当該特徴量に基づいて各クラス間の類似度(「特徴量類似度」)を算出する。 In the first similarity calculation unit 12, the vector amount generated based on the posterior probability of each instance estimated by the machine learning unit 11 (hereinafter, also referred to as “estimated probability”) is used as the feature amount of each class. The similarity between each class (“feature similarity”) is calculated based on the feature amount.

第二類似度算出部13では、クラスの関係性の情報18(例えば「クラスの階層」の情報)に基づいて、各クラス間の類似度(「関係性類似度」)を算出する。クラスの関係性の情報の初期値は、学習データ16のラベルを基に人手で構築する。 The second similarity calculation unit 13 calculates the similarity between each class (“relationship similarity”) based on the class relationship information 18 (for example, information on the “class hierarchy”). The initial value of the class relationship information is manually constructed based on the label of the learning data 16.

判定部14では、特徴量類似度と関係性類似度のそれぞれにおいて、各所定の閾値を超えている場合、そのクラスペアを「類似している」と判定する。 When the feature amount similarity and the relationship similarity exceed each predetermined threshold value, the determination unit 14 determines that the class pair is "similar".

クラス統合部15では、判定部14において「類似している」と判定されたクラスペアを一つのクラスに統合する処理を行い、学習データ17のラベルとクラスの関係性の情報18を更新する。 The class integration unit 15 performs a process of integrating the class pairs determined to be “similar” by the determination unit 14 into one class, and updates the label of the learning data 17 and the information 18 of the relationship between the classes.

出力部16では、判定部14において「類似している」と判定されたクラスペアが存在しない場合、機械学習部11によって推定されたモデルパラメータを出力する。 The output unit 16 outputs the model parameters estimated by the machine learning unit 11 when there is no class pair determined to be “similar” by the determination unit 14.

図2は、モデル生成装置10ハードウェア構成を示す図である。モデル生成装置10は、CPU21、メモリ22、ハードディスクドライブ(HDD)等の記憶装置23、表示装置24を有し、これらの構成要素は、制御バス25を介して互いに接続されている。 FIG. 2 is a diagram showing a hardware configuration of the model generator 10. The model generation device 10 includes a CPU 21, a memory 22, a storage device 23 such as a hard disk drive (HDD), and a display device 24, and these components are connected to each other via a control bus 25.

CPU21は、メモリ22または記憶装置23に格納された(あるいはCD−ROM等の記憶媒体(図示しない)から提供される)制御プログラム、に基づいて所定の処理を実行して、モデル生成装置10の動作を制御する。 The CPU 21 executes a predetermined process based on a control program stored in the memory 22 or the storage device 23 (or provided from a storage medium (not shown) such as a CD-ROM), and the model generation device 10 Control the operation.

なお、本発明の実施に当たっては、モデル生成装置10が、キーボード、タッチパネルなどの各種入力用インターフェイス装置を更に具えていても良い。 In carrying out the present invention, the model generation device 10 may further include various input interface devices such as a keyboard and a touch panel.

次に、図3のフローチャートを参照しながら、各クラスの特徴量を各インスタンスの推定確率を基に算出する場合を例に、本実施形態に係るモデル生成装置の動作を説明する。以下に示す実施例は、事前に定義されたクラスの関係性が、図4に示す階層構造を有している場合(実施例1)、図9に示すグラフ構造を有している場合(実施例2)である。 Next, with reference to the flowchart of FIG. 3, the operation of the model generator according to the present embodiment will be described by taking as an example the case where the feature amount of each class is calculated based on the estimated probability of each instance. In the examples shown below, when the predefined class relationships have the hierarchical structure shown in FIG. 4 (Example 1) and the graph structure shown in FIG. 9 (implementation). Example 2).

ステップS1では、階層構造の最下位のクラス(「法人名」、「政治組織名」、「都道府県名」、「市町村名」、「人名」)で機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、法人名:0.1、政治組織名:0.1、都道府県名:0.4、市町村名:0.3、人名:0.1となっている。) In step S1, each instance is executed after the machine learning process is executed in the lowest class of the hierarchical structure (“corporate name”, “political organization name”, “prefecture name”, “city / town / village name”, “personal name”). The estimated probability is calculated for, and the process proceeds to step S2. Hereinafter, the case where the estimated probability of each instance becomes the value shown in FIG. 5 will be described as an example. (The estimated probability of the data of instance 1 is corporation name: 0.1, political organization name: 0.1, prefecture name: 0.4, city / town / village name: 0.3, person name: 0.1. )

各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。 The feature quantity of each class can be calculated as, for example, a vector quantity having the value of the estimation probability of each instance as the value of each dimension.

ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図6には、特徴量の相関行列として表現した。 In step S2, after the features of each learning class are generated from the estimated probabilities of each instance, the correlation coefficient between the learning classes is calculated based on the generated features of each learning class. In FIG. 6, it is represented as a correlation matrix of features.

ステップS1、S2と並列で行うことが可能なステップS3では、クラスの階層構造に基づいて、各学習クラス間の階層構造上の類似度を算出する。例えば、同一の上位階層(親)の配下に存在するクラス同士(兄弟クラス)を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、階層構造上の類似度を算出することができる。 In step S3, which can be performed in parallel with steps S1 and S2, the degree of hierarchical similarity between the learning classes is calculated based on the hierarchical structure of the classes. For example, by setting the similarity between classes (brother classes) existing under the same upper hierarchy (parent) to "1" and the similarity between other classes to "0", the similarity in the hierarchical structure is set. The degree can be calculated.

図4の階層構造を例にした場合、「法人名」と「政治組織名」、及び、「都道府県名」と「市町村名」の組み合わせは、それぞれ、同一の親(「組織名」、「地名」)を親としているため、階層構造上の類似度は「1」となり、これら以外の組み合わせについては、階層構造上の類似度は「0」となる。図7には、各学習クラス間の類似度を行列として表現した。 Taking the hierarchical structure of FIG. 4 as an example, the combinations of "corporate name" and "political organization name" and "prefecture name" and "city / town / village name" are the same parent ("organization name" and "organization name", respectively. Since the parent is the place name), the similarity in the hierarchical structure is "1", and for combinations other than these, the similarity in the hierarchical structure is "0". In FIG. 7, the similarity between each learning class is represented as a matrix.

ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出された階層構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、階層構造上の類似度の閾値を0.5とした場合は、「市町村名」と「都道府県名」のペアが類似しているクラスペアとして抽出されることになる。 After the completion of steps S2 and S3, the process proceeds to step S4, and in step S4, the correlation coefficient of the feature amount calculated in step S2 and the similarity in the hierarchical structure calculated in step S3 are each equal to or more than a predetermined threshold value. The learning class pairs that are are extracted as similar class pairs. As an example, when the threshold value of the correlation coefficient of the feature amount is 0.5 and the threshold value of the similarity in the hierarchical structure is 0.5, the pair of "city name" and "prefecture name" is similar. It will be extracted as a class pair.

ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。 In step S5 following step S4, it is determined whether or not a similar class pair exists, and if there is a similar pair, the process proceeds to step S6 and there is no similar class pair. If so, the process proceeds to step S7.

ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、階層構造として記録されているクラスの関係性の情報(階層構造の情報)と学習データのラベルの更新を行う。「市町村名」と「都道府県名」のペアが類似しているクラスペアであった場合、両者が統合され、統合後のクラス名(ラベル)としては、例えば、階層構造上の上位階層名(例:「地名」)を用いることができる(図8)。クラスの統合処理後、ステップS1、S3へ進む。 In step S6, the similar class pairs extracted in step S4 are integrated into one class. Specifically, the label of the class relationship information (hierarchical structure information) and the learning data recorded as the hierarchical structure is updated. If the pair of "city name" and "prefecture name" is a similar class pair, both are integrated, and the class name (label) after integration is, for example, a higher hierarchy name in the hierarchical structure ( Example: "place name") can be used (Fig. 8). After the class integration process, the process proceeds to steps S1 and S3.

再び進んだステップS1及びS3では、更新された階層構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間の階層構造上の類似度の算出が再度行われる。階層構造の更新により、「地名」が追加され、「市町村名」と「都道府県名」が削除された結果、階層構造の最下位のクラスは、「法人名」、「政治組織名」、「地名」、「人名」となる。 In steps S1 and S3 that proceed again, the machine learning process and the calculation of the hierarchical similarity between the learning classes are performed again based on the updated hierarchical structure information and the labels of the learning data, respectively. Due to the update of the hierarchical structure, "place name" was added, and "city / town / village name" and "prefecture name" were deleted. As a result, the lowest class of the hierarchical structure was "corporate name", "political organization name", and " It becomes "place name" and "personal name".

このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。 In this way, the loop is repeated until there are no similar pairs, and finally in step S7, the model is output and the process ends.

実施例2では、小説のテキストから作者を推定するというタスクを想定したものであり、師弟・友人関係などから定義される作者間の関係性は、図9に示したようなグラフ構造を取る(線で結ばれるクラス(小説家名)間に、師弟関係や友人関係が存在することを示している)。 In the second embodiment, the task of estimating the author from the text of the novel is assumed, and the relationship between the authors defined from the teacher-apprentice / friend relationship has a graph structure as shown in FIG. 9 ( It shows that there is a teacher-apprentice relationship and a friendship between the classes (novelist name) connected by a line).

ステップS1では、グラフ構造を構成する全クラスで機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、小説家A:0.1、小説家B:0.1、小説家C:0.4、小説家D:0.3、小説家E:0.1となっている。) In step S1, after the machine learning process is executed in all the classes constituting the graph structure, the estimated probability is calculated for each instance, and the process proceeds to step S2. Hereinafter, the case where the estimated probability of each instance becomes the value shown in FIG. 5 will be described as an example. (The estimated probabilities of the data of instance 1 are novelist A: 0.1, novelist B: 0.1, novelist C: 0.4, novelist D: 0.3, novelist E: 0.1. It has become.)

各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。 The feature quantity of each class can be calculated as, for example, a vector quantity having the value of the estimation probability of each instance as the value of each dimension.

ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図11には、特徴量の相関行列として表現した。 In step S2, after the features of each learning class are generated from the estimated probabilities of each instance, the correlation coefficient between the learning classes is calculated based on the generated features of each learning class. In FIG. 11, it is represented as a correlation matrix of features.

ステップS1、S2と並列で行うことが可能なステップS3では、クラスのグラフ構造に基づいて、各学習クラス間のグラフ構造上の類似度を算出する。例えば、線で直接接続されているクラス同士を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、グラフ構造上の類似度を算出することができる。 In step S3, which can be performed in parallel with steps S1 and S2, the degree of similarity in the graph structure between the learning classes is calculated based on the graph structure of the classes. For example, the similarity in the graph structure can be calculated by setting the similarity between the classes directly connected by the line to "1" and setting the similarity between the other classes to "0".

図12のグラフ構造を例にした場合、例えば「小説家A」は、「小説家B」、「小説家C」及び「小説家D」との組み合わせについて、グラフ構造上の類似度が「1」となり、「小説家E」との類似度は「0」となる。図12には、各学習クラス間の類似度を行列として表現した。 Taking the graph structure of FIG. 12 as an example, for example, "Novelist A" has a degree of similarity in graph structure of "1" for combinations with "Novelist B", "Novelist C", and "Novelist D". , And the degree of similarity with "Novelist E" is "0". In FIG. 12, the similarity between each learning class is represented as a matrix.

ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出されたグラフ構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、グラフ構造上の類似度の閾値を0.5とした場合は、「小説家C」と「小説家D」のペアが類似しているクラスペアとして抽出されることになる。 After the completion of steps S2 and S3, the process proceeds to step S4, and in step S4, the correlation coefficient of the feature amount calculated in step S2 and the similarity in the graph structure calculated in step S3 are equal to or higher than a predetermined threshold value. The learning class pair that is is extracted as a similar class pair. As an example, when the threshold value of the correlation coefficient of the feature amount is 0.5 and the threshold value of the similarity on the graph structure is 0.5, the pair of "Novelist C" and "Novelist D" are similar. It will be extracted as a class pair.

ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。 In step S5 following step S4, it is determined whether or not a similar class pair exists, and if there is a similar pair, the process proceeds to step S6 and there is no similar class pair. If so, the process proceeds to step S7.

ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、グラフ構造として記録されているクラスの関係性の情報(グラフ構造の情報)と学習データのラベルの更新を行う。例として、「小説家C」と「小説家D」のペアが類似しているクラスペアであった場合の統合処理後のグラフ構造を図13に示す。統合後のクラス名(ラベル)としては、例えば、統合前の両者の名称を結合した名称を用いることができる。クラスの統合処理後、ステップS1、S3へ進む。 In step S6, the similar class pairs extracted in step S4 are integrated into one class. Specifically, the label of the class relationship information (graph structure information) and the learning data recorded as the graph structure is updated. As an example, FIG. 13 shows a graph structure after the integration process when the pair of “Novelist C” and “Novelist D” are similar class pairs. As the class name (label) after the integration, for example, a name that combines both names before the integration can be used. After the class integration process, the process proceeds to steps S1 and S3.

再び進んだステップS1及びS3では、更新されたグラフ構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間のグラフ構造上の類似度の算出が再度行われる。 In steps S1 and S3 that proceed again, the machine learning process and the calculation of the similarity in the graph structure between the learning classes are performed again based on the updated graph structure information and the labels of the learning data, respectively.

このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。 In this way, the loop is repeated until there are no similar pairs, and finally in step S7, the model is output and the process ends.

以上で説明をしたように、本発明は、機械学習用モデル生成装置及びプログラムに適用することができる。 As described above, the present invention can be applied to a machine learning model generator and a program.

10 モデル生成装置
11 機械学習部
12 第一類似度算出部
13 第二類似度算出部
14 判定部
15 クラス統合部
16 出力部
17 学習データ
18 クラスの関係性の情報
21 CPU
22 メモリ
23 記憶装置
24 表示装置
25 制御バス
10 Model generator 11 Machine learning unit 12 First similarity calculation unit 13 Second similarity calculation unit 14 Judgment unit 15 Class integration unit 16 Output unit 17 Learning data 18 Class relationship information 21 CPU
22 Memory 23 Storage device 24 Display device 25 Control bus

Claims (4)

予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を算出する、第一類似度算出手段と、
前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
前記クラス統合手段により統合されたクラスで教師あり機械学習処理を行う機械学習手段と、
を具えた、機械学習用モデル生成装置。
A first similarity calculation means that calculates the similarity between the classes based on the mutual relationship between the classes whose relationships are defined in advance.
A second similarity calculation means that calculates the similarity between the classes based on the features of the classes, and
A determination means for determining whether or not the classes are similar based on the calculation results of the first calculation means and the second calculation means.
A class integration means for integrating classes determined to be similar by the determination means into one class,
A machine learning means that performs supervised machine learning processing in a class integrated by the class integration means ,
A model generator for machine learning equipped with.
前記関係性が階層構造またはグラフ構造である、請求項1記載の機械学習用モデル生成装置。 The machine learning model generator according to claim 1, wherein the relationship is a hierarchical structure or a graph structure. 前記機械学習手段が、モデルパラメータを推定するモデルパラメータ推定手段と、学習されたモデルパラメータからデータの各クラスにおける事後確率を推定する手段と、を具えている請求項1又は2記載のモデル生成装置。 The model generator according to claim 1 or 2, wherein the machine learning means includes a model parameter estimating means for estimating model parameters and a means for estimating posterior probabilities of data in each class of data from the learned model parameters. .. 予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を第一類似度として算出するステップと、
前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
統合されたクラスで教師あり機械学習処理を行うステップと、
をコンピュータに実行させるためのプログラム。
A step of calculating the similarity between the classes as the first similarity based on the mutual relationship of the classes whose relationships are defined in advance, and
A step of calculating the similarity between the classes as a second similarity based on the features of the classes, and
A step of determining whether or not the classes are similar based on the first similarity and the second similarity, and
A step to integrate classes judged to be similar into one class,
Steps to perform supervised machine learning processing in an integrated class ,
A program that lets your computer run.
JP2016175389A 2016-09-08 2016-09-08 Model generator and program for machine learning. Active JP6770709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016175389A JP6770709B2 (en) 2016-09-08 2016-09-08 Model generator and program for machine learning.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016175389A JP6770709B2 (en) 2016-09-08 2016-09-08 Model generator and program for machine learning.

Publications (2)

Publication Number Publication Date
JP2018041300A JP2018041300A (en) 2018-03-15
JP6770709B2 true JP6770709B2 (en) 2020-10-21

Family

ID=61626017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016175389A Active JP6770709B2 (en) 2016-09-08 2016-09-08 Model generator and program for machine learning.

Country Status (1)

Country Link
JP (1) JP6770709B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3418944B1 (en) 2017-05-23 2024-03-13 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
EP3814854A1 (en) * 2018-08-20 2021-05-05 Siemens Aktiengesellschaft Programmable logic controller-based modular acceleration module for artificial intelligence
KR102144975B1 (en) * 2019-11-08 2020-08-14 주식회사 알체라 Machine learning system and method for operating machine learning system
KR102528405B1 (en) * 2020-04-08 2023-05-02 에스케이텔레콤 주식회사 Method and Apparatus for Classify Images using Neural Network Trained for Image Classification

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4631005B2 (en) * 2005-07-15 2011-02-16 公立大学法人大阪府立大学 Program, apparatus and method for pattern recognition using additional information
JP2010152561A (en) * 2008-12-24 2010-07-08 Toshiba Corp Similar expression extraction device, server unit, and program
JP5660078B2 (en) * 2012-05-31 2015-01-28 カシオ計算機株式会社 Multi-class classifier, method and program
EP2884434A1 (en) * 2013-12-10 2015-06-17 Televic Education NV Method and device for automatic feedback generation
JP6365024B2 (en) * 2014-07-02 2018-08-01 富士通株式会社 Service providing apparatus, method, and program

Also Published As

Publication number Publication date
JP2018041300A (en) 2018-03-15

Similar Documents

Publication Publication Date Title
US11657231B2 (en) Capturing rich response relationships with small-data neural networks
JP6611053B2 (en) Subject estimation system, subject estimation method and program
US20190317986A1 (en) Annotated text data expanding method, annotated text data expanding computer-readable storage medium, annotated text data expanding device, and text classification model training method
JP6770709B2 (en) Model generator and program for machine learning.
US11669740B2 (en) Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition
CN111985229A (en) Sequence labeling method and device and computer equipment
JP6070501B2 (en) Information processing apparatus and information processing program
CN112805715A (en) Identifying entity attribute relationships
WO2023045725A1 (en) Method for dataset creation, electronic device, and computer program product
WO2023088309A1 (en) Method for rewriting narrative text, device, apparatus, and medium
JP2018097468A (en) Sentence classification learning device, sentence classification device, sentence classification learning method and sentence classification learning program
US20220222442A1 (en) Parameter learning apparatus, parameter learning method, and computer readable recording medium
CN111859238B (en) Model-based method, device and computer equipment for predicting data change frequency
JP2021163477A (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program for image processing
US20240202495A1 (en) Learning apparatus, information processing apparatus, learning method, information processing method and program
JP7236501B2 (en) Transfer learning method and computer device for deep learning model based on document similarity learning
JP2023181819A (en) Language processing device, machine learning method, estimation method, and program
JP2017538226A (en) Scalable web data extraction
JP2019159918A (en) Clustering program, clustering method, and clustering apparatus
JP7135730B2 (en) Summary generation method and summary generation program
JP2022185799A (en) Information processing program, information processing method and information processing device
JP5824429B2 (en) Spam account score calculation apparatus, spam account score calculation method, and program
Umare et al. A survey on machine learning techniques to extract chemical names from text documents
JP5342574B2 (en) Topic modeling apparatus, topic modeling method, and program
Zaikis et al. Dacl: A domain-adapted contrastive learning approach to low resource language representations for document clustering tasks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6770709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350