JP2018041300A - Machine learning model generation device and program - Google Patents

Machine learning model generation device and program Download PDF

Info

Publication number
JP2018041300A
JP2018041300A JP2016175389A JP2016175389A JP2018041300A JP 2018041300 A JP2018041300 A JP 2018041300A JP 2016175389 A JP2016175389 A JP 2016175389A JP 2016175389 A JP2016175389 A JP 2016175389A JP 2018041300 A JP2018041300 A JP 2018041300A
Authority
JP
Japan
Prior art keywords
classes
similarity
class
machine learning
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016175389A
Other languages
Japanese (ja)
Other versions
JP6770709B2 (en
Inventor
元樹 谷口
Motoki Taniguchi
元樹 谷口
大熊 智子
Tomoko Okuma
智子 大熊
鈴木 星児
Seiji Suzuki
星児 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2016175389A priority Critical patent/JP6770709B2/en
Publication of JP2018041300A publication Critical patent/JP2018041300A/en
Application granted granted Critical
Publication of JP6770709B2 publication Critical patent/JP6770709B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform previous learning by automatically determining a class during the previous learning without requiring much time for searching for a condition of the previous learning when generating a model for additional learning.SOLUTION: An image reading device comprises: first similarity calculation means for calculating similarity between classes of which the relationship is predefined, based on the mutual relationship of the classes; second similarity calculation means for calculating similarity between the classes based on feature amounts of the classes; determination means for determining whether the classes are similar based on calculation results of the first calculation means and the second calculation means; class merging means for merging the classes that are determined similar by the determination means, into one class; and machine learning means for performing supervised machine learning processing.SELECTED DRAWING: Figure 1

Description

本発明は、機械学習用モデル生成装置及びプログラムに関する。   The present invention relates to a machine learning model generation device and a program.

自然言語処理を用いたアプリケーションの要素技術としても用いられる固有表現抽出は、テキストに含まれる固有名詞等の固有表現を抽出する技術であり、Support Vector Machine(SVM)や、Conditional Random Fields(CRFs)などの識別問題(分類問題)を扱う機械学習手法を用いたシステムが知られている。   Specific expression extraction, which is also used as an elemental technology for applications using natural language processing, is a technique for extracting specific expressions such as proper nouns contained in text. Support Vector Machine (SVM) and Conditional Random Fields (CRFs) There is known a system using a machine learning technique that handles an identification problem such as a classification problem.

下記特許文献1には、既存のモデルのパラメータへの影響を少なくしたままで、追加データに適応したモデルパラメータを推定することができる、モデルパラメータ推定方法が開示されている。   Patent Document 1 below discloses a model parameter estimation method that can estimate a model parameter adapted to additional data while reducing the influence on parameters of an existing model.

下記非特許文献1には、CRFsに隠れユニット層が追加されたCRFsの派生の一種であるHidden-Unit CRF(HUCRF)が開示されている。   Non-Patent Document 1 below discloses Hidden-Unit CRF (HUCRF) which is a kind of derivation of CRFs in which a hidden unit layer is added to CRFs.

下記非特許文献2には、ラベル付けされていないデータ群に対して正準相関分析を利用したクラスタリングによって仮のラベル付けをしたデータをHUCRFに学習させ、得られるパラメータを初期値として実際にラベルがつけられているデータで追加学習を行う事前学習の方法が開示されている。   In Non-Patent Document 2 below, HUCRF is made to learn temporary labeled data by clustering using canonical correlation analysis for an unlabeled data group, and the obtained parameters are actually labeled as initial values. A method of pre-learning for performing additional learning using data with a mark is disclosed.

特開2015− 38709号公報Japanese Patent Laying-Open No. 2015-38709

L.maaten, M.welling, L.K.Saul "Hidden-Unit Conditional Random Fields" Int. Conf. on Artificial Intelligence & Statistics pp.479-488, 2011L.maaten, M.welling, L.K.Saul "Hidden-Unit Conditional Random Fields" Int. Conf. On Artificial Intelligence & Statistics pp.479-488, 2011 Y.B.Kim, K.Stratos, R.Sarikaya, "Pre-training of Hidden-Unit CRFs" Association for Computational Linguistics, pp.192-198, 2015Y.B.Kim, K.Stratos, R.Sarikaya, "Pre-training of Hidden-Unit CRFs" Association for Computational Linguistics, pp.192-198, 2015

識別問題においては、一般的に、ラベル(「タグ」等ともいわれる)が既に付与されている学習データ(既知データ)を与えて学習させる教師あり学習が行われ、学習の結果得られたモデルパラメータを用いて未知データの識別(いずれかのラベルを付与することによるクラス分類)を行う。このような、機械学習手法を用いて高い精度を達成するためには、一般的に大量の学習データ(コーパスや辞書)が必要となる。   In the identification problem, generally, supervised learning is performed in which learning data (known data) to which a label (also referred to as a “tag” or the like) is already given is given and learning is performed, and the model parameters obtained as a result of learning are performed. Is used to identify unknown data (classification by assigning one of the labels). In order to achieve high accuracy using such a machine learning method, a large amount of learning data (corpus or dictionary) is generally required.

例えば、企業内の文書には機密性の高い情報を含むものや、各企業独自の知識やルールを前提にしないと意味を理解できないものが多いため、企業内文書に対して固有表現抽出を行うためには、学習用コーパスを独自に用意する必要が生じる。このような企業内文書に対して大量のアノテーション(関連する注釈情報)を付与するには極めてコストがかかるため、結果として、企業内文書に対して固有表現抽出を行おうとしても、高精度を達成できるだけの大量の学習データを用意することは現実的ではない。   For example, there are many documents in the company that contain highly confidential information, and there are many that cannot be understood unless the knowledge and rules unique to each company are assumed. For this purpose, a learning corpus needs to be prepared independently. Since it is extremely expensive to give a large amount of annotation (related annotation information) to such an in-company document, as a result, even if trying to extract a specific expression for an in-company document, high accuracy is achieved. It is not realistic to prepare as much learning data as can be achieved.

学習データを大量に用意できないタスクの場合でも、大量の学習データが存在する別のタスクで事前学習させたモデルパラメータ(「モデル」ともいう)の一部を初期条件として、目的のタスクで追加学習することで、学習精度(識別問題であれば、得られたモデルを用いて未知データを識別する場合の精度)を向上させられる場合があるが、精度が高くなるような適切な事前学習の条件が不明であるため、条件の探索に時間がかかる。   Even in the case of tasks for which a large amount of learning data is not available, additional learning is performed with the target task using some model parameters (also referred to as “models”) that have been pre-trained in another task with a large amount of learning data as initial conditions This may improve the learning accuracy (if it is an identification problem, the accuracy of identifying unknown data using the obtained model), but appropriate pre-learning conditions that increase the accuracy Since it is unknown, it takes time to search for conditions.

本発明は、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することのできる機械学習用モデル生成装置及びプログラムの提供を目的とする。   An object of the present invention is to provide a machine learning model generation apparatus and a program that can generate a model with higher learning accuracy compared to a case where class integration is not performed in advance learning.

[機械学習用モデル生成装置]
請求項1に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を算出する、第一類似度算出手段と、
前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
教師あり機械学習処理を行う機械学習手段と、
を具えた、機械学習用モデル生成装置である。
[Model generator for machine learning]
The present invention according to claim 1 is a first similarity calculation means for calculating a similarity between the classes based on a relationship between classes in which a relationship is defined in advance.
Second similarity calculation means for calculating the similarity between the classes based on the feature amount of the class;
A determination unit that determines whether the classes are similar based on the calculation results of the first calculation unit and the second calculation unit;
Class integration means for integrating the classes determined to be similar by the determination means into one class;
Machine learning means for performing supervised machine learning processing;
Is a machine learning model generation device.

請求項2に係る本発明は、前記関係性が階層構造またはグラフ構造である、請求項1記載の機械学習用モデル生成装置である。   The present invention according to claim 2 is the model generation apparatus for machine learning according to claim 1, wherein the relationship is a hierarchical structure or a graph structure.

請求項3に係る本発明は、前記機械学習手段が、モデルパラメータを推定するモデルパラメータ推定手段と、学習されたモデルパラメータからデータの各クラスにおける事後確率を推定する手段と、を具えている請求項1又は2記載のモデル生成装置である。   According to a third aspect of the present invention, the machine learning means comprises model parameter estimation means for estimating model parameters, and means for estimating posterior probabilities in each class of data from the learned model parameters. Item 3. The model generation device according to item 1 or 2.

[プログラム]
請求項4に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を第一類似度として算出するステップと、
前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
教師あり機械学習処理を行うステップと、
をコンピュータに実行させるためのプログラムである。
[program]
The present invention according to claim 4 is a step of calculating a similarity between the classes as a first similarity based on a relationship between classes whose relationships are defined in advance.
Calculating a similarity between the classes as a second similarity based on the feature amount of the class;
Determining whether the classes are similar based on the first similarity and the second similarity;
Combining the classes determined to be similar into a single class;
Performing supervised machine learning processing;
Is a program for causing a computer to execute.

請求項1に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。   According to the first aspect of the present invention, it is possible to generate a model with higher learning accuracy compared to a case where class integration is not performed in the prior learning.

請求項2に係る本発明よれば、請求項1の効果に加えて、クラスの関係性が階層構造又はグラフ構造の場合に適用可能となる。   According to the second aspect of the present invention, in addition to the effect of the first aspect, the present invention can be applied to a case where the class relationship is a hierarchical structure or a graph structure.

請求項3に係る本発明よれば、請求項1又は2の効果に加えて、事後確率に基づいて算出された第二類似度に基づいてクラス間が類似しているか否かを判定される、機械学習用モデル生成装置が得られる。   According to the present invention of claim 3, in addition to the effect of claim 1 or 2, it is determined whether or not the classes are similar based on the second similarity calculated based on the posterior probability. A machine learning model generation apparatus is obtained.

請求項4に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。   According to the fourth aspect of the present invention, it is possible to generate a model with higher learning accuracy compared to a case where class integration is not performed during pre-learning.

本発明の実施形態に係るモデル生成装置10の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the model production | generation apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係るモデル生成装置10のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the model production | generation apparatus 10 which concerns on embodiment of this invention. 本発明の実施形態に係るモデル生成装置10の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the model production | generation apparatus 10 which concerns on embodiment of this invention. 実施例1に係るクラスの階層構造の例を示す。The example of the hierarchical structure of the class which concerns on Example 1 is shown. 実施例1に係るクラスにおける、各インスタンスの推定確率の例である。It is an example of the estimated probability of each instance in the class according to the first embodiment. 実施例1に係る学習クラス間の相関係数を示す行列である。3 is a matrix showing correlation coefficients between learning classes according to the first embodiment. 実施例1に係る学習クラス間の階層構造上の類似度と、クラスの階層構造との関係を示す。The relationship between the similarity on the hierarchical structure between the learning classes based on Example 1, and the hierarchical structure of a class is shown. 実施例1において、クラスの統合処理がされた後の階層構造を示す。In Example 1, the hierarchical structure after class integration processing is shown. 実施例2に係るクラスのグラフ構造の例を示す。The example of the graph structure of the class which concerns on Example 2 is shown. 実施例2に係るクラスにおける、各インスタンスの推定確率の例である。It is an example of the estimated probability of each instance in the class according to the second embodiment. 実施例2に係る学習クラス間の相関係数を示す行列である。10 is a matrix showing correlation coefficients between learning classes according to the second embodiment. 実施例2に係る学習クラス間のグラフ構造上の類似度と、クラスのグラフ構造との関係を示す。The relationship between the similarity on the graph structure between the learning classes based on Example 2, and the graph structure of a class is shown. 実施例2において、クラスの統合処理がされた後のグラフ構造を示す。In Example 2, the graph structure after a class integration process is shown.

図1は、本発明の実施形態に係るモデル生成装置10の機能構成を示すブロック図である。本実施形態のモデル生成装置10は、機械学習部11と、第一類似度算出部12と、第二類似度算出部13と、判定部14と、クラス統合部15と、出力部16を具えている。   FIG. 1 is a block diagram illustrating a functional configuration of a model generation device 10 according to an embodiment of the present invention. The model generation apparatus 10 according to the present embodiment includes a machine learning unit 11, a first similarity calculation unit 12, a second similarity calculation unit 13, a determination unit 14, a class integration unit 15, and an output unit 16. It is.

機械学習部11では、ラベル付き学習データが記録された学習データ17から機械学習処理が行われ、モデルパラメータの推定、及び、インスタンス(一件ごとの学習データ)がどのクラスに該当するのかというクラス分類に関する事後確率の推定、を行う。   In the machine learning unit 11, a machine learning process is performed from the learning data 17 in which labeled learning data is recorded, and a model parameter estimation and a class to which instance (learning data for each case) corresponds. Estimate posterior probabilities for classification.

第一類似度算出部12では、機械学習部11で推定された各インスタンスの事後確率(以下、「推定確率」ともいう)を基にして生成されるベクトル量を各クラスの特徴量として、当該特徴量に基づいて各クラス間の類似度(「特徴量類似度」)を算出する。   In the first similarity calculation unit 12, the vector amount generated based on the posterior probability of each instance estimated by the machine learning unit 11 (hereinafter also referred to as “estimated probability”) is used as the feature amount of each class. Based on the feature quantity, the similarity between the classes (“feature quantity similarity”) is calculated.

第二類似度算出部13では、クラスの関係性の情報18(例えば「クラスの階層」の情報)に基づいて、各クラス間の類似度(「関係性類似度」)を算出する。クラスの関係性の情報の初期値は、学習データ16のラベルを基に人手で構築する。   The second similarity calculation unit 13 calculates the similarity (“relationship similarity”) between the classes based on the class relationship information 18 (for example, “class hierarchy” information). The initial value of the class relationship information is manually constructed based on the label of the learning data 16.

判定部14では、特徴量類似度と関係性類似度のそれぞれにおいて、各所定の閾値を超えている場合、そのクラスペアを「類似している」と判定する。   The determination unit 14 determines that the class pair is “similar” when each of the feature amount similarity and the relationship similarity exceeds each predetermined threshold.

クラス統合部15では、判定部14において「類似している」と判定されたクラスペアを一つのクラスに統合する処理を行い、学習データ17のラベルとクラスの関係性の情報18を更新する。   The class integration unit 15 performs processing for integrating the class pairs determined as “similar” by the determination unit 14 into one class, and updates the information 18 on the relationship between the label of the learning data 17 and the class.

出力部16では、判定部14において「類似している」と判定されたクラスペアが存在しない場合、機械学習部11によって推定されたモデルパラメータを出力する。   The output unit 16 outputs the model parameter estimated by the machine learning unit 11 when there is no class pair determined as “similar” by the determination unit 14.

図2は、モデル生成装置10ハードウェア構成を示す図である。モデル生成装置10は、CPU21、メモリ22、ハードディスクドライブ(HDD)等の記憶装置23、表示装置24を有し、これらの構成要素は、制御バス25を介して互いに接続されている。   FIG. 2 is a diagram illustrating a hardware configuration of the model generation device 10. The model generation device 10 includes a CPU 21, a memory 22, a storage device 23 such as a hard disk drive (HDD), and a display device 24, and these components are connected to each other via a control bus 25.

CPU21は、メモリ22または記憶装置23に格納された(あるいはCD−ROM等の記憶媒体(図示しない)から提供される)制御プログラム、に基づいて所定の処理を実行して、モデル生成装置10の動作を制御する。   The CPU 21 executes predetermined processing based on a control program stored in the memory 22 or the storage device 23 (or provided from a storage medium (not shown) such as a CD-ROM), and the model generating device 10 Control the behavior.

なお、本発明の実施に当たっては、モデル生成装置10が、キーボード、タッチパネルなどの各種入力用インターフェイス装置を更に具えていても良い。   In carrying out the present invention, the model generation device 10 may further include various input interface devices such as a keyboard and a touch panel.

次に、図3のフローチャートを参照しながら、各クラスの特徴量を各インスタンスの推定確率を基に算出する場合を例に、本実施形態に係るモデル生成装置の動作を説明する。以下に示す実施例は、事前に定義されたクラスの関係性が、図4に示す階層構造を有している場合(実施例1)、図9に示すグラフ構造を有している場合(実施例2)である。   Next, the operation of the model generation apparatus according to the present embodiment will be described with reference to the flowchart of FIG. 3 taking as an example the case where the feature amount of each class is calculated based on the estimated probability of each instance. In the example shown below, when the relationship between the classes defined in advance has the hierarchical structure shown in FIG. 4 (Example 1), it has the graph structure shown in FIG. 9 (implementation). Example 2).

ステップS1では、階層構造の最下位のクラス(「法人名」、「政治組織名」、「都道府県名」、「市町村名」、「人名」)で機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、法人名:0.1、政治組織名:0.1、都道府県名:0.4、市町村名:0.3、人名:0.1となっている。)   In step S1, machine learning processing is executed in the lowest class (“corporate name”, “political organization name”, “prefectural name”, “city name”, “person name”) in the hierarchical structure, and then each instance An estimated probability is calculated for, and the process proceeds to step S2. Hereinafter, a case where the estimated probability of each instance becomes the value shown in FIG. 5 will be described as an example. (The estimated probability of the data of instance 1 is corporation name: 0.1, political organization name: 0.1, prefecture name: 0.4, municipality name: 0.3, person name: 0.1. )

各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。   The feature quantity of each class can be calculated as, for example, a vector quantity having an estimated probability value of each instance as a value of each dimension.

ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図6には、特徴量の相関行列として表現した。   In step S2, after the feature amount of each learning class is generated from the estimated probability of each instance, a correlation coefficient between learning classes is calculated based on the generated feature amount of each learning class. In FIG. 6, it is expressed as a correlation matrix of feature amounts.

ステップS1、S2と並列で行うことが可能なステップS3では、クラスの階層構造に基づいて、各学習クラス間の階層構造上の類似度を算出する。例えば、同一の上位階層(親)の配下に存在するクラス同士(兄弟クラス)を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、階層構造上の類似度を算出することができる。   In step S3, which can be performed in parallel with steps S1 and S2, the similarity in the hierarchical structure between each learning class is calculated based on the hierarchical structure of the class. For example, classes similar to each other in the same upper hierarchy (parent) (sibling classes) are set to a similarity of “1”, and other classes are set to a similarity of “0”. The degree can be calculated.

図4の階層構造を例にした場合、「法人名」と「政治組織名」、及び、「都道府県名」と「市町村名」の組み合わせは、それぞれ、同一の親(「組織名」、「地名」)を親としているため、階層構造上の類似度は「1」となり、これら以外の組み合わせについては、階層構造上の類似度は「0」となる。図7には、各学習クラス間の類似度を行列として表現した。   Taking the hierarchical structure of FIG. 4 as an example, the combinations of “corporate name” and “political organization name” and “prefectural name” and “city name” are the same parent (“organization name”, “ Since the place name “) is the parent, the similarity in the hierarchical structure is“ 1 ”, and for combinations other than these, the similarity in the hierarchical structure is“ 0 ”. In FIG. 7, the similarity between each learning class is expressed as a matrix.

ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出された階層構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、階層構造上の類似度の閾値を0.5とした場合は、「市町村名」と「都道府県名」のペアが類似しているクラスペアとして抽出されることになる。   After completion of steps S2 and S3, the process proceeds to step S4. In step S4, the correlation coefficient of the feature amount calculated in step S2 and the similarity in the hierarchical structure calculated in step S3 are each equal to or greater than a predetermined threshold. Learning class pairs are extracted as similar class pairs. For example, when the threshold value of the correlation coefficient of the feature amount is 0.5 and the threshold value of the similarity in the hierarchical structure is 0.5, the pair of “city name” and “prefecture name” is similar. It will be extracted as a class pair.

ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。   In step S5 following step S4, it is determined whether or not there is a similar class pair. If there is a similar pair, the process proceeds to step S6, and there is no similar class pair. If yes, go to Step S7.

ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、階層構造として記録されているクラスの関係性の情報(階層構造の情報)と学習データのラベルの更新を行う。「市町村名」と「都道府県名」のペアが類似しているクラスペアであった場合、両者が統合され、統合後のクラス名(ラベル)としては、例えば、階層構造上の上位階層名(例:「地名」)を用いることができる(図8)。クラスの統合処理後、ステップS1、S3へ進む。   In step S6, the similar class pairs extracted in step S4 are integrated into one class. Specifically, the information on the relationship between classes (hierarchical structure information) recorded as a hierarchical structure and the label of learning data are updated. If the pair of “city name” and “prefecture name” is similar, they are merged, and the merged class name (label) is, for example, an upper hierarchy name ( Example: “place name”) can be used (FIG. 8). After class integration processing, the process proceeds to steps S1 and S3.

再び進んだステップS1及びS3では、更新された階層構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間の階層構造上の類似度の算出が再度行われる。階層構造の更新により、「地名」が追加され、「市町村名」と「都道府県名」が削除された結果、階層構造の最下位のクラスは、「法人名」、「政治組織名」、「地名」、「人名」となる。   In steps S1 and S3 that have been advanced again, the machine learning process and the calculation of the similarity in the hierarchical structure between the learning classes are performed again based on the updated hierarchical structure information and learning data labels. As a result of the hierarchical structure update, “location name” was added and “city name” and “prefecture name” were deleted. As a result, the lowest class in the hierarchical structure is “corporate name”, “political organization name”, “ "Place name", "Person name".

このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。   In this way, the loop is repeated until there are no similar pairs. Finally, in step S7, the model is output and the process ends.

実施例2では、小説のテキストから作者を推定するというタスクを想定したものであり、師弟・友人関係などから定義される作者間の関係性は、図9に示したようなグラフ構造を取る(線で結ばれるクラス(小説家名)間に、師弟関係や友人関係が存在することを示している)。   In the second embodiment, the task of estimating the author from the text of the novel is assumed, and the relationship between the authors defined from the teacher-friend / friend relationship has a graph structure as shown in FIG. This shows that there is a discipline or friendship between the classes (the name of the novelist) connected by a line).

ステップS1では、グラフ構造を構成する全クラスで機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、小説家A:0.1、小説家B:0.1、小説家C:0.4、小説家D:0.3、小説家E:0.1となっている。)   In step S1, after machine learning processing is executed in all classes constituting the graph structure, an estimated probability is calculated for each instance, and the process proceeds to step S2. Hereinafter, a case where the estimated probability of each instance becomes the value shown in FIG. 5 will be described as an example. (The estimated probability of instance 1 data is novelist A: 0.1, novelist B: 0.1, novelist C: 0.4, novelist D: 0.3, novelist E: 0.1. .)

各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。   The feature quantity of each class can be calculated as, for example, a vector quantity having an estimated probability value of each instance as a value of each dimension.

ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図11には、特徴量の相関行列として表現した。   In step S2, after the feature amount of each learning class is generated from the estimated probability of each instance, a correlation coefficient between learning classes is calculated based on the generated feature amount of each learning class. In FIG. 11, it is expressed as a correlation matrix of feature amounts.

ステップS1、S2と並列で行うことが可能なステップS3では、クラスのグラフ構造に基づいて、各学習クラス間のグラフ構造上の類似度を算出する。例えば、線で直接接続されているクラス同士を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、グラフ構造上の類似度を算出することができる。   In step S3, which can be performed in parallel with steps S1 and S2, the similarity on the graph structure between each learning class is calculated based on the class graph structure. For example, the similarity degree on the graph structure can be calculated by setting the similarity degree “1” between classes directly connected by a line and the similarity degree “0” between other classes.

図12のグラフ構造を例にした場合、例えば「小説家A」は、「小説家B」、「小説家C」及び「小説家D」との組み合わせについて、グラフ構造上の類似度が「1」となり、「小説家E」との類似度は「0」となる。図12には、各学習クラス間の類似度を行列として表現した。   When the graph structure of FIG. 12 is taken as an example, for example, “Novelist A” has a similarity of “1” for the combination of “Novelist B”, “Novelist C” and “Novelist D”. And the degree of similarity with “Noveler E” is “0”. In FIG. 12, the similarity between each learning class is expressed as a matrix.

ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出されたグラフ構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、グラフ構造上の類似度の閾値を0.5とした場合は、「小説家C」と「小説家D」のペアが類似しているクラスペアとして抽出されることになる。   After completion of steps S2 and S3, the process proceeds to step S4. In step S4, the correlation coefficient of the feature amount calculated in step S2 and the similarity on the graph structure calculated in step S3 are each greater than or equal to a predetermined threshold value. Learning class pairs are extracted as similar class pairs. As an example, when the threshold value of the correlation coefficient of the feature amount is 0.5 and the threshold value of the similarity on the graph structure is 0.5, the pair of “novelist C” and “novelist D” is similar. Will be extracted as a class pair.

ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。   In step S5 following step S4, it is determined whether or not there is a similar class pair. If there is a similar pair, the process proceeds to step S6, and there is no similar class pair. If yes, go to Step S7.

ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、グラフ構造として記録されているクラスの関係性の情報(グラフ構造の情報)と学習データのラベルの更新を行う。例として、「小説家C」と「小説家D」のペアが類似しているクラスペアであった場合の統合処理後のグラフ構造を図13に示す。統合後のクラス名(ラベル)としては、例えば、統合前の両者の名称を結合した名称を用いることができる。クラスの統合処理後、ステップS1、S3へ進む。   In step S6, the similar class pairs extracted in step S4 are integrated into one class. Specifically, the information on the relationship of the classes recorded as the graph structure (graph structure information) and the label of the learning data are updated. As an example, FIG. 13 shows a graph structure after the integration process when the pair of “novelist C” and “novelist D” is a similar class pair. As a class name (label) after integration, for example, a name obtained by combining both names before integration can be used. After class integration processing, the process proceeds to steps S1 and S3.

再び進んだステップS1及びS3では、更新されたグラフ構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間のグラフ構造上の類似度の算出が再度行われる。   In Steps S1 and S3 that have been advanced again, based on the updated graph structure information and the label of the learning data, the machine learning process and the calculation of the similarity on the graph structure between the learning classes are performed again.

このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。   In this way, the loop is repeated until there are no similar pairs. Finally, in step S7, the model is output and the process ends.

以上で説明をしたように、本発明は、機械学習用モデル生成装置及びプログラムに適用することができる。   As described above, the present invention can be applied to a machine learning model generation device and a program.

10 モデル生成装置
11 機械学習部
12 第一類似度算出部
13 第二類似度算出部
14 判定部
15 クラス統合部
16 出力部
17 学習データ
18 クラスの関係性の情報
21 CPU
22 メモリ
23 記憶装置
24 表示装置
25 制御バス
DESCRIPTION OF SYMBOLS 10 Model production | generation apparatus 11 Machine learning part 12 1st similarity calculation part 13 2nd similarity calculation part 14 Judgment part 15 Class integration part 16 Output part 17 Learning data 18 Class relationship information 21 CPU
22 memory 23 storage device 24 display device 25 control bus

Claims (4)

予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を算出する、第一類似度算出手段と、
前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
教師あり機械学習処理を行う機械学習手段と、
を具えた、機械学習用モデル生成装置。
First similarity calculation means for calculating the similarity between the classes based on the relationship between the classes in which the relationship is defined in advance;
Second similarity calculation means for calculating the similarity between the classes based on the feature amount of the class;
A determination unit that determines whether the classes are similar based on the calculation results of the first calculation unit and the second calculation unit;
Class integration means for integrating the classes determined to be similar by the determination means into one class;
Machine learning means for performing supervised machine learning processing;
A machine learning model generation device comprising:
前記関係性が階層構造またはグラフ構造である、請求項1記載の機械学習用モデル生成装置。   The machine learning model generation device according to claim 1, wherein the relationship is a hierarchical structure or a graph structure. 前記機械学習手段が、モデルパラメータを推定するモデルパラメータ推定手段と、学習されたモデルパラメータからデータの各クラスにおける事後確率を推定する手段と、を具えている請求項1又は2記載のモデル生成装置。   The model generation apparatus according to claim 1 or 2, wherein the machine learning means comprises model parameter estimation means for estimating model parameters, and means for estimating posterior probabilities in each class of data from the learned model parameters. . 予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を第一類似度として算出するステップと、
前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
教師あり機械学習処理を行うステップと、
をコンピュータに実行させるためのプログラム。
Calculating a similarity between the classes as a first similarity based on a relationship between classes in which a relationship is defined in advance;
Calculating a similarity between the classes as a second similarity based on the feature amount of the class;
Determining whether the classes are similar based on the first similarity and the second similarity;
Combining the classes determined to be similar into a single class;
Performing supervised machine learning processing;
A program that causes a computer to execute.
JP2016175389A 2016-09-08 2016-09-08 Model generator and program for machine learning. Active JP6770709B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016175389A JP6770709B2 (en) 2016-09-08 2016-09-08 Model generator and program for machine learning.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016175389A JP6770709B2 (en) 2016-09-08 2016-09-08 Model generator and program for machine learning.

Publications (2)

Publication Number Publication Date
JP2018041300A true JP2018041300A (en) 2018-03-15
JP6770709B2 JP6770709B2 (en) 2020-10-21

Family

ID=61626017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016175389A Active JP6770709B2 (en) 2016-09-08 2016-09-08 Model generator and program for machine learning.

Country Status (1)

Country Link
JP (1) JP6770709B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108933925A (en) * 2017-05-23 2018-12-04 佳能株式会社 Information processing unit, information processing method and storage medium
CN112585544A (en) * 2018-08-20 2021-03-30 西门子股份公司 Modular acceleration module for artificial intelligence based on programmable logic controller
WO2021091022A1 (en) * 2019-11-08 2021-05-14 주식회사 알체라 Machine learning system and operating method for machine learning system
KR20210125279A (en) * 2020-04-08 2021-10-18 에스케이텔레콤 주식회사 Method and Apparatus for Classify Images using Neural Network Trained for Image Classification

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026098A (en) * 2005-07-15 2007-02-01 Osaka Prefecture Univ Program, device and method in regard to pattern recognition using additional information
JP2010152561A (en) * 2008-12-24 2010-07-08 Toshiba Corp Similar expression extraction device, server unit, and program
JP2013250809A (en) * 2012-05-31 2013-12-12 Casio Comput Co Ltd Multi-class discrimination device, method and program
EP2884434A1 (en) * 2013-12-10 2015-06-17 Televic Education NV Method and device for automatic feedback generation
JP2016015018A (en) * 2014-07-02 2016-01-28 富士通株式会社 Service providing device, method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026098A (en) * 2005-07-15 2007-02-01 Osaka Prefecture Univ Program, device and method in regard to pattern recognition using additional information
JP2010152561A (en) * 2008-12-24 2010-07-08 Toshiba Corp Similar expression extraction device, server unit, and program
JP2013250809A (en) * 2012-05-31 2013-12-12 Casio Comput Co Ltd Multi-class discrimination device, method and program
EP2884434A1 (en) * 2013-12-10 2015-06-17 Televic Education NV Method and device for automatic feedback generation
JP2016015018A (en) * 2014-07-02 2016-01-28 富士通株式会社 Service providing device, method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108933925A (en) * 2017-05-23 2018-12-04 佳能株式会社 Information processing unit, information processing method and storage medium
US10755080B2 (en) 2017-05-23 2020-08-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
CN112585544A (en) * 2018-08-20 2021-03-30 西门子股份公司 Modular acceleration module for artificial intelligence based on programmable logic controller
CN112585544B (en) * 2018-08-20 2024-06-07 西门子股份公司 Modular acceleration module for artificial intelligence based on programmable logic controller
US12013676B2 (en) 2018-08-20 2024-06-18 Siemens Aktiengesellschaft Programmable logic controller-based modular acceleration module for artificial intelligence
WO2021091022A1 (en) * 2019-11-08 2021-05-14 주식회사 알체라 Machine learning system and operating method for machine learning system
KR20210125279A (en) * 2020-04-08 2021-10-18 에스케이텔레콤 주식회사 Method and Apparatus for Classify Images using Neural Network Trained for Image Classification
KR102528405B1 (en) * 2020-04-08 2023-05-02 에스케이텔레콤 주식회사 Method and Apparatus for Classify Images using Neural Network Trained for Image Classification

Also Published As

Publication number Publication date
JP6770709B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
CN110162749B (en) Information extraction method, information extraction device, computer equipment and computer readable storage medium
JP5734503B2 (en) Meaning estimation apparatus, method, and program
CN111444320A (en) Text retrieval method and device, computer equipment and storage medium
CN111539197B (en) Text matching method and device, computer system and readable storage medium
CN106778878B (en) Character relation classification method and device
JP6462970B1 (en) Classification device, classification method, generation method, classification program, and generation program
CN111985229A (en) Sequence labeling method and device and computer equipment
JP6770709B2 (en) Model generator and program for machine learning.
US11669740B2 (en) Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition
JP6070501B2 (en) Information processing apparatus and information processing program
JP2019185551A (en) Annotation added text data expanding method, annotation added text data expanding program, annotation added text data expanding apparatus, and training method of text classification model
CN112805715A (en) Identifying entity attribute relationships
WO2023045725A1 (en) Method for dataset creation, electronic device, and computer program product
JP2018097468A (en) Sentence classification learning device, sentence classification device, sentence classification learning method and sentence classification learning program
CN115936010A (en) Text abbreviation data processing method and device
CN111699472A (en) Method and computer program product for determining measures for developing, designing and/or deploying complex embedded or cyber-physical systems of different technical areas, in particular complex software architectures used therein
JP7236501B2 (en) Transfer learning method and computer device for deep learning model based on document similarity learning
JP2017538226A (en) Scalable web data extraction
CN111507098B (en) Ambiguous word recognition method and device, electronic equipment and computer-readable storage medium
CN111310459B (en) Training method and device of machine learning component, chinese word segmentation method and device
JP5824429B2 (en) Spam account score calculation apparatus, spam account score calculation method, and program
CN110275957B (en) Name disambiguation method and device, electronic equipment and computer readable storage medium
JP2021163477A (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program for image processing
Liu et al. Named entity recognition using a semi-supervised model based on bert and bootstrapping
Oldenhof et al. Self-labeling of fully mediating representations by graph alignment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6770709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350