JP2018041300A - Machine learning model generation device and program - Google Patents
Machine learning model generation device and program Download PDFInfo
- Publication number
- JP2018041300A JP2018041300A JP2016175389A JP2016175389A JP2018041300A JP 2018041300 A JP2018041300 A JP 2018041300A JP 2016175389 A JP2016175389 A JP 2016175389A JP 2016175389 A JP2016175389 A JP 2016175389A JP 2018041300 A JP2018041300 A JP 2018041300A
- Authority
- JP
- Japan
- Prior art keywords
- classes
- similarity
- class
- machine learning
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、機械学習用モデル生成装置及びプログラムに関する。 The present invention relates to a machine learning model generation device and a program.
自然言語処理を用いたアプリケーションの要素技術としても用いられる固有表現抽出は、テキストに含まれる固有名詞等の固有表現を抽出する技術であり、Support Vector Machine(SVM)や、Conditional Random Fields(CRFs)などの識別問題(分類問題)を扱う機械学習手法を用いたシステムが知られている。 Specific expression extraction, which is also used as an elemental technology for applications using natural language processing, is a technique for extracting specific expressions such as proper nouns contained in text. Support Vector Machine (SVM) and Conditional Random Fields (CRFs) There is known a system using a machine learning technique that handles an identification problem such as a classification problem.
下記特許文献1には、既存のモデルのパラメータへの影響を少なくしたままで、追加データに適応したモデルパラメータを推定することができる、モデルパラメータ推定方法が開示されている。
下記非特許文献1には、CRFsに隠れユニット層が追加されたCRFsの派生の一種であるHidden-Unit CRF(HUCRF)が開示されている。
下記非特許文献2には、ラベル付けされていないデータ群に対して正準相関分析を利用したクラスタリングによって仮のラベル付けをしたデータをHUCRFに学習させ、得られるパラメータを初期値として実際にラベルがつけられているデータで追加学習を行う事前学習の方法が開示されている。
In
識別問題においては、一般的に、ラベル(「タグ」等ともいわれる)が既に付与されている学習データ(既知データ)を与えて学習させる教師あり学習が行われ、学習の結果得られたモデルパラメータを用いて未知データの識別(いずれかのラベルを付与することによるクラス分類)を行う。このような、機械学習手法を用いて高い精度を達成するためには、一般的に大量の学習データ(コーパスや辞書)が必要となる。 In the identification problem, generally, supervised learning is performed in which learning data (known data) to which a label (also referred to as a “tag” or the like) is already given is given and learning is performed, and the model parameters obtained as a result of learning are performed. Is used to identify unknown data (classification by assigning one of the labels). In order to achieve high accuracy using such a machine learning method, a large amount of learning data (corpus or dictionary) is generally required.
例えば、企業内の文書には機密性の高い情報を含むものや、各企業独自の知識やルールを前提にしないと意味を理解できないものが多いため、企業内文書に対して固有表現抽出を行うためには、学習用コーパスを独自に用意する必要が生じる。このような企業内文書に対して大量のアノテーション(関連する注釈情報)を付与するには極めてコストがかかるため、結果として、企業内文書に対して固有表現抽出を行おうとしても、高精度を達成できるだけの大量の学習データを用意することは現実的ではない。 For example, there are many documents in the company that contain highly confidential information, and there are many that cannot be understood unless the knowledge and rules unique to each company are assumed. For this purpose, a learning corpus needs to be prepared independently. Since it is extremely expensive to give a large amount of annotation (related annotation information) to such an in-company document, as a result, even if trying to extract a specific expression for an in-company document, high accuracy is achieved. It is not realistic to prepare as much learning data as can be achieved.
学習データを大量に用意できないタスクの場合でも、大量の学習データが存在する別のタスクで事前学習させたモデルパラメータ(「モデル」ともいう)の一部を初期条件として、目的のタスクで追加学習することで、学習精度(識別問題であれば、得られたモデルを用いて未知データを識別する場合の精度)を向上させられる場合があるが、精度が高くなるような適切な事前学習の条件が不明であるため、条件の探索に時間がかかる。 Even in the case of tasks for which a large amount of learning data is not available, additional learning is performed with the target task using some model parameters (also referred to as “models”) that have been pre-trained in another task with a large amount of learning data as initial conditions This may improve the learning accuracy (if it is an identification problem, the accuracy of identifying unknown data using the obtained model), but appropriate pre-learning conditions that increase the accuracy Since it is unknown, it takes time to search for conditions.
本発明は、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することのできる機械学習用モデル生成装置及びプログラムの提供を目的とする。 An object of the present invention is to provide a machine learning model generation apparatus and a program that can generate a model with higher learning accuracy compared to a case where class integration is not performed in advance learning.
[機械学習用モデル生成装置]
請求項1に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を算出する、第一類似度算出手段と、
前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
教師あり機械学習処理を行う機械学習手段と、
を具えた、機械学習用モデル生成装置である。
[Model generator for machine learning]
The present invention according to
Second similarity calculation means for calculating the similarity between the classes based on the feature amount of the class;
A determination unit that determines whether the classes are similar based on the calculation results of the first calculation unit and the second calculation unit;
Class integration means for integrating the classes determined to be similar by the determination means into one class;
Machine learning means for performing supervised machine learning processing;
Is a machine learning model generation device.
請求項2に係る本発明は、前記関係性が階層構造またはグラフ構造である、請求項1記載の機械学習用モデル生成装置である。
The present invention according to
請求項3に係る本発明は、前記機械学習手段が、モデルパラメータを推定するモデルパラメータ推定手段と、学習されたモデルパラメータからデータの各クラスにおける事後確率を推定する手段と、を具えている請求項1又は2記載のモデル生成装置である。
According to a third aspect of the present invention, the machine learning means comprises model parameter estimation means for estimating model parameters, and means for estimating posterior probabilities in each class of data from the learned model parameters.
[プログラム]
請求項4に係る本発明は、予め関係性が定義されたクラスの互いの関係性に基づいて、前記クラス間の類似度を第一類似度として算出するステップと、
前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
教師あり機械学習処理を行うステップと、
をコンピュータに実行させるためのプログラムである。
[program]
The present invention according to
Calculating a similarity between the classes as a second similarity based on the feature amount of the class;
Determining whether the classes are similar based on the first similarity and the second similarity;
Combining the classes determined to be similar into a single class;
Performing supervised machine learning processing;
Is a program for causing a computer to execute.
請求項1に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。 According to the first aspect of the present invention, it is possible to generate a model with higher learning accuracy compared to a case where class integration is not performed in the prior learning.
請求項2に係る本発明よれば、請求項1の効果に加えて、クラスの関係性が階層構造又はグラフ構造の場合に適用可能となる。 According to the second aspect of the present invention, in addition to the effect of the first aspect, the present invention can be applied to a case where the class relationship is a hierarchical structure or a graph structure.
請求項3に係る本発明よれば、請求項1又は2の効果に加えて、事後確率に基づいて算出された第二類似度に基づいてクラス間が類似しているか否かを判定される、機械学習用モデル生成装置が得られる。
According to the present invention of
請求項4に係る本発明よれば、事前学習の際にクラスの統合を行わない場合と比較して、学習精度が高くなるようなモデルを生成することが可能となる。 According to the fourth aspect of the present invention, it is possible to generate a model with higher learning accuracy compared to a case where class integration is not performed during pre-learning.
図1は、本発明の実施形態に係るモデル生成装置10の機能構成を示すブロック図である。本実施形態のモデル生成装置10は、機械学習部11と、第一類似度算出部12と、第二類似度算出部13と、判定部14と、クラス統合部15と、出力部16を具えている。
FIG. 1 is a block diagram illustrating a functional configuration of a
機械学習部11では、ラベル付き学習データが記録された学習データ17から機械学習処理が行われ、モデルパラメータの推定、及び、インスタンス(一件ごとの学習データ)がどのクラスに該当するのかというクラス分類に関する事後確率の推定、を行う。
In the
第一類似度算出部12では、機械学習部11で推定された各インスタンスの事後確率(以下、「推定確率」ともいう)を基にして生成されるベクトル量を各クラスの特徴量として、当該特徴量に基づいて各クラス間の類似度(「特徴量類似度」)を算出する。
In the first
第二類似度算出部13では、クラスの関係性の情報18(例えば「クラスの階層」の情報)に基づいて、各クラス間の類似度(「関係性類似度」)を算出する。クラスの関係性の情報の初期値は、学習データ16のラベルを基に人手で構築する。
The second
判定部14では、特徴量類似度と関係性類似度のそれぞれにおいて、各所定の閾値を超えている場合、そのクラスペアを「類似している」と判定する。
The
クラス統合部15では、判定部14において「類似している」と判定されたクラスペアを一つのクラスに統合する処理を行い、学習データ17のラベルとクラスの関係性の情報18を更新する。
The
出力部16では、判定部14において「類似している」と判定されたクラスペアが存在しない場合、機械学習部11によって推定されたモデルパラメータを出力する。
The
図2は、モデル生成装置10ハードウェア構成を示す図である。モデル生成装置10は、CPU21、メモリ22、ハードディスクドライブ(HDD)等の記憶装置23、表示装置24を有し、これらの構成要素は、制御バス25を介して互いに接続されている。
FIG. 2 is a diagram illustrating a hardware configuration of the
CPU21は、メモリ22または記憶装置23に格納された(あるいはCD−ROM等の記憶媒体(図示しない)から提供される)制御プログラム、に基づいて所定の処理を実行して、モデル生成装置10の動作を制御する。
The
なお、本発明の実施に当たっては、モデル生成装置10が、キーボード、タッチパネルなどの各種入力用インターフェイス装置を更に具えていても良い。
In carrying out the present invention, the
次に、図3のフローチャートを参照しながら、各クラスの特徴量を各インスタンスの推定確率を基に算出する場合を例に、本実施形態に係るモデル生成装置の動作を説明する。以下に示す実施例は、事前に定義されたクラスの関係性が、図4に示す階層構造を有している場合(実施例1)、図9に示すグラフ構造を有している場合(実施例2)である。 Next, the operation of the model generation apparatus according to the present embodiment will be described with reference to the flowchart of FIG. 3 taking as an example the case where the feature amount of each class is calculated based on the estimated probability of each instance. In the example shown below, when the relationship between the classes defined in advance has the hierarchical structure shown in FIG. 4 (Example 1), it has the graph structure shown in FIG. 9 (implementation). Example 2).
ステップS1では、階層構造の最下位のクラス(「法人名」、「政治組織名」、「都道府県名」、「市町村名」、「人名」)で機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、法人名:0.1、政治組織名:0.1、都道府県名:0.4、市町村名:0.3、人名:0.1となっている。)
In step S1, machine learning processing is executed in the lowest class (“corporate name”, “political organization name”, “prefectural name”, “city name”, “person name”) in the hierarchical structure, and then each instance An estimated probability is calculated for, and the process proceeds to step S2. Hereinafter, a case where the estimated probability of each instance becomes the value shown in FIG. 5 will be described as an example. (The estimated probability of the data of
各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。 The feature quantity of each class can be calculated as, for example, a vector quantity having an estimated probability value of each instance as a value of each dimension.
ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図6には、特徴量の相関行列として表現した。 In step S2, after the feature amount of each learning class is generated from the estimated probability of each instance, a correlation coefficient between learning classes is calculated based on the generated feature amount of each learning class. In FIG. 6, it is expressed as a correlation matrix of feature amounts.
ステップS1、S2と並列で行うことが可能なステップS3では、クラスの階層構造に基づいて、各学習クラス間の階層構造上の類似度を算出する。例えば、同一の上位階層(親)の配下に存在するクラス同士(兄弟クラス)を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、階層構造上の類似度を算出することができる。 In step S3, which can be performed in parallel with steps S1 and S2, the similarity in the hierarchical structure between each learning class is calculated based on the hierarchical structure of the class. For example, classes similar to each other in the same upper hierarchy (parent) (sibling classes) are set to a similarity of “1”, and other classes are set to a similarity of “0”. The degree can be calculated.
図4の階層構造を例にした場合、「法人名」と「政治組織名」、及び、「都道府県名」と「市町村名」の組み合わせは、それぞれ、同一の親(「組織名」、「地名」)を親としているため、階層構造上の類似度は「1」となり、これら以外の組み合わせについては、階層構造上の類似度は「0」となる。図7には、各学習クラス間の類似度を行列として表現した。 Taking the hierarchical structure of FIG. 4 as an example, the combinations of “corporate name” and “political organization name” and “prefectural name” and “city name” are the same parent (“organization name”, “ Since the place name “) is the parent, the similarity in the hierarchical structure is“ 1 ”, and for combinations other than these, the similarity in the hierarchical structure is“ 0 ”. In FIG. 7, the similarity between each learning class is expressed as a matrix.
ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出された階層構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、階層構造上の類似度の閾値を0.5とした場合は、「市町村名」と「都道府県名」のペアが類似しているクラスペアとして抽出されることになる。 After completion of steps S2 and S3, the process proceeds to step S4. In step S4, the correlation coefficient of the feature amount calculated in step S2 and the similarity in the hierarchical structure calculated in step S3 are each equal to or greater than a predetermined threshold. Learning class pairs are extracted as similar class pairs. For example, when the threshold value of the correlation coefficient of the feature amount is 0.5 and the threshold value of the similarity in the hierarchical structure is 0.5, the pair of “city name” and “prefecture name” is similar. It will be extracted as a class pair.
ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。 In step S5 following step S4, it is determined whether or not there is a similar class pair. If there is a similar pair, the process proceeds to step S6, and there is no similar class pair. If yes, go to Step S7.
ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、階層構造として記録されているクラスの関係性の情報(階層構造の情報)と学習データのラベルの更新を行う。「市町村名」と「都道府県名」のペアが類似しているクラスペアであった場合、両者が統合され、統合後のクラス名(ラベル)としては、例えば、階層構造上の上位階層名(例:「地名」)を用いることができる(図8)。クラスの統合処理後、ステップS1、S3へ進む。 In step S6, the similar class pairs extracted in step S4 are integrated into one class. Specifically, the information on the relationship between classes (hierarchical structure information) recorded as a hierarchical structure and the label of learning data are updated. If the pair of “city name” and “prefecture name” is similar, they are merged, and the merged class name (label) is, for example, an upper hierarchy name ( Example: “place name”) can be used (FIG. 8). After class integration processing, the process proceeds to steps S1 and S3.
再び進んだステップS1及びS3では、更新された階層構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間の階層構造上の類似度の算出が再度行われる。階層構造の更新により、「地名」が追加され、「市町村名」と「都道府県名」が削除された結果、階層構造の最下位のクラスは、「法人名」、「政治組織名」、「地名」、「人名」となる。 In steps S1 and S3 that have been advanced again, the machine learning process and the calculation of the similarity in the hierarchical structure between the learning classes are performed again based on the updated hierarchical structure information and learning data labels. As a result of the hierarchical structure update, “location name” was added and “city name” and “prefecture name” were deleted. As a result, the lowest class in the hierarchical structure is “corporate name”, “political organization name”, “ "Place name", "Person name".
このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。 In this way, the loop is repeated until there are no similar pairs. Finally, in step S7, the model is output and the process ends.
実施例2では、小説のテキストから作者を推定するというタスクを想定したものであり、師弟・友人関係などから定義される作者間の関係性は、図9に示したようなグラフ構造を取る(線で結ばれるクラス(小説家名)間に、師弟関係や友人関係が存在することを示している)。 In the second embodiment, the task of estimating the author from the text of the novel is assumed, and the relationship between the authors defined from the teacher-friend / friend relationship has a graph structure as shown in FIG. This shows that there is a discipline or friendship between the classes (the name of the novelist) connected by a line).
ステップS1では、グラフ構造を構成する全クラスで機械学習処理が実行された後、各インスタンスについて推定確率が算出され、ステップS2へ進む。以下、各インスタンスの推定確率が、図5に示した値となった場合を例として説明する。(インスタンス1のデータの推定確率は、小説家A:0.1、小説家B:0.1、小説家C:0.4、小説家D:0.3、小説家E:0.1となっている。)
In step S1, after machine learning processing is executed in all classes constituting the graph structure, an estimated probability is calculated for each instance, and the process proceeds to step S2. Hereinafter, a case where the estimated probability of each instance becomes the value shown in FIG. 5 will be described as an example. (The estimated probability of
各クラスの特徴量は、例えば、各インスタンスの推定確率の値を各次元の値として持つベクトル量として算出することができる。 The feature quantity of each class can be calculated as, for example, a vector quantity having an estimated probability value of each instance as a value of each dimension.
ステップS2では、各インスタンスの推定確率から各学習クラスの特徴量が生成された後、生成された各学習クラスの特徴量に基づいて学習クラス間の相関係数が算出される。図11には、特徴量の相関行列として表現した。 In step S2, after the feature amount of each learning class is generated from the estimated probability of each instance, a correlation coefficient between learning classes is calculated based on the generated feature amount of each learning class. In FIG. 11, it is expressed as a correlation matrix of feature amounts.
ステップS1、S2と並列で行うことが可能なステップS3では、クラスのグラフ構造に基づいて、各学習クラス間のグラフ構造上の類似度を算出する。例えば、線で直接接続されているクラス同士を類似度「1」とし、それ以外のクラス間については類似度「0」とすることで、グラフ構造上の類似度を算出することができる。 In step S3, which can be performed in parallel with steps S1 and S2, the similarity on the graph structure between each learning class is calculated based on the class graph structure. For example, the similarity degree on the graph structure can be calculated by setting the similarity degree “1” between classes directly connected by a line and the similarity degree “0” between other classes.
図12のグラフ構造を例にした場合、例えば「小説家A」は、「小説家B」、「小説家C」及び「小説家D」との組み合わせについて、グラフ構造上の類似度が「1」となり、「小説家E」との類似度は「0」となる。図12には、各学習クラス間の類似度を行列として表現した。 When the graph structure of FIG. 12 is taken as an example, for example, “Novelist A” has a similarity of “1” for the combination of “Novelist B”, “Novelist C” and “Novelist D”. And the degree of similarity with “Noveler E” is “0”. In FIG. 12, the similarity between each learning class is expressed as a matrix.
ステップS2及びS3の完了後にステップS4へ進み、ステップS4では、ステップS2で算出された特徴量の相関係数、及び、ステップS3で算出されたグラフ構造上の類似度、がそれぞれ所定の閾値以上である学習クラスペアが、類似しているクラスペアとして抽出される。例として、特徴量の相関係数の閾値を0.5、グラフ構造上の類似度の閾値を0.5とした場合は、「小説家C」と「小説家D」のペアが類似しているクラスペアとして抽出されることになる。 After completion of steps S2 and S3, the process proceeds to step S4. In step S4, the correlation coefficient of the feature amount calculated in step S2 and the similarity on the graph structure calculated in step S3 are each greater than or equal to a predetermined threshold value. Learning class pairs are extracted as similar class pairs. As an example, when the threshold value of the correlation coefficient of the feature amount is 0.5 and the threshold value of the similarity on the graph structure is 0.5, the pair of “novelist C” and “novelist D” is similar. Will be extracted as a class pair.
ステップS4に続くステップS5では、類似しているクラスペアが存在するかどうかの判定が行われ、類似しているペアが存在する場合は、ステップS6へ進み、類似しているクラスペアが存在しない場合は、ステップS7へ進む。 In step S5 following step S4, it is determined whether or not there is a similar class pair. If there is a similar pair, the process proceeds to step S6, and there is no similar class pair. If yes, go to Step S7.
ステップS6では、ステップS4で抽出された類似しているクラスペアを一つのクラスに統合する。具体的には、グラフ構造として記録されているクラスの関係性の情報(グラフ構造の情報)と学習データのラベルの更新を行う。例として、「小説家C」と「小説家D」のペアが類似しているクラスペアであった場合の統合処理後のグラフ構造を図13に示す。統合後のクラス名(ラベル)としては、例えば、統合前の両者の名称を結合した名称を用いることができる。クラスの統合処理後、ステップS1、S3へ進む。 In step S6, the similar class pairs extracted in step S4 are integrated into one class. Specifically, the information on the relationship of the classes recorded as the graph structure (graph structure information) and the label of the learning data are updated. As an example, FIG. 13 shows a graph structure after the integration process when the pair of “novelist C” and “novelist D” is a similar class pair. As a class name (label) after integration, for example, a name obtained by combining both names before integration can be used. After class integration processing, the process proceeds to steps S1 and S3.
再び進んだステップS1及びS3では、更新されたグラフ構造の情報及び学習データのラベルに基づいて、それぞれ機械学習処理、各学習クラス間のグラフ構造上の類似度の算出が再度行われる。 In Steps S1 and S3 that have been advanced again, based on the updated graph structure information and the label of the learning data, the machine learning process and the calculation of the similarity on the graph structure between the learning classes are performed again.
このように、類似しているペアが存在しなくなるまでループが繰り返され、最終的にステップS7では、モデルが出力されて終了となる。 In this way, the loop is repeated until there are no similar pairs. Finally, in step S7, the model is output and the process ends.
以上で説明をしたように、本発明は、機械学習用モデル生成装置及びプログラムに適用することができる。 As described above, the present invention can be applied to a machine learning model generation device and a program.
10 モデル生成装置
11 機械学習部
12 第一類似度算出部
13 第二類似度算出部
14 判定部
15 クラス統合部
16 出力部
17 学習データ
18 クラスの関係性の情報
21 CPU
22 メモリ
23 記憶装置
24 表示装置
25 制御バス
DESCRIPTION OF
22
Claims (4)
前記クラスの特徴量に基づいて、前記クラス間の類似度を算出する、第二類似度算出手段と、
前記第一算出手段及び前記第二算出手段の算出結果に基づき、前記クラス間が類似しているか否かを判定する、判定手段と、
前記判定手段によって類似していると判定されたクラス同士を、一つのクラスに統合するクラス統合手段と、
教師あり機械学習処理を行う機械学習手段と、
を具えた、機械学習用モデル生成装置。 First similarity calculation means for calculating the similarity between the classes based on the relationship between the classes in which the relationship is defined in advance;
Second similarity calculation means for calculating the similarity between the classes based on the feature amount of the class;
A determination unit that determines whether the classes are similar based on the calculation results of the first calculation unit and the second calculation unit;
Class integration means for integrating the classes determined to be similar by the determination means into one class;
Machine learning means for performing supervised machine learning processing;
A machine learning model generation device comprising:
前記クラスの特徴量に基づいて、前記クラス間の類似度を第二類似度として算出するステップと、
前記第一類似度及び前記第二類似度に基づき、前記クラス間が類似しているか否かを判定するステップと、
類似していると判定されたクラス同士を、一つのクラスに統合するステップと、
教師あり機械学習処理を行うステップと、
をコンピュータに実行させるためのプログラム。 Calculating a similarity between the classes as a first similarity based on a relationship between classes in which a relationship is defined in advance;
Calculating a similarity between the classes as a second similarity based on the feature amount of the class;
Determining whether the classes are similar based on the first similarity and the second similarity;
Combining the classes determined to be similar into a single class;
Performing supervised machine learning processing;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175389A JP6770709B2 (en) | 2016-09-08 | 2016-09-08 | Model generator and program for machine learning. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175389A JP6770709B2 (en) | 2016-09-08 | 2016-09-08 | Model generator and program for machine learning. |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018041300A true JP2018041300A (en) | 2018-03-15 |
JP6770709B2 JP6770709B2 (en) | 2020-10-21 |
Family
ID=61626017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016175389A Active JP6770709B2 (en) | 2016-09-08 | 2016-09-08 | Model generator and program for machine learning. |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6770709B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108933925A (en) * | 2017-05-23 | 2018-12-04 | 佳能株式会社 | Information processing unit, information processing method and storage medium |
CN112585544A (en) * | 2018-08-20 | 2021-03-30 | 西门子股份公司 | Modular acceleration module for artificial intelligence based on programmable logic controller |
WO2021091022A1 (en) * | 2019-11-08 | 2021-05-14 | 주식회사 알체라 | Machine learning system and operating method for machine learning system |
KR20210125279A (en) * | 2020-04-08 | 2021-10-18 | 에스케이텔레콤 주식회사 | Method and Apparatus for Classify Images using Neural Network Trained for Image Classification |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007026098A (en) * | 2005-07-15 | 2007-02-01 | Osaka Prefecture Univ | Program, device and method in regard to pattern recognition using additional information |
JP2010152561A (en) * | 2008-12-24 | 2010-07-08 | Toshiba Corp | Similar expression extraction device, server unit, and program |
JP2013250809A (en) * | 2012-05-31 | 2013-12-12 | Casio Comput Co Ltd | Multi-class discrimination device, method and program |
EP2884434A1 (en) * | 2013-12-10 | 2015-06-17 | Televic Education NV | Method and device for automatic feedback generation |
JP2016015018A (en) * | 2014-07-02 | 2016-01-28 | 富士通株式会社 | Service providing device, method, and program |
-
2016
- 2016-09-08 JP JP2016175389A patent/JP6770709B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007026098A (en) * | 2005-07-15 | 2007-02-01 | Osaka Prefecture Univ | Program, device and method in regard to pattern recognition using additional information |
JP2010152561A (en) * | 2008-12-24 | 2010-07-08 | Toshiba Corp | Similar expression extraction device, server unit, and program |
JP2013250809A (en) * | 2012-05-31 | 2013-12-12 | Casio Comput Co Ltd | Multi-class discrimination device, method and program |
EP2884434A1 (en) * | 2013-12-10 | 2015-06-17 | Televic Education NV | Method and device for automatic feedback generation |
JP2016015018A (en) * | 2014-07-02 | 2016-01-28 | 富士通株式会社 | Service providing device, method, and program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108933925A (en) * | 2017-05-23 | 2018-12-04 | 佳能株式会社 | Information processing unit, information processing method and storage medium |
US10755080B2 (en) | 2017-05-23 | 2020-08-25 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN112585544A (en) * | 2018-08-20 | 2021-03-30 | 西门子股份公司 | Modular acceleration module for artificial intelligence based on programmable logic controller |
CN112585544B (en) * | 2018-08-20 | 2024-06-07 | 西门子股份公司 | Modular acceleration module for artificial intelligence based on programmable logic controller |
US12013676B2 (en) | 2018-08-20 | 2024-06-18 | Siemens Aktiengesellschaft | Programmable logic controller-based modular acceleration module for artificial intelligence |
WO2021091022A1 (en) * | 2019-11-08 | 2021-05-14 | 주식회사 알체라 | Machine learning system and operating method for machine learning system |
KR20210125279A (en) * | 2020-04-08 | 2021-10-18 | 에스케이텔레콤 주식회사 | Method and Apparatus for Classify Images using Neural Network Trained for Image Classification |
KR102528405B1 (en) * | 2020-04-08 | 2023-05-02 | 에스케이텔레콤 주식회사 | Method and Apparatus for Classify Images using Neural Network Trained for Image Classification |
Also Published As
Publication number | Publication date |
---|---|
JP6770709B2 (en) | 2020-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162749B (en) | Information extraction method, information extraction device, computer equipment and computer readable storage medium | |
JP5734503B2 (en) | Meaning estimation apparatus, method, and program | |
CN111444320A (en) | Text retrieval method and device, computer equipment and storage medium | |
CN111539197B (en) | Text matching method and device, computer system and readable storage medium | |
CN106778878B (en) | Character relation classification method and device | |
JP6462970B1 (en) | Classification device, classification method, generation method, classification program, and generation program | |
CN111985229A (en) | Sequence labeling method and device and computer equipment | |
JP6770709B2 (en) | Model generator and program for machine learning. | |
US11669740B2 (en) | Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition | |
JP6070501B2 (en) | Information processing apparatus and information processing program | |
JP2019185551A (en) | Annotation added text data expanding method, annotation added text data expanding program, annotation added text data expanding apparatus, and training method of text classification model | |
CN112805715A (en) | Identifying entity attribute relationships | |
WO2023045725A1 (en) | Method for dataset creation, electronic device, and computer program product | |
JP2018097468A (en) | Sentence classification learning device, sentence classification device, sentence classification learning method and sentence classification learning program | |
CN115936010A (en) | Text abbreviation data processing method and device | |
CN111699472A (en) | Method and computer program product for determining measures for developing, designing and/or deploying complex embedded or cyber-physical systems of different technical areas, in particular complex software architectures used therein | |
JP7236501B2 (en) | Transfer learning method and computer device for deep learning model based on document similarity learning | |
JP2017538226A (en) | Scalable web data extraction | |
CN111507098B (en) | Ambiguous word recognition method and device, electronic equipment and computer-readable storage medium | |
CN111310459B (en) | Training method and device of machine learning component, chinese word segmentation method and device | |
JP5824429B2 (en) | Spam account score calculation apparatus, spam account score calculation method, and program | |
CN110275957B (en) | Name disambiguation method and device, electronic equipment and computer readable storage medium | |
JP2021163477A (en) | Method, apparatus, electronic device, computer-readable storage medium, and computer program for image processing | |
Liu et al. | Named entity recognition using a semi-supervised model based on bert and bootstrapping | |
Oldenhof et al. | Self-labeling of fully mediating representations by graph alignment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200910 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6770709 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |