JP2022042030A - Information processing system and information processing program - Google Patents

Information processing system and information processing program Download PDF

Info

Publication number
JP2022042030A
JP2022042030A JP2020147186A JP2020147186A JP2022042030A JP 2022042030 A JP2022042030 A JP 2022042030A JP 2020147186 A JP2020147186 A JP 2020147186A JP 2020147186 A JP2020147186 A JP 2020147186A JP 2022042030 A JP2022042030 A JP 2022042030A
Authority
JP
Japan
Prior art keywords
information
word
words
unknown
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020147186A
Other languages
Japanese (ja)
Other versions
JP6936370B1 (en
Inventor
恭介 瀬在
Kyosuke Sezai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SCSK Corp
Original Assignee
SCSK Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SCSK Corp filed Critical SCSK Corp
Priority to JP2020147186A priority Critical patent/JP6936370B1/en
Application granted granted Critical
Publication of JP6936370B1 publication Critical patent/JP6936370B1/en
Publication of JP2022042030A publication Critical patent/JP2022042030A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

To provide an information processing system and an information processing program, capable of improving processing accuracy.SOLUTION: An information processing system for performing machine learning again according to a learned target model that outputs numerical information indicating characteristics of a word, which is a learned BERT model that is generated by performing the machine learning for one or more words, includes: an acquisition unit 231 that acquires an unknown word that is not a target of the machine learning in the learned BERT model from first sentence information; and a learning unit 232 that uses second sentence information to perform the machine learning for at least the unknown word acquired by the acquisition unit 231 according to the learned BERT model. The learning unit 232 determines whether or not the unknown word is used as a target of the machine learning on the basis of a predetermined determination reference, and performs the machine learning for the unknown word determined as a target of the machine learning according to the learned target model.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、及び情報処理プログラムに関する。 The present invention relates to an information processing system and an information processing program.

従来、自然言語処理を行うための技術が知られていた(例えば、特許文献1)。 Conventionally, a technique for performing natural language processing has been known (for example, Patent Document 1).

特開2011-113097号公報Japanese Unexamined Patent Publication No. 2011-1130997

ところで、自然言語処理においては、単語について機械学習を行って生成されたモデルを用いて、文章情報に関する様々な処理が行われる場合があった。 By the way, in natural language processing, various processes related to sentence information may be performed using a model generated by performing machine learning on words.

しかしながら、このようなモデルを用いて処理を行う場合、処理の対象となる文章情報の分野が機械学習を行った分野とは異なる分野になった場合、処理精度が低下する可能性があり、処理精度向上の観点から改善の余地があった。 However, when processing is performed using such a model, if the field of text information to be processed becomes a field different from the field where machine learning is performed, the processing accuracy may decrease and the processing may be performed. There was room for improvement from the perspective of improving accuracy.

本発明は、上記に鑑みてなされたものであって、処理精度を向上させることが可能となる情報処理システム及び情報処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing system and an information processing program capable of improving processing accuracy.

上述した課題を解決し、目的を達成するために、請求項1に記載の情報処理システムは、1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理システムであって、前記学習済対象モデルにおいて機械学習の対象となっていない未知語を、第1文章情報から取得する取得手段と、第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、を備える。 The information processing system according to claim 1 is a trained target model generated by performing machine learning on one or more words in order to solve the above-mentioned problems and achieve the object, and is a trained target model of words. The first sentence information of unknown words that are not the target of machine learning in the trained target model, which is an information processing system for performing machine learning again for the trained target model that outputs numerical information indicating the characteristics. It is provided with an acquisition means acquired from the above, and a learning means for performing machine learning on the unknown word acquired by the acquisition means at least for the learned target model using the second sentence information.

請求項2に記載の情報処理システムは、請求項1に記載の情報処理システムにおいて、前記学習手段は、所定の判定基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定し、前記取得手段が取得した前記未知語の内の、機械学習の対象にするものと判定した前記未知語に関する機械学習を前記学習済対象モデルについて行う。 The information processing system according to claim 2 is the information processing system according to claim 1, wherein the learning means targets the unknown word acquired by the acquisition means for machine learning based on a predetermined determination criterion. It is determined whether or not to do so, and machine learning is performed on the learned target model regarding the unknown word that is determined to be the target of machine learning among the unknown words acquired by the acquisition means.

請求項3に記載の情報処理システムは、請求項2に記載の情報処理システムにおいて、前記学習手段は、前記取得手段が取得した前記未知語の品詞に関する基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定する。 The information processing system according to claim 3 is the information processing system according to claim 2, wherein the learning means is acquired by the acquisition means based on the criteria regarding the part of the unknown word acquired by the acquisition means. It is determined whether or not the unknown word is the target of machine learning.

請求項4に記載の情報処理システムは、請求項2又は3に記載の演算システムにおいて、前記学習手段は、前記取得手段が取得した前記未知語の、前記第1文章情報又は前記第2文章情報内での出現頻度に関する基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定する。 The information processing system according to claim 4 is the arithmetic system according to claim 2 or 3, wherein the learning means is the first sentence information or the second sentence information of the unknown word acquired by the acquisition means. Based on the criteria regarding the frequency of appearance within, it is determined whether or not the unknown word acquired by the acquisition means is targeted for machine learning.

請求項5に記載の情報処理システムは、請求項1から4の何れか一項に記載の情報処理システムにおいて、前記取得手段は、所定の特定基準に基づいて、前記第1文章情報において重要単語又は重要フレーズを特定し、特定した前記重要単語又は前記重要フレーズに基づいて、前記第1文章情報から前記未知語を取得する。 The information processing system according to claim 5 is the information processing system according to any one of claims 1 to 4, wherein the acquisition means is an important word in the first sentence information based on a predetermined specific criterion. Alternatively, the important phrase is specified, and the unknown word is acquired from the first sentence information based on the specified important word or the important phrase.

請求項6に記載の情報処理システムは、請求項1から5の何れか一項に記載の情報処理システムにおいて、前記学習済対象モデルで一意に識別される単語が記録されている単語辞書情報を格納する格納手段、を備え、前記取得手段は、前記第1文章情報に含まれる単語の内の、前記単語辞書情報に記録されている単語以外の単語を、前記未知語として取得する。 The information processing system according to claim 6 stores word dictionary information in which words uniquely identified by the trained target model are recorded in the information processing system according to any one of claims 1 to 5. The acquisition means includes a storage means for storing, and the acquisition means acquires words other than the words recorded in the word dictionary information among the words included in the first sentence information as the unknown words.

請求項7に記載の情報処理システムは、請求項6に記載の情報処理システムにおいて、前記学習手段は、前記取得手段が取得した前記未知語を前記単語辞書情報に新たに記録し、前記第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記単語辞書情報に新たに記録した前記未知語に関する機械学習を行う。 The information processing system according to claim 7 is the information processing system according to claim 6, wherein the learning means newly records the unknown word acquired by the acquisition means in the word dictionary information, and the second. Using the text information, machine learning is performed on the learned target model at least for the unknown word newly recorded in the word dictionary information.

請求項8に記載の情報処理システムは、請求項1から7の何れか一項に記載の情報処理システムにおいて、前記第1文章情報は、ニュース記事のタイトルに対応する文章を示す情報であり、前記第2文章情報は、ニュース記事の本文に対応する文章を示す情報である。 The information processing system according to claim 8 is the information processing system according to any one of claims 1 to 7, wherein the first sentence information is information indicating a sentence corresponding to a title of a news article. The second sentence information is information indicating a sentence corresponding to the body of a news article.

請求項9に記載の情報処理プログラムは、1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理プログラムであって、コンピュータを、前記学習済対象モデルにおいて機械学習の対象となっていない未知語を、第1文章情報から取得する取得手段と、第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、として機能させる。 The information processing program according to claim 9 is a trained target model generated by performing machine learning on one or more words, and the trained target model that outputs numerical information indicating the characteristics of the words. An information processing program for performing machine learning again, which is an acquisition means for acquiring an unknown word that is not the target of machine learning in the trained target model from the first sentence information, and a second sentence information. Is used to make the trained target model function as at least a learning means for performing machine learning on the unknown word acquired by the acquisition means.

請求項1に記載の情報処理システム、及び請求項9に記載の情報処理プログラムによれば、取得手段が取得した未知語に関する機械学習を行うことにより、例えば、学習済対象モデルを更新することができるので、当該学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。また、例えば、新たに学習済対象モデルを生成するわけではないので、比較的少ない情報量の第2文章情報を用いて機械学習を行うことができるので、当該機械学習を行う時間を短縮することが可能となる。 According to the information processing system according to claim 1 and the information processing program according to claim 9, for example, the trained target model can be updated by performing machine learning on unknown words acquired by the acquisition means. Therefore, it is possible to improve the processing accuracy of the processing performed based on the trained target model. Further, for example, since a newly trained target model is not generated, machine learning can be performed using a relatively small amount of second sentence information, so that the time for performing the machine learning can be shortened. Is possible.

請求項2に記載の情報処理システムによれば、取得手段が取得した未知語の内の、機械学習の対象にするものと判定した未知語に関する機械学習を学習済対象モデルについて行うことにより、例えば、未知語を適切に絞ることができるので、機械学習を行う時間を短縮することが可能となる。 According to the information processing system according to claim 2, for example, by performing machine learning on the learned target model regarding the unknown words determined to be the target of machine learning among the unknown words acquired by the acquisition means. Since unknown words can be narrowed down appropriately, it is possible to shorten the time for machine learning.

請求項3に記載の情報処理システムによれば、品詞に関する基準に基づいて未知語を機械学習の対象にするか否かを判定することにより、例えば、機械学習の対象にするか否かを適切に判定することが可能となる。 According to the information processing system according to claim 3, it is appropriate to determine whether or not an unknown word is subject to machine learning, for example, by determining whether or not the unknown word is subject to machine learning based on the criteria for part of speech. It is possible to make a judgment.

請求項4に記載の情報処理システムによれば、出現頻度に関する基準に基づいて未知語を機械学習の対象にするか否かを判定することにより、例えば、機械学習の対象にするか否かを適切に判定することが可能となる。 According to the information processing system according to claim 4, for example, whether or not an unknown word is targeted for machine learning is determined by determining whether or not an unknown word is targeted for machine learning based on a criterion regarding frequency of appearance. It becomes possible to make an appropriate judgment.

請求項5に記載の情報処理システムによれば、第1文章情報において特定した重要単語又は重要フレーズに基づいて、第1文章情報から未知語を取得することにより、例えば、有用な未知語を取得することができるので、学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。 According to the information processing system according to claim 5, for example, a useful unknown word is acquired by acquiring an unknown word from the first sentence information based on an important word or an important phrase specified in the first sentence information. Therefore, it is possible to improve the processing accuracy of the processing performed based on the trained target model.

請求項6に記載の情報処理システムによれば、第1文章情報に含まれる単語の内の、単語辞書情報に記録されている単語以外の単語を、未知語として取得することにより、例えば、有用な未知語を取得することができるので、学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。 According to the information processing system according to claim 6, it is useful, for example, by acquiring a word other than the word recorded in the word dictionary information among the words included in the first sentence information as an unknown word. Since unknown words can be acquired, it is possible to improve the processing accuracy of the processing performed based on the trained target model.

請求項7に記載の情報処理システムによれば、少なくとも単語辞書情報に新たに記録した未知語に関する機械学習を行うことにより、例えば、比較的少ない情報量の第2文章情報を用いて機械学習を行うことができるので、当該機械学習を行う時間を短縮することが可能となる。 According to the information processing system according to claim 7, at least machine learning is performed on unknown words newly recorded in the word dictionary information, for example, machine learning is performed using a relatively small amount of second sentence information. Since it can be performed, it is possible to shorten the time for performing the machine learning.

請求項8に記載の情報処理システムによれば、第1文章情報はニュース記事のタイトルに対応する文章を示す情報であり、第2文章情報はニュース記事の本文に対応する文章を示す情報であることにより、例えば、未知語に関して適切に機械学習を行うことができるので、学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。 According to the information processing system according to claim 8, the first sentence information is information indicating a sentence corresponding to the title of the news article, and the second sentence information is information indicating the sentence corresponding to the text of the news article. As a result, for example, machine learning can be appropriately performed for unknown words, so that it is possible to improve the processing accuracy of the processing performed based on the trained target model.

本発明の実施の形態が情報システムのブロック図である。An embodiment of the present invention is a block diagram of an information system. BERT用単語辞書情報を例示した図である。It is a figure exemplifying the word dictionary information for BERT. サーバ装置に記録されている各モデルの説明図である。It is explanatory drawing of each model recorded in a server apparatus. 形態素解析用辞書情報を例示した図である。It is a figure exemplifying the dictionary information for morphological analysis. 再学習用情報の説明図である。It is explanatory drawing of the information for re-learning. 再学習処理のフローチャートである。It is a flowchart of a re-learning process. 重要フレーズが格納された状態の形態素解析用辞書情報を例示した図である。It is a figure which illustrated the dictionary information for morphological analysis in the state which important phrases are stored. 処理例を例示した図である。It is a figure which illustrated the processing example. 処理例を例示した図である。It is a figure which illustrated the processing example. 処理例を例示した図である。It is a figure which illustrated the processing example. 処理例を例示した図である。It is a figure which illustrated the processing example. 未知語が新たに登録された状態のBERT用単語辞書情報を例示した図である。It is a figure exemplifying the word dictionary information for BERT in the state where an unknown word is newly registered. 学習済BERTモデル再学習処理のフローチャートである。It is a flowchart of the trained BERT model re-learning process. 分類処理のフローチャートである。It is a flowchart of a classification process.

以下、本発明に係る情報処理システム、及び情報処理プログラムの実施の形態について図面を参照しつつ詳細に説明する。ただし、実施の形態によって本発明が限定されるものではない。ここでは、基本的概念、及び用語を説明した後に、具体的な実施の形態について説明する。 Hereinafter, the information processing system and the embodiment of the information processing program according to the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the embodiments. Here, after explaining the basic concept and terms, a specific embodiment will be described.

(基本的概念)
まず、基本的概念について説明する。本発明に係る情報処理システムは、学習済対象モデルについて再度機械学習(つまり、「再学習」)を行うためのシステムであり、例えば、再度機械学習を行うための専用システム、あるいは、汎用的に用いられるシステム(一例としては、汎用コンピュータ、サーバコンピュータ、あるいは、ネットワーク上に分散配置された複数のコンピュータ(つまり、いわゆるクラウドコンピュータ)等)に対して、情報処理プログラムをインストールして再度機械学習を行うための機能を実装することにより実現されるシステム等を含む概念である。
(Basic concept)
First, the basic concept will be explained. The information processing system according to the present invention is a system for performing machine learning (that is, "re-learning") again for a trained target model, for example, a dedicated system for performing machine learning again, or a general-purpose system. Install an information processing program on the system used (for example, a general-purpose computer, a server computer, or multiple computers distributed on a network (that is, a so-called cloud computer)) and perform machine learning again. It is a concept that includes a system etc. realized by implementing a function to perform.

「学習済対象モデル」とは、1個以上の単語に関する機械学習を行うことにより生成されるモデルであって、単語の特徴を示す数値情報を出力するモデルである。「単語の特徴を示す数値情報」とは、例えば、単語の特徴を示す分散表現に対応する数値情報であり、すなわち、単語の分散表現に対応するベクトル情報を示す数値情報等を含む概念である。「単語の特徴」とは、単語の意味に対応する概念であるものと解釈してもよい。学習済対象モデルは任意であるが、例えば、公知のBERT(Bidirectional Encoder Representations from Transformers)に対応する自然言語処理のモデル、あるいは、前述の定義に従う他の任意のモデル等を含む概念である。 The "learned target model" is a model generated by performing machine learning on one or more words, and is a model that outputs numerical information indicating the characteristics of the words. The "numerical information indicating the characteristics of a word" is, for example, numerical information corresponding to a distributed expression indicating the characteristics of a word, that is, a concept including numerical information indicating vector information corresponding to the distributed expression of a word. .. The "characteristic of a word" may be interpreted as a concept corresponding to the meaning of a word. The trained target model is arbitrary, but is a concept including, for example, a model of natural language processing corresponding to a known BERT (Biorectional Encoder Representations from Transfermers), or any other model according to the above definition.

情報処理システムは、例えば、取得手段、及び学習手段を備え、任意で格納手段を備える。 The information processing system includes, for example, acquisition means and learning means, and optionally includes storage means.

===各手段===
「取得手段」とは、学習済対象モデルにおいて機械学習の対象となっていない未知語を、第1文章情報から取得する手段である。また、「取得手段」とは、例えば、所定の特定基準に基づいて、第1文章情報において重要単語又は重要フレーズを特定し、特定した重要単語又は重要フレーズに基づいて、第1文章情報から未知語を取得する手段等を含む概念である。また、「取得手段」とは、例えば、第1文章情報に含まれる単語の内の、単語辞書情報に記録されている単語以外の単語を、未知語として取得する手段等を含む概念である。
=== Each means ===
The "acquisition means" is a means for acquiring an unknown word that is not the target of machine learning in the trained target model from the first sentence information. Further, the "acquisition means" is, for example, specifying an important word or an important phrase in the first sentence information based on a predetermined specific criterion, and unknown from the first sentence information based on the specified important word or the important phrase. It is a concept that includes means for acquiring words. Further, the "acquisition means" is a concept including, for example, a means for acquiring a word other than a word recorded in the word dictionary information among the words included in the first sentence information as an unknown word.

「学習手段」とは、第2文章情報を用いて、学習済対象モデルについて、少なくとも取得手段が取得した未知語に関する機械学習を行う手段である。また、「学習手段」とは、例えば、所定の判定基準に基づいて、取得手段が取得した未知語を機械学習の対象にするか否かを判定し、取得手段が取得した未知語の内の、機械学習の対象にするものと判定した未知語に関する機械学習を学習済対象モデルについて行う手段等を含む概念である。 The "learning means" is a means for performing machine learning on at least the unknown words acquired by the acquisition means for the trained target model using the second sentence information. Further, the "learning means" is, for example, based on a predetermined determination criterion, it is determined whether or not the unknown word acquired by the acquisition means is targeted for machine learning, and among the unknown words acquired by the acquisition means. , A concept including means for performing machine learning on a trained target model for unknown words determined to be the target of machine learning.

また、「学習手段」とは、例えば、取得手段が取得した未知語の品詞に関する基準に基づいて、取得手段が取得した未知語を機械学習の対象にするか否かを判定する手段等を含む概念である。また、「学習手段」とは、例えば、取得手段が取得した未知語の、第1文章情報又は第2文章情報内での出現頻度に関する基準に基づいて、取得手段が取得した未知語を機械学習の対象にするか否かを判定する手段等を含む概念である。 Further, the "learning means" includes, for example, a means for determining whether or not the unknown word acquired by the acquisition means is subject to machine learning based on the criteria regarding the part of speech of the unknown word acquired by the acquisition means. It is a concept. Further, the "learning means" is, for example, machine learning of the unknown words acquired by the acquisition means based on the criteria regarding the frequency of appearance of the unknown words acquired by the acquisition means in the first sentence information or the second sentence information. It is a concept including means for determining whether or not to be the target of.

また、「学習手段」とは、例えば、取得手段が取得した未知語を単語辞書情報に新たに記録し、第2文章情報を用いて、学習済対象モデルについて、少なくとも単語辞書情報に新たに記録した未知語に関する機械学習を行う手段等を含む概念である。 Further, the "learning means" is, for example, newly recording an unknown word acquired by the acquisition means in the word dictionary information, and newly recording the learned target model in at least the word dictionary information using the second sentence information. It is a concept that includes means for performing machine learning related to unknown words.

「格納手段」とは、学習済対象モデルで一意に識別される単語が記録されている単語辞書情報を格納する手段である。 The "storage means" is a means for storing word dictionary information in which words uniquely identified in the trained target model are recorded.

===各用語===
「未知語」とは、学習済対象モデルにおいて機械学習の対象となっていない単語であり、具体的には、学習済対象モデルにおいて一意に識別可能となっていない単語等を含む概念であり、例えば、単語辞書情報に記録されていない単語等を含む概念である。
=== Each term ===
The "unknown word" is a word that is not the target of machine learning in the trained target model, and specifically, is a concept that includes a word or the like that cannot be uniquely identified in the trained target model. For example, it is a concept including words and the like that are not recorded in the word dictionary information.

「単語辞書情報」とは、例えば、学習済対象モデルで一意に識別される単語が記録されている情報である。例えば、学習済対象モデルを用いて処理を行う場合、この単語辞書情報に記録されている単語については、一意に識別して当該単語の特徴を示す数値情報を出力することが可能となる。 The "word dictionary information" is, for example, information in which words uniquely identified in the trained target model are recorded. For example, when processing is performed using the trained target model, the words recorded in the word dictionary information can be uniquely identified and numerical information indicating the characteristics of the words can be output.

「所定の特定基準」とは、第1文章情報において重要単語又は重要フレーズを特定するための基準である。「単語」とは、例えば、意味又は機能をもった最小単位等を含む概念であるものと解釈してもよく、また、「フレーズ」とは、例えば、複数個分の単語に対応する概念であるものと解釈してもよい。すなわち、例えば、「フレーズ」とは、2語以上の単語に対応する概念であるものと解釈してもよい。 The "predetermined specific standard" is a standard for specifying an important word or an important phrase in the first sentence information. The "word" may be interpreted as a concept including, for example, the smallest unit having a meaning or a function, and the "phrase" is, for example, a concept corresponding to a plurality of words. It may be interpreted as something. That is, for example, a "phrase" may be interpreted as a concept corresponding to two or more words.

「所定の判定基準」とは、未知語を機械学習の対象にするか否かを判定するための基準である。この判定基準は任意であるが、例えば、未知語の品詞に関する基準、未知語の出現頻度に関する基準、これらの組み合わせ、あるいは、その他の基準等を含む概念である。 The "predetermined determination criterion" is a criterion for determining whether or not an unknown word is a target of machine learning. This criterion is arbitrary, but is a concept including, for example, a criterion regarding the part of speech of an unknown word, a criterion regarding the frequency of appearance of an unknown word, a combination thereof, or other criteria.

「第1文章情報」とは、例えば、少なくとも未知語を取得される対象となる文章(つまり、1個以上の文の集合)を示す情報であり、一例としては、ニュース記事のタイトルに対応する文章を示す情報等を含む概念である。「第2文章情報」とは、例えば、学習済対象モデルについて少なくとも未知語に関する機械学習を行うための情報であり、一例としては、ニュース記事の本文に対応する文章を示す情報等を含む概念である。なお、第1文章情報及び第2文章情報としては、ニュース記事に関する情報以外の任意の情報(例えば、ブログに関する情報、あるいは、公知のコーパス情報等)を用いてもよい。 The "first sentence information" is, for example, information indicating a sentence (that is, a set of one or more sentences) for which an unknown word is to be acquired, and one example corresponds to the title of a news article. It is a concept that includes information indicating sentences. The "second sentence information" is, for example, information for performing machine learning on at least unknown words for a trained target model, and as an example, is a concept including information indicating a sentence corresponding to the text of a news article. be. As the first sentence information and the second sentence information, arbitrary information other than the information related to the news article (for example, information related to the blog, publicly known corpus information, etc.) may be used.

前述の学習済対象モデル(再学習された学習済対象モデルを含む)の直接的な又は間接的な利用例は任意であり、自然言語処理に関する様々なタスクを実行する処理に利用することができ、例えば、分類、予測、生成等に関する様々なタスクを実行するために学習済対象モデルを利用してもよく、すなわち、学習済対象モデルを利用して、読解、含意、換言、対話、要約、又は翻訳等の任意の処理を行うように構成してもよい。 The above-mentioned direct or indirect use cases of the trained target model (including the retrained trained target model) are optional and can be used for processing to execute various tasks related to natural language processing. , For example, a trained object model may be used to perform various tasks related to classification, prediction, generation, etc. That is, the trained object model may be used to read, imply, paraphrase, dialogue, summarize, etc. Alternatively, it may be configured to perform arbitrary processing such as translation.

そして、以下に示す実施の形態では、例えば、ニュース記事をカテゴリに分けるタスク(つまり、分類タスク)に、学習済対象モデルを再学習して利用する場合を例示して説明する。なお、「カテゴリ」とは、ニュース記事の記載内容に基づく分類のグループであり、本実施の形態では、所定個数(例えば、10個~20個等)のカテゴリ(一例としては、「製品紹介」のカテゴリ、「製品比較」のカテゴリ等)が予め定められており、各ニュース記事を何れかのカテゴリに分ける場合を例示して説明する。 Then, in the embodiment shown below, for example, a case where the trained target model is relearned and used for a task of dividing news articles into categories (that is, a classification task) will be illustrated and described. The "category" is a group of classifications based on the description contents of news articles, and in the present embodiment, a predetermined number (for example, 10 to 20 pieces, etc.) of categories (for example, "product introduction"". (Category of, "Comparison of products", etc.) are predetermined, and the case where each news article is divided into any category will be described as an example.

(構成)
まず、本実施の形態に係る情報システムについて説明する。図1は、本発明の実施の形態が情報システムのブロック図である。
(Constitution)
First, the information system according to the present embodiment will be described. FIG. 1 is a block diagram of an information system according to an embodiment of the present invention.

情報システム100は、例えば、端末装置1、及びサーバ装置2を備える。なお、端末装置1の個数は任意であり、複数個設けてもよいが、図1に図示されているものに着目して説明する。 The information system 100 includes, for example, a terminal device 1 and a server device 2. The number of terminal devices 1 is arbitrary, and a plurality of terminal devices 1 may be provided, but the description will be focused on those shown in FIG.

(構成-端末装置)
端末装置1は、ユーザによって用いられる装置であり、具体的には、サーバ装置2に対してネットワークを介して通信可能に接続されている装置であり、例えば、パーソナルコンピュータ等を含むコンピュータである。なお、端末装置1の具体的な構成は任意であるが、例えば、公知のパーソナルコンピュータの構成を適用することができる。
(Configuration-Terminal device)
The terminal device 1 is a device used by a user, and specifically, is a device that is communicably connected to a server device 2 via a network, and is, for example, a computer including a personal computer or the like. The specific configuration of the terminal device 1 is arbitrary, but for example, a known configuration of a personal computer can be applied.

(構成-サーバ装置)
サーバ装置2は、情報処理システムであり、例えば、通信部21、記録部22、及び制御部23を備える。
(Configuration-Server device)
The server device 2 is an information processing system, and includes, for example, a communication unit 21, a recording unit 22, and a control unit 23.

(構成-サーバ装置-通信部)
図1の通信部21は、外部装置(例えば、端末装置1)との間で通信するための通信手段である。この通信部21の具体的な種類や構成は任意であるが、例えば、公知の通信回路等を用いて構成することができる。
(Configuration-Server device-Communication unit)
The communication unit 21 in FIG. 1 is a communication means for communicating with an external device (for example, a terminal device 1). The specific type and configuration of the communication unit 21 is arbitrary, but it can be configured by using, for example, a known communication circuit or the like.

(構成-サーバ装置-記録部)
図1の記録部22は、サーバ装置2の動作に必要なプログラム及び各種のデータを記録する記録手段(格納手段)であり、例えば、外部記録装置としてのハードディスク又はフラッシュメモリ(図示省略)を用いて構成されている。ただし、ハードディスク又はフラッシュメモリに代えてあるいはハードディスク又はフラッシュメモリと共に、磁気ディスクの如き磁気的記録媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。
(Configuration-Server device-Recording unit)
The recording unit 22 of FIG. 1 is a recording means (storage means) for recording a program and various data necessary for the operation of the server device 2, and for example, a hard disk or a flash memory (not shown) as an external recording device is used. It is composed of. However, instead of the hard disk or flash memory, or together with the hard disk or flash memory, any other recording medium including a magnetic recording medium such as a magnetic disk or an optical recording medium such as a DVD or a Blu-ray disk can be used. ..

記録部22には、例えば、図1に示すように、BERT用単語辞書情報、学習済BERTモデル、タスクモデル、形態素解析用単語辞書情報、再学習用情報、及び分類対象情報が格納されている。 As shown in FIG. 1, for example, the recording unit 22 stores BERT word dictionary information, learned BERT model, task model, morphological analysis word dictionary information, relearning information, and classification target information. ..

(構成-サーバ装置-記録部-BERT用単語辞書情報)
図1の「BERT用単語辞書情報」とは、前述の単語辞書情報であり、学習済BERTモデルで一意に識別される単語が記録されている情報であり、例えば、各単語を、当該各単語を識別するための単語IDに変換するための情報である。
(Configuration-Server device-Recording unit-Word dictionary information for BERT)
The “word dictionary information for BERT” in FIG. 1 is the word dictionary information described above, and is information in which words uniquely identified by the trained BERT model are recorded. For example, each word is stored in each word. It is information for converting into a word ID for identifying.

図2は、BERT用単語辞書情報を例示した図である。このBERT用単語辞書情報は任意であるが、例えば、学習済BERTモデルで一意に識別される単語等が各行に1個ずつ記録されているテキストファイルであり、一例としては、図2に示すように、1行目~4行目等に「UNK」、「来年」、「第5世代通信」、「と」等が格納されているテキストファイルであることとして説明する。なお、ここでの「UNK」については、他の単語(「来年」、「第5世代通信」、「と」等)とは異なる性質の情報であり、BERT用単語辞書情報に具体的に格納(記録)されている単語以外の単語を、単語IDに変換するための情報である。 FIG. 2 is a diagram illustrating the BERT word dictionary information. This BERT word dictionary information is arbitrary, but for example, it is a text file in which one word or the like uniquely identified in the trained BERT model is recorded in each line, and as an example, as shown in FIG. It will be described as a text file in which "UNK", "next year", "fifth generation communication", "to", etc. are stored in the first to fourth lines and the like. Note that "UNK" here is information having a different property from other words ("next year", "5th generation communication", "to", etc.), and is specifically stored in the BERT word dictionary information. This is information for converting a word other than the (recorded) word into a word ID.

なお、BERT用単語辞書情報を用いて単語IDに変換する具体的な処理は任意であるが、例えば、制御部23が、図2のBERT用単語辞書情報において、変換の対象となる単語と同じ単語を特定し、当該特定した単語が記録されている図2のBERT用単語辞書情報であるファイル中の行番号(つまり、何行目であるか)に対応する単語IDに変換するものとして、以下説明する。 The specific process of converting the word ID into a word ID using the word dictionary information for BERT is arbitrary, but for example, the control unit 23 is the same as the word to be converted in the word dictionary information for BERT of FIG. A word is specified and converted into a word ID corresponding to the line number (that is, the line number) in the file which is the word dictionary information for BERT in FIG. 2 in which the specified word is recorded. This will be described below.

ここでは、例えば、「来年」については、図2のBERT用単語辞書情報において2行目に記録されているので、当該2行目に対応する単語IDである「ID2」(便宜上の記載)に変換し、また、同様にして、「第5世代通信」及び「と」については「ID3」(3行目に対応する単語ID)及び「ID4」(4行目に対応する単語ID)に変換することになる。一方で、「〇〇サービス」、「△△プラン」、及び「××データ」が図2のBERT用単語辞書情報に格納されていない場合、これらの単語は全て図2のBERT用単語辞書情報の「UNK」が格納されている1行目に対応する「ID1」に変換することになる。 Here, for example, "next year" is recorded in the second line in the word dictionary information for BERT in FIG. 2, so that the word ID corresponding to the second line is "ID2" (described for convenience). In the same way, "5th generation communication" and "to" are converted into "ID3" (word ID corresponding to the 3rd line) and "ID4" (word ID corresponding to the 4th line). Will be done. On the other hand, if "○○ service", "△△ plan", and "XX data" are not stored in the BERT word dictionary information of FIG. 2, all of these words are the BERT word dictionary information of FIG. It will be converted to "ID1" corresponding to the first line in which "UNK" is stored.

そして、このようなBERT用単語辞書情報の具体的な格納手法は任意であるが、例えば、機械学習(つまり、初回の機械学習)を行うことにより学習済BERTモデルを生成する場合に、当該機械学習で学習の対象となる所定個数分(例えば、「UNK」を含めて32000個分)の単語等が、BERT用単語辞書情報の初期値として格納される。そして、この後に後述する再学習処理を行うことにより、適宜追加の単語が当該BERT用単語辞書情報に格納されることになる。 The specific storage method of such BERT word dictionary information is arbitrary, but for example, when a trained BERT model is generated by performing machine learning (that is, the first machine learning), the machine concerned. A predetermined number of words (for example, 32,000 including "UNK") to be learned in learning are stored as initial values of the BERT word dictionary information. Then, by performing the re-learning process described later after this, additional words are appropriately stored in the BERT word dictionary information.

学習済BERTモデルを生成するための機械学習(つまり、初回の機械学習)は公知であるので、概要のみ説明する。具体的には、大量の学習用データとしてニュース記事、又は論文記事等の任意の文章を入力した場合に、制御部23が、当該入力された情報から任意の手法で、BERT用単語辞書情報に初期値として格納するべき個数の単語(例えば、「UNK」を除く31999個の単語)を取得し、取得した単語をBERT用単語辞書情報に初期値として格納し、当該BERT用単語辞書情報を用いて前述の入力された文章の各文に含まれる単語の並びを単語IDの並びに変換し、当該変換された単語IDの並びに基づいて機械学習を行うことにより、学習済BERTモデルを生成することとする。このように処理することにより、単語IDの並びが示す前述の入力された文章中の各文における単語の並び(つまり、文脈)を考慮した機械学習が行われることになり、当該機械学習により学習済BERTモデルが生成されることになる。 Since machine learning for generating a trained BERT model (that is, initial machine learning) is known, only an outline will be described. Specifically, when an arbitrary sentence such as a news article or a dissertation article is input as a large amount of learning data, the control unit 23 converts the input information into the word dictionary information for BERT by an arbitrary method. Acquire the number of words to be stored as the initial value (for example, 31999 words excluding "UNK"), store the acquired words in the BERT word dictionary information as the initial value, and use the BERT word dictionary information. The trained BERT model is generated by converting the sequence of words included in each sentence of the above-mentioned input sentence into the sequence of word IDs and performing machine learning based on the sequence of the converted word IDs. do. By processing in this way, machine learning is performed in consideration of the word sequence (that is, the context) in each sentence in the above-mentioned input sentence indicated by the word ID sequence, and the learning is performed by the machine learning. A finished BERT model will be generated.

なお、前述したように、BERT用単語辞書情報を利用して変換した単語IDを用いて行われる機械学習により、学習済BERTモデルが生成されるので、BERT用単語辞書情報には、学習済BERTモデルで一意に識別される単語等が格納されることになる。 As described above, the trained BERT model is generated by machine learning performed using the word ID converted using the BERT word dictionary information. Therefore, the trained BERT is included in the BERT word dictionary information. Words and the like that are uniquely identified by the model will be stored.

なお、BERT用単語辞書情報の初期値については、その他の様々な手法で格納されることとしてもよく、例えば、管理者が決定した情報を任意の手法(例えば、サーバ装置2の不図示の入力手段(キーボード又はマウス等)を用いる手法、あるいは、メモリスティック等の記録媒体を用いる手法等)でサーバ装置2に入力し、当該入力された情報がBERT用単語辞書情報の初期値として記録されることとしてもよい。また、この場合、制御部23は、当該BERT用単語辞書情報の初期値(つまり、管理者が決定した情報に対応する情報)に基づいて、前述の入力された文章の各文に含まれる単語の並びを単語IDの並びに変換した上で、学習済BERTモデルを生成することとしてもよい。 The initial value of the word dictionary information for BERT may be stored by various other methods. For example, the information determined by the administrator may be input by an arbitrary method (for example, an input (not shown) of the server device 2. It is input to the server device 2 by a method using means (keyboard, mouse, etc.) or a recording medium such as a memory stick, and the input information is recorded as the initial value of the word dictionary information for BERT. It may be that. Further, in this case, the control unit 23 uses the word included in each sentence of the above-mentioned input sentence based on the initial value of the BERT word dictionary information (that is, the information corresponding to the information determined by the administrator). The trained BERT model may be generated after converting the sequence of words into the sequence of word IDs.

また、学習済BERTモデルを生成する装置はサーバ装置2に限らず、他の装置において、BERT用単語辞書情報を適宜用いて学習済BERTモデルを生成した上で、当該生成した学習済BERTモデルを前述のBERT用単語辞書情報(学習済BERTモデルの生成時に用いられたBERT用単語辞書情報)と共にサーバ装置2に入力して格納してもよい。 Further, the device that generates the trained BERT model is not limited to the server device 2, but the trained BERT model is generated by appropriately using the word dictionary information for BERT in other devices, and then the generated learned BERT model is used. It may be input and stored in the server device 2 together with the above-mentioned BERT word dictionary information (BERT word dictionary information used when the learned BERT model is generated).

(構成-サーバ装置-記録部-学習済BERTモデル)
図3は、サーバ装置に記録されている各モデルの説明図である。図1の「学習済BERTモデル」とは、例えば、図3の「モデル」=「学習済BERTモデル」の欄に図示されているように、単語IDの並びが入力され、当該入力された単語ID各々に対応する分散表現数値情報の並びを出力するモデルである。なお、「分散表現数値情報」とは、単語IDが識別する単語の分散表現に対応する数値情報を示す概念である。
(Configuration-Server device-Recording unit-Learned BERT model)
FIG. 3 is an explanatory diagram of each model recorded in the server device. The "learned BERT model" in FIG. 1 is, for example, as shown in the column of "model" = "learned BERT model" in FIG. 3, in which a sequence of word IDs is input and the input word. It is a model that outputs a sequence of distributed expression numerical information corresponding to each ID. The "distributed expression numerical information" is a concept indicating numerical information corresponding to the distributed expression of the word identified by the word ID.

そして、このような学習済BERTモデルの具体的な格納手法は任意であるが、例えば、前述の「初回の機械学習」を行うことにより生成されて格納され、この後、後述する再学習処理(図6)を行うことにより更新されることになり、更にこの後に、タスクモデルを生成する場合に利用される情報(つまり、例えばニュース記事のタイトルの文章)を用いて再度機械学習を行って更新されることになる。そして、本実施の形態では、説明の便宜上、各段階での学習済モデルを区別して説明する必要がある場合、前述の「初回の機械学習」を行って生成された学習済BERTモデルを「事前学習済BERTモデル」と称し、また、後述する再学習処理(図6)を行うことにより更新された学習済BERTモデルを「未知語学習済BERTモデル」と称し、また、タスクモデルを生成する場合に利用される情報(つまり、例えばニュース記事のタイトルの文章)を用いて再度機械学習を行って更新された学習済BERTモデルを「分類学習済BERTモデル」と称する。 The specific storage method of such a trained BERT model is arbitrary, but for example, it is generated and stored by performing the above-mentioned "first machine learning", and after that, a re-learning process (described later) is performed. It will be updated by performing FIG. 6), and after that, machine learning will be performed again using the information used when generating the task model (that is, the text of the title of the news article, for example) to update. Will be done. Then, in the present embodiment, for convenience of explanation, when it is necessary to separately explain the trained model at each stage, the trained BERT model generated by performing the above-mentioned "first machine learning" is "preliminarily". When a trained BERT model updated by performing a re-learning process (FIG. 6) described later is referred to as a "learned BERT model" and a task model is generated. A trained BERT model that has been updated by performing machine learning again using the information used for (that is, for example, the text of the title of a news article) is referred to as a "classified learning BERT model".

また、本実施の形態では、「事前学習済BERTモデル」が「学習済対象モデル」に対応するものと解釈してもよい。なお、この対応関係の解釈に限定せずに、例えば、再学習処理(図6)を実行する対象となる学習済BERTモデルに応じて他の解釈を適用することもできる。 Further, in the present embodiment, the "pre-learned BERT model" may be interpreted as corresponding to the "learned target model". In addition, the interpretation is not limited to this correspondence, and other interpretations may be applied, for example, depending on the trained BERT model for which the re-learning process (FIG. 6) is executed.

なお、「分類学習済BERTモデル」を更新するために行われる、タスクモデルを生成する場合に利用される情報(つまり、例えばニュース記事のタイトルの文章)を用いて行われる「未知語学習済BERTモデル」に対する機械学習は、前述の「初回の機械学習」(つまり、「事前学習済BERTモデル」を生成するための機械学習)と同様に公知であるので、詳細の説明は省略して概要のみを説明する。すなわち、この機械学習の処理においては、BERT用単語辞書情報に対する情報の追加等は行わずに、「未知語学習済BERTモデル」を、タスクモデルを生成する場合に利用される情報(例えばニュース記事のタイトルの文章)側に寄せて(つまり、タスクモデルを生成する場合に利用される情報に特化させて)、「分類学習済BERTモデル」に更新することになる。 It should be noted that the "unknown word learned BERT" performed using the information used when generating the task model (that is, for example, the text of the title of the news article), which is performed to update the "classified learned BERT model". Machine learning for "models" is known in the same way as "first machine learning" (that is, machine learning for generating "pre-trained BERT models"), so detailed explanations are omitted and only an outline is given. To explain. That is, in this machine learning process, the information used when generating the task model of the "unknown word learned BERT model" without adding information to the BERT word dictionary information (for example, news article). (That is, specializing in the information used when generating the task model), and updating to the "classified and learned BERT model".

(構成-サーバ装置-記録部-タスクモデル)
図1の「タスクモデル」とは、タスクを実行するためのモデルであり、具体的には、学習済BERTモデル(詳細には、例えば「分類学習済BERTモデル」)を用いて行わる処理結果を利用してタスクを実行するためのモデルであり、本実施の形態では、ニュース記事をカテゴリに分けるタスクを実行するためのモデルである。このタスクモデルは、例えば、図3の「モデル」=「タスクモデル」の欄に図示されているように、分散表現数値情報の並びが入力され、当該入力された分散表現数値情報の並びが属するカテゴリを示す情報(つまり、一例としては、ニュース記事が属するカテゴリを示す情報であり、ニュース記事がどのカテゴリに属するかを示す情報)を出力するモデルである。なお、ここで説明したように、タスクモデルについては、例えば「分類学習済BERTモデル」を用いて行われる処理の結果を利用して実行することが好ましいが、例えば、「未知語学習済BERTモデル」を用いて行われる処理の結果を利用して実行してもよい。
(Configuration-Server device-Recording unit-Task model)
The "task model" in FIG. 1 is a model for executing a task, and specifically, a processing result performed using a trained BERT model (specifically, for example, a "classified trained BERT model"). It is a model for executing a task by using the above, and in the present embodiment, it is a model for executing a task for dividing news articles into categories. In this task model, for example, as shown in the column of "model" = "task model" in FIG. 3, a sequence of distributed expression numerical information is input, and the sequence of the input distributed expression numerical information belongs to. It is a model that outputs information indicating a category (that is, for example, information indicating a category to which a news article belongs, and information indicating which category the news article belongs to). As described here, it is preferable to execute the task model by using the result of the processing performed by using, for example, the "classified learned BERT model". For example, the "unknown language learned BERT model" is preferable. You may execute it by using the result of the processing performed by using.

そして、このようなタスクモデルの具体的な格納手法は任意であるが、例えば、ニュース記事のタイトルの文章と、当該ニュース記事が属するカテゴリを示す情報とを用いて、教師ありの機械学習を行うことによりタスクモデルを生成し、当該生成したタスクモデルが格納されることとしてもよい。なお、このタスクモデルについては、サーバ装置2において生成してもよいし、あるいは、他の装置で生成してもよい。 The specific storage method of such a task model is arbitrary, but for example, machine learning with a teacher is performed using the text of the title of the news article and the information indicating the category to which the news article belongs. This may generate a task model and store the generated task model. The task model may be generated by the server device 2 or may be generated by another device.

(構成-サーバ装置-記録部-形態素解析用単語辞書情報)
図1の「形態素解析用単語辞書情報」とは、文を単語に分割するための形態素解析において用いられる情報である。図4は、形態素解析用辞書情報を例示した図である。この形態素解析用単語辞書情報においては、例えば図4に示すように、項目「単語情報」に対応する情報と、項目「品詞情報」に対応する情報と、項目「読み情報」に対応する情報とが相互に関連付けられている。
(Configuration-Server device-Recording unit-Morphological analysis word dictionary information)
The "word dictionary information for morphological analysis" in FIG. 1 is information used in morphological analysis for dividing a sentence into words. FIG. 4 is a diagram illustrating morphological analysis dictionary information. In this morphological analysis word dictionary information, for example, as shown in FIG. 4, information corresponding to the item "word information", information corresponding to the item "part of speech information", and information corresponding to the item "reading information" Are interrelated.

項目「単語情報」に対応する情報は、単語を示す単語情報である(図4では、「ABフォン」等)。項目「品詞情報」に対応する情報は、単語の品詞を示す品詞情報である(図4では、「名詞」、不図示の「動詞」、「助動詞」等)。項目「読み情報」に対応する情報は、単語の読みを示す読み情報である(図4では、「エービーフォン」等)。 The information corresponding to the item "word information" is word information indicating a word (in FIG. 4, "AB phone" or the like). The information corresponding to the item "part of speech information" is part of speech information indicating the part of speech of a word (in FIG. 4, "noun", not shown "verb", "auxiliary verb", etc.). The information corresponding to the item "reading information" is reading information indicating the reading of a word (in FIG. 4, "AB phone" or the like).

そして、この図4の形態素解析用単語辞書情報の例えば最上段の情報(「ABフォン」、「名詞」、及び「エービーフォン」の組み合わせの情報)については、「ABフォン」という単語の品詞が「名詞」であり、また、当該「ABフォン」の読みが「エービーフォン」であることが示されている。なお、この形態素解析用単語辞書情報の格納手法は任意であるが、例えば、任意の手法でサーバ装置2に情報を入力することにより格納されることとしてもよい(後述する再学習用情報、及び分類対象情報も同様である)。 Then, for example, the information at the top of the word dictionary information for morphological analysis (information on the combination of "AB phone", "noun", and "AB phone") in FIG. 4 has the part of speech of the word "AB phone". It is shown to be a "noun" and the reading of the "AB phone" is "AB phone". The method for storing the word dictionary information for morphological analysis is arbitrary, but it may be stored, for example, by inputting information to the server device 2 by any method (information for re-learning described later and information for re-learning). The same applies to the classification target information).

(構成-サーバ装置-記録部-再学習用情報)
図1の「再学習用情報」とは、学習済BERTモデルの再学習のために用いられる情報であり、例えば、後述する再学習処理(図6)で用いられる情報である。図5は、再学習用情報の説明図である。この再学習用情報としては任意の情報を用いることができるが、例えば、後述する分類対象情報に関連する情報を用いてもよいし、あるいは、関連しない情報を用いてもよいが、本実施の形態では、分類対象情報が通信分野に属するニュース記事であり、再学習用情報としては、この分類対象情報が属する分野と同じ分野である通信分野のニュース記事を用いる場合について説明する。ここでは、例えば、図5に示すように、ニュース記事がタイトルと本文とによって構成されており、「記事番号」=「1」に対応する記事(つまり、タイトルが「ABフォンXRとBCフォンを比べた!」であり、本文が「先日リリースされたABフォンXRとBCフォンのスペックは・・・である。そして、これらを比較すると、・・・・が優位である。」である記事)、「記事番号」=「2」に対応する記事(つまり、タイトルが「第5世代通信時代をリードするBBが登場した。」であり、本文が「第5世代通信時代のサービスが昨年のxx月に開始したが、このサービスが普及すると、・・・となる。」である記事)、及び「記事番号」=「3」、「4」等に対応する記事を含む複数の通信分野の記事が再学習用情報として格納されている場合について説明する。
(Configuration-Server device-Recording unit-Information for re-learning)
The “re-learning information” in FIG. 1 is information used for re-learning the learned BERT model, and is, for example, information used in the re-learning process (FIG. 6) described later. FIG. 5 is an explanatory diagram of information for re-learning. Arbitrary information can be used as the re-learning information. For example, information related to the classification target information described later may be used, or information not related to the classification target information may be used. In the form, a case where the classification target information is a news article belonging to the communication field and the news article in the communication field which is the same field as the field to which the classification target information belongs is used as the re-learning information will be described. Here, for example, as shown in FIG. 5, a news article is composed of a title and a text, and an article corresponding to "article number" = "1" (that is, the title is "AB phone XR and BC phone". "Compare!" And the text is "The specs of the AB phone XR and BC phone released the other day are ... And when comparing these, ... is superior.") , "Article number" = "2" (that is, the title is "BB that leads the 5th generation communication era has appeared.", And the text is "The service of the 5th generation communication era was last year's xx." It started in March, but when this service becomes widespread, it will become ... ”), and articles in multiple communication fields including articles corresponding to“ article number ”=“ 3 ”,“ 4 ”, etc. Will be described when is stored as information for re-learning.

なお、ここでの「再学習用情報」であるニュース記事のタイトルが「第1文章情報」に対応し、また、当該ニュース記事の本文が「第2文章情報」に対応するものと解釈してもよい。 In addition, it is interpreted that the title of the news article, which is "information for re-learning", corresponds to "first sentence information", and the text of the news article corresponds to "second sentence information". May be good.

(構成-サーバ装置-記録部-分類対象情報)
図1の「分類対象情報」とは、学習済BERTモデル(詳細には、例えば「分類学習済BERTモデル」)及びタスクモデルを用いてカテゴリに分けられる対象となる情報である。この分類対象情報としては任意の情報を用いることができるが、例えば、前述したように、通信分野に属するニュース記事であり、図5に例示されている再学習用情報としてのニュース記事と同様な形式の他の情報であり、すなわち、タイトルと本文とによって構成されている他のニュース記事を示す情報を用いることとする。なお、この分類対象情報としてのニュース記事の個数は任意であるが、例えば、数百個~数千個、あるいは、数万個のニュース記事が格納されていることとしてもよい。
(Configuration-Server device-Recording unit-Classification target information)
The “classified target information” in FIG. 1 is information to be classified into categories using a trained BERT model (specifically, for example, a “classified learned BERT model”) and a task model. Any information can be used as the classification target information, but for example, as described above, it is a news article belonging to the communication field, and is similar to the news article as the re-learning information exemplified in FIG. We will use other information in the form, i.e., information indicating other news articles composed of a title and body. The number of news articles as the classification target information is arbitrary, but for example, hundreds to thousands, or tens of thousands of news articles may be stored.

(構成-サーバ装置-制御部)
図1の制御部23は、サーバ装置2を制御する制御手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。特に、実施の形態に係るプログラムは、任意の記録媒体又はネットワークを介してサーバ装置2にインストールされることで、制御部23の各部を実質的に構成する。
(Configuration-Server device-Control unit)
The control unit 23 in FIG. 1 is a control means for controlling the server device 2, and specifically, the CPU, various programs interpreted and executed on the CPU (basic control programs such as an OS, and startup on the OS). It is a computer configured to include an application program that realizes a specific function) and an internal memory such as a RAM for storing the program and various data. In particular, the program according to the embodiment is installed in the server device 2 via an arbitrary recording medium or network to substantially configure each part of the control unit 23.

この制御部23は、機能概念的に、例えば、取得部231、及び学習部232を備える。取得部231は、学習済BERTモデルにおいて機械学習の対象となっていない未知語を、第1文章情報(再学習用情報であるニュース記事のタイトルに対応する文章)から取得する取得手段である。学習部232は、第2文章情報(再学習用情報であるニュース記事の本文に対応する文章)を用いて、学習済BERTモデルについて、少なくとも取得部231が取得した未知語に関する機械学習を行う学習手段である。なお、このような制御部23の各部によって行われる処理については、後述する。 The control unit 23 includes, for example, an acquisition unit 231 and a learning unit 232 in terms of functional concept. The acquisition unit 231 is an acquisition means for acquiring an unknown word that is not the target of machine learning in the learned BERT model from the first sentence information (a sentence corresponding to the title of a news article which is information for re-learning). The learning unit 232 uses the second sentence information (sentence corresponding to the text of the news article which is the re-learning information) to perform machine learning on the learned BERT model at least for the unknown words acquired by the acquisition unit 231. It is a means. The processing performed by each of the control units 23 will be described later.

(処理)
次に、このように構成される情報システム100によって行われる処理として、例えば、再学習処理、及び分類処理について説明する。
(process)
Next, for example, a re-learning process and a classification process will be described as processes performed by the information system 100 configured in this way.

(処理-再学習処理)
図6は、再学習処理のフローチャートである(以下では、各ステップを「S」と称する)。再学習処理は、サーバ装置2で行われる処理であり、概略的には、機械学習を行うことにより生成された学習済BERTモデルについて再学習する処理である。この再学習処理を実行するタイミングは任意であるが、例えば、新たな分野の多数のニュース記事が分類対象情報(図1)として入力されて記録され、後述する分類処理(つまり、当該ニュース記事をカテゴリに分ける処理)を行う前の所定のタイミングであって、当該分類対象情報と同じ分野の他の多数のニュース記事が再学習用情報(図1)として入力されて記録された後の、所定のタイミング(例えば、ユーザが端末装置1を介して再学習処理を実行する操作を行ったタイミング等)に、起動することとし、再学習処理が起動したところから説明する。
(Processing-Re-learning process)
FIG. 6 is a flowchart of the re-learning process (hereinafter, each step is referred to as “S”). The re-learning process is a process performed by the server device 2, and is generally a process of re-learning the learned BERT model generated by performing machine learning. The timing for executing this re-learning process is arbitrary, but for example, a large number of news articles in a new field are input and recorded as classification target information (FIG. 1), and the classification process described later (that is, the news article) is recorded. Predetermined timing before performing the process of dividing into categories) after a large number of other news articles in the same field as the classified target information are input and recorded as relearning information (FIG. 1). (For example, the timing at which the user performs an operation to execute the re-learning process via the terminal device 1) is started, and the description will be made from the point where the re-learning process is started.

ここでは、例えば、前述の図1の記録部22において、「初回の機械学習」を行うことにより、前述の初期値がBERT用単語辞書情報として記録されており、学習済BERTモデルとして「事前学習済BERTモデル」が記録されている場合を例示して説明する。また、例えば、分類対象情報が通信分野のニュース記事であるので、当該通信分野に関する単語について適切に分散表現数値情報を出力できるように、当該通信分野の他のニュース記事を用いて学習済BERTモデル(詳細には、「事前学習済BERTモデル」)を再学習して「未知語学習済BERTモデル」に更新する場合を例示して説明する。なお、実際には、サーバ装置2では、多数の情報を取り扱うことになるが、以下の説明では、説明の便宜上、一部の情報の取り扱いを例示して説明する。 Here, for example, in the recording unit 22 of FIG. 1 described above, the above-mentioned initial values are recorded as BERT word dictionary information by performing "first machine learning", and "pre-learning" as a learned BERT model. The case where the "finished BERT model" is recorded will be described as an example. Further, for example, since the classification target information is a news article in the communication field, the BERT model learned by using other news articles in the communication field so that the distributed expression numerical information can be appropriately output for the word related to the communication field. (Detailedly, the case of re-learning (“pre-learned BERT model”) and updating to “unknown language learned BERT model” will be described as an example. In reality, the server device 2 handles a large amount of information, but in the following description, the handling of some information will be illustrated and described for convenience of explanation.

===SA1===
図6のSA1において取得部231は、再学習用情報を取得する。具体的には任意であるが、例えば、図1の記録部22に再学習用情報として記録されているニュース記事のタイトルを取得する。
=== SA1 ===
In SA1 of FIG. 6, the acquisition unit 231 acquires the re-learning information. Specifically, although it is arbitrary, for example, the title of the news article recorded as the re-learning information in the recording unit 22 of FIG. 1 is acquired.

ここでは、例えば、図5に例示されている「記事番号」=「1」~「4」等のニュース記事のタイトルを取得する。すなわち、「ABフォンXRとBCフォンを比べた!」、及び「第5世代通信時代をリードするBBが登場した。」等の複数の文を含む文章情報を取得する。 Here, for example, the titles of news articles such as "article number" = "1" to "4" illustrated in FIG. 5 are acquired. That is, sentence information including a plurality of sentences such as "Comparing AB phone XR and BC phone!" And "BB leading the 5th generation communication era has appeared." Is acquired.

===SA2===
図6のSA2において取得部231は、SA1で取得した再学習用情報の中から重要単語及び重要フレーズを取得する。具体的には任意であるが、例えば、SA1で取得したニュース記事のタイトルについて、単語に分割する処理、及び重要単語及び重要フレーズを取得する処理を行う。
=== SA2 ===
In SA2 of FIG. 6, the acquisition unit 231 acquires important words and important phrases from the re-learning information acquired in SA1. Specifically, although it is arbitrary, for example, the title of the news article acquired by SA1 is divided into words, and important words and important phrases are acquired.

=単語に分割する処理=
単語に分割する処理とは、文を単語に分割する処理であり、例えば、形態素解析に基づいて行われる処理である。この処理については例えば、図4の形態素解析用単語辞書情報を参照して、SA1で取得したニュース記事のタイトルについて、当該形態素解析用単語辞書情報の単語情報が特定する単語と同じ単語を、1個の単語として分割する。
= Processing to divide into words =
The process of dividing a sentence into words is a process of dividing a sentence into words, for example, a process performed based on morphological analysis. Regarding this processing, for example, with reference to the word dictionary information for morphological analysis in FIG. 4, the same word as the word specified by the word information in the word dictionary information for morphological analysis is used for the title of the news article acquired by SA1. Divide as individual words.

ここでは、例えば、SA1で取得したニュース記事のタイトルにおける「ABフォンXR」という用語は、新製品の名称であり当該ニュース記事では1個の固有名詞として記載されている用語であるものの、図4の形態素解析用単語辞書情報の単語情報としては、「ABフォンXR」自体は格納されていないものとする。また、「第5世代通信時代」についても、「ABフォンXR」と同様であることとする。図8は、処理例を例示した図である。この場合、例えば、SA1で取得した「ABフォンXRとBCフォンを比べた!」、及び「第5世代通信時代をリードするBBが登場した。」等について、例えば、図8の上段に示すように、「ABフォン,XR,と,BCフォン,を,比べ,た,!」、及び「第5世代通信,時代,を,リードする,BB,が,登場,した,。」等に分割する。なお、「,」については、分割された単語間の区切りを示すものとする。 Here, for example, although the term "AB phone XR" in the title of the news article acquired in SA1 is the name of a new product and is described as one proper noun in the news article, FIG. 4 It is assumed that the "AB phone XR" itself is not stored as the word information in the word dictionary information for morphological analysis. In addition, the same applies to the "5th generation communication era" as the "AB phone XR". FIG. 8 is a diagram illustrating a processing example. In this case, for example, "Comparing AB phone XR and BC phone!" Acquired in SA1 and "BB leading the 5th generation communication era has appeared." Are shown in the upper part of FIG. 8, for example. , "Compare AB phone, XR, and BC phone,!" And "Lead 5th generation communication, era, BB, appeared," and so on. .. Note that "," indicates the delimiter between the divided words.

=重要単語及び重要フレーズを取得する処理=
重要単語及び重要フレーズを取得する処理とは、「単語に分割する処理」で分割した単語に関して、前述の所定の特定基準に基づいて、重要単語及び重要フレーズを特定して、特定した重要単語及び重要フレーズを取得する処理である。
= Processing to acquire important words and phrases =
The process of acquiring important words and important phrases is the process of identifying important words and important phrases based on the above-mentioned predetermined specific criteria for the words divided by the "process of dividing into words", and the specified important words and phrases. This is the process of acquiring important phrases.

この所定の特定基準としては任意の基準を適用であるが、例えば、「Positionrank」又は「TF(Term Frequency)-IDF(Inverse Document Frequency)」の概念に基づく基準を適用してもよい。これらの基準としては、公知の概念を適用できるので、概要のみ説明する。 Any standard is applied as the predetermined specific standard, but for example, a standard based on the concept of "Positionrank" or "TF (Term Frequency) -IDF (Inverse Document Frequency)" may be applied. Since known concepts can be applied as these criteria, only an outline will be described.

<Positionrank>
「Positionrank」に基づく基準とは、例えば、複数の文を含む文章中の単語又はフレーズ(ここでの「フレーズ」は、連続する複数個(一例としては2個)の単語であるものと解釈する)相互間に関連度の高い単語又はフレーズ程重要度が高いものとして、各単語又は各フレーズにおいて、重要度のランキングを付し、当該ランキングの上位のものを重要単語又は重要フレーズとする基準等を含む概念である。なお、各単語又は各フレーズにおける相互間の関連度は公知の手法を含む任意の手法で定めることができるが、例えば、共起幅(つまり、連続する単語の個数(一例としては3個~5個等))を設定し、共通する共起幅内に含まれる単語同士は、より関連度が高いものとして、一例としては数値を用いて関連度を定めてもよい。
<Positionrank>
The criteria based on "Positionrank" is interpreted as, for example, a word or phrase in a sentence containing a plurality of sentences (the "phrase" here is interpreted as a plurality of consecutive words (two as an example)). ) Criteria, etc., in which words or phrases that are more closely related to each other are given a ranking of importance in each word or phrase, and those with higher rankings are regarded as important words or phrases. Is a concept that includes. The degree of relevance between each word or each phrase can be determined by any method including a known method, and for example, the co-occurrence width (that is, the number of consecutive words (3 to 5 as an example). Individuals, etc.)) may be set, and words included in the common co-occurrence width may be considered to have a higher degree of relevance, and as an example, the degree of relevance may be determined using a numerical value.

<TF-IDF>
「TF-IDF」に基づく基準とは、例えば、複数の文を含む文章(例えば、第1文章情報)中の各文中において出現頻度が高い単語又はフレーズ程重要度(重要性の度合い)が高く、また、出現する文の個数が少ない程単語又はフレーズ程重要度が高いものとして、所定の重要度以上の単語又はフレーズを重要単語又は重要フレーズとする基準等を含む概念である。
<TF-IDF>
The criteria based on "TF-IDF" are, for example, the more frequently appearing words or phrases in each sentence in a sentence containing a plurality of sentences (for example, the first sentence information), the higher the importance (degree of importance). In addition, it is a concept including a standard that a word or phrase having a predetermined importance or higher is regarded as an important word or important phrase, assuming that the smaller the number of sentences appearing, the higher the importance of the word or phrase.

なお、ここで説明した基準以外の他の基準を用いて、重要単語及び重要フレーズを特定してもよい。そして、ここでは、例えば、「単語に分割する処理」で分割した単語に関して、図8の下段に示すように、重要単語として「BCフォン」及び「BB」等を特定して取得し、また、重要フレーズとして「ABフォンXR」(つまり、「ABフォン,XR」に対応するフレーズ)及び「第5世代通信時代」(つまり、「第5世代通信,時代」に対応するフレーズ)等を特定して取得する。 In addition, important words and important phrases may be specified by using criteria other than the criteria described here. Then, here, for example, with respect to the word divided by the "process of dividing into words", as shown in the lower part of FIG. 8, "BC phone", "BB" and the like are specified and acquired as important words, and also. Specify "AB phone XR" (that is, the phrase corresponding to "AB phone, XR") and "5th generation communication era" (that is, the phrase corresponding to "5th generation communication, era") as important phrases. To get.

===SA3===
図6のSA3において取得部231は、SA1で取得した再学習用情報の中から未知語を取得する。具体的には任意であるが、例えば、SA1で取得したニュース記事のタイトルについて、単語に分割する処理、及び未知語を取得する処理を行う。
=== SA3 ===
In SA3 of FIG. 6, the acquisition unit 231 acquires an unknown word from the relearning information acquired in SA1. Specifically, although it is arbitrary, for example, the title of the news article acquired by SA1 is divided into words and an unknown word is acquired.

=単語に分割する処理=
SA2の単語に分割する処理と同様な処理を行う。ここでは、例えば、図8の上段に示すように、「ABフォン,XR,と,BCフォン,を,比べ,た,!」、及び「第5世代通信,時代,を,リードする,BB,が,登場,した,。」等に分割する。
= Processing to divide into words =
The same process as the process of dividing into SA2 words is performed. Here, for example, as shown in the upper part of FIG. 8, "Compare AB phone, XR, and BC phone,!" And "Fifth generation communication, leading the era, BB," However, it appeared ,. ”, Etc.

=未知語を取得する処理=
未知語を取得する処理とは、「単語に分割する処理」で分割した単語の中から、未知語を特定して取得する処理である。この処理については例えば、図1の記録部22に記録されているBERT用単語辞書情報を参照して、「単語に分割する処理」で分割した単語の内の、当該BERT用単語辞書情報に記録されていない単語を、未知語として特定した上で取得する。
= Processing to acquire unknown words =
The process of acquiring an unknown word is a process of identifying and acquiring an unknown word from the words divided by the "process of dividing into words". Regarding this process, for example, the BERT word dictionary information recorded in the recording unit 22 of FIG. 1 is referred to, and the word is recorded in the BERT word dictionary information among the words divided by the "process of dividing into words". The word that has not been specified is specified as an unknown word and then acquired.

ここでは、例えば、図1及び図2のBERT用単語辞書情報に、「ABフォン」、「XR」、「BCフォン」、及び「!」が記録されていない場合について説明する。図9は、処理例を例示した図である。この場合、図9に示すように、「ABフォン」、「XR」、「BCフォン」、及び「!」を未知語として取得する。 Here, for example, a case where "AB phone", "XR", "BC phone", and "!" Are not recorded in the BERT word dictionary information of FIGS. 1 and 2 will be described. FIG. 9 is a diagram illustrating a processing example. In this case, as shown in FIG. 9, "AB phone", "XR", "BC phone", and "!" Are acquired as unknown words.

===SA4===
図6のSA4において取得部231は、重要フレーズを図1の形態素解析用単語辞書情報に追加して格納する。具体的には任意であるが、例えば、SA2で取得した重要フレーズの内の、SA3で取得した未知語のみによって構成されている重要フレーズを特定し、特定した重要フレーズを図4の形態素解析用単語辞書情報の単語情報として記録し、また、当該記録した単語情報に関連付けられている品詞情報及び読み情報を格納する。なお、品詞情報及び読み情報の格納手法は任意であり、例えば、任意の手法で品詞及び読みを推定して自動的に格納することとしてもよいし、あるいは、ユーザに対して品詞及び読みに関する情報の入力を促すメッセージを不図示のディスプレイに表示し、この後に、ユーザから入力された情報に基づいて格納することとしてもよい。
=== SA4 ===
In SA4 of FIG. 6, the acquisition unit 231 adds an important phrase to the morphological analysis word dictionary information of FIG. 1 and stores it. Specifically, although it is arbitrary, for example, among the important phrases acquired by SA2, an important phrase composed of only unknown words acquired by SA3 is specified, and the specified important phrase is used for morphological analysis in FIG. It is recorded as word information of word dictionary information, and also stores part-of-speech information and reading information associated with the recorded word information. The method of storing the part of speech information and the reading information is arbitrary, and for example, the part of speech and the reading may be estimated and automatically stored by any method, or the information regarding the part of speech and the reading may be stored for the user. A message prompting the user to input the information may be displayed on a display (not shown), and then stored based on the information input by the user.

図7は、重要フレーズが格納された状態の形態素解析用辞書情報を例示した図である。ここでは、例えば、SA2で取得した重要フレーズが「ABフォンXR」及び「第5世代通信時代」等であり、また、SA3で取得した未知語が「ABフォン」、「XR」、「BCフォン」、及び「!」等である。そして、「ABフォンXR」はSA3で取得した未知語である「ABフォン」及び「XR」のみによって構成されており、一方、「第5世代通信時代」はSA3で取得した未知語のみによって構成されているわけではないので、「ABフォンXR」を図7の形態素解析用単語辞書情報に追加して格納する。このようにして、図7の最下段の情報である「ABフォンXR」に関する情報が、形態素解析用単語辞書情報に新たに登録されることになる。 FIG. 7 is a diagram illustrating morphological analysis dictionary information in a state where important phrases are stored. Here, for example, the important phrases acquired by SA2 are "AB phone XR" and "5th generation communication era", and the unknown words acquired by SA3 are "AB phone", "XR", and "BC phone". , And "!" Etc. The "AB phone XR" is composed only of the unknown words "AB phone" and "XR" acquired by SA3, while the "fifth generation communication era" is composed only of the unknown words acquired by SA3. Since this is not the case, "AB phone XR" is added to the morphological analysis word dictionary information of FIG. 7 and stored. In this way, the information related to "AB phone XR", which is the information at the bottom of FIG. 7, is newly registered in the word dictionary information for morphological analysis.

===SA5===
図6のSA5において取得部231は、SA1で取得した再学習用情報の中から未知語を取得する。具体的には任意であるが、例えば、SA1で取得したニュース記事のタイトルについて、単語に分割する処理、及び未知語を取得する処理を行う。
=== SA5 ===
In SA5 of FIG. 6, the acquisition unit 231 acquires an unknown word from the relearning information acquired in SA1. Specifically, although it is arbitrary, for example, the title of the news article acquired by SA1 is divided into words and an unknown word is acquired.

=単語に分割する処理=
基本的にはSA2の単語に分割する処理と同様な処理を行うが、特に、SA4で重要フレーズが追加された図7の形態素解析用単語辞書情報に基づいて処理を行う。
= Processing to divide into words =
Basically, the same process as the process of dividing into words of SA2 is performed, but in particular, the process is performed based on the word dictionary information for morphological analysis of FIG. 7 to which an important phrase is added in SA4.

図10は、処理例を例示した図である。ここでは、例えば、SA1で取得した「ABフォンXRとBCフォンを比べた!」、及び「第5世代通信時代をリードするBBが登場した。」等について、例えば、図10の上段に示すように、「ABフォンXR,と,BCフォン,を,比べ,た,!」、及び「第5世代通信,時代,を,リードする,BB,が,登場,した,。」等に分割する。特に、図7の形態素解析用単語辞書情報の単語情報として、「ABフォンXR」が格納されているので、SA2又はSA3の「単語に分割する処理」の場合とは異なり、当該「ABフォンXR」を1個の単語として分割することになる。 FIG. 10 is a diagram illustrating a processing example. Here, for example, "Comparing AB phone XR and BC phone!" Acquired in SA1 and "BB leading the 5th generation communication era has appeared." Are shown in the upper part of FIG. 10, for example. , "Compare AB phone XR and BC phone,!" And "Lead 5th generation communication, era, BB, appeared ,." And so on. In particular, since "AB phone XR" is stored as word information in the word dictionary information for morphological analysis in FIG. 7, the "AB phone XR" is different from the case of "processing to divide into words" of SA2 or SA3. Will be divided into one word.

=未知語を取得する処理=
SA3の未知語を取得する処理と同様な処理を行う。ここでは、例えば、未知語を取得する処理とは、「単語に分割する処理」で分割した単語の中から、未知語を特定して取得する処理である。この処理については例えば、図1の記録部22に記録されているBERT用単語辞書情報を参照して、「単語に分割する処理」で分割した単語の内の、当該BERT用単語辞書情報に記録されていない単語を、未知語と特定して取得する。図1及び図2のBERT用単語辞書情報に、「ABフォンXR」、「BCフォン」、及び「!」が記録されていない場合について説明する。この場合、図10の下段に示すように、「ABフォンXR」、「BCフォン」、及び「!」等を未知語として取得する。
= Processing to acquire unknown words =
A process similar to the process of acquiring an unknown word of SA3 is performed. Here, for example, the process of acquiring an unknown word is a process of identifying and acquiring an unknown word from the words divided by the "process of dividing into words". Regarding this process, for example, the BERT word dictionary information recorded in the recording unit 22 of FIG. 1 is referred to, and the word is recorded in the BERT word dictionary information among the words divided by the "process of dividing into words". The unwritten word is identified as an unknown word and acquired. The case where "AB phone XR", "BC phone", and "!" Are not recorded in the BERT word dictionary information of FIGS. 1 and 2 will be described. In this case, as shown in the lower part of FIG. 10, "AB phone XR", "BC phone", "!", Etc. are acquired as unknown words.

===SA6===
図6のSA6において取得部231は、SA5で取得した未知語の中から、再学習の候補とする未知語を取得する。すなわち、例えば、SA5で取得した未知語の中から、学習済BERTモデル(詳細には、例えば「事前学習済BERTモデル」)を、再学習することにより通信分野側に寄せる効果が比較的高いものと推定される未知語を取得する。具体的には任意であるが、例えば、SA5で取得した未知語の中から、SA2で取得した重要単語又は重要フレーズに合致する未知語のみを取得する。
=== SA6 ===
In SA6 of FIG. 6, the acquisition unit 231 acquires an unknown word as a candidate for re-learning from the unknown words acquired in SA5. That is, for example, from the unknown words acquired by SA5, the trained BERT model (specifically, for example, "pre-learned BERT model") is re-learned, and the effect of bringing it to the communication field side is relatively high. Get the presumed unknown word. Specifically, although it is arbitrary, for example, from the unknown words acquired in SA5, only the unknown words that match the important words or important phrases acquired in SA2 are acquired.

ここでは、例えば、SA5で取得した未知語が、図10の下段に示すように、「ABフォンXR」、「BCフォン」、及び「!」等であり、図8の下段に示すように、SA2で取得した重要単語が「BCフォン」及び「BB」等であり、また、SA2で取得した重要フレーズが「ABフォンXR」及び「第5世代通信時代」等であり、一方、「!」は重要単語又は重要フレーズではない。図11は、処理例を例示した図である。よって、SA6においては、「ABフォンXR」、「BCフォン」、又は「!」等の内の、図11に示すように、「ABフォンXR」、及び「BCフォン」等を取得する(つまり、「!」は不要として排除する)。 Here, for example, the unknown words acquired in SA5 are "AB phone XR", "BC phone", "!", Etc. as shown in the lower part of FIG. 10, and as shown in the lower part of FIG. The important words acquired by SA2 are "BC phone" and "BB", and the important phrases acquired by SA2 are "AB phone XR" and "5th generation communication era", while "!" Is not an important word or phrase. FIG. 11 is a diagram illustrating a processing example. Therefore, in SA6, among "AB phone XR", "BC phone", "!", Etc., "AB phone XR", "BC phone" and the like are acquired (that is, as shown in FIG. 11). , "!" Is excluded as unnecessary).

===SA7===
図6のSA7において学習部232は、SA6で取得した未知語の中に、再学習(つまり、再度の機械学習)の対象にする未知語が存在するか否かを判定する。具体的には任意であるが、例えば、前述の所定の判定基準に基づいて、各未知語について機械学習の対象にするか否かを判定し、判定結果に基づいて判定する。
=== SA7 ===
In SA7 of FIG. 6, the learning unit 232 determines whether or not there is an unknown word to be relearned (that is, re-machine learning) among the unknown words acquired in SA6. Specifically, although it is arbitrary, for example, it is determined whether or not each unknown word is subject to machine learning based on the above-mentioned predetermined determination criteria, and the determination is made based on the determination result.

この所定の判定基準としては任意の基準を適用であるが、例えば、前述の未知語の品詞に関する基準、及び未知語の出現頻度に関する基準を適用する場合について説明する。 An arbitrary criterion is applied as the predetermined determination criterion, and for example, a case where the above-mentioned criterion regarding the part of speech of an unknown word and the criterion regarding the frequency of appearance of an unknown word are applied will be described.

=未知語の品詞に関する基準=
「未知語の品詞に関する基準」とは、未知語が所定に品詞であるか否かに基づいて判定する基準であり、本実施の形態では、所定の品詞が名詞である場合について説明する。
= Criteria for part of speech of unknown words =
The "criteria for the part of speech of an unknown word" is a criterion for determining whether or not the unknown word is a predetermined part of speech, and in the present embodiment, a case where the predetermined part of speech is a noun will be described.

=未知語の出現頻度に関する基準=
「未知語の出現頻度に関する基準」とは、未知語が所定回数以上出現するか否かに基づいて判定する基準であり、具体的には、図1の記録部22に記録されている再学習用情報であるニュース記事のタイトル又は当該ニュース記事の本文中において、未知語が所定回数以上を出現するか否かに基づいて判定する基準であり、本実施の形態では、所定回数が5回である場合について説明する。
= Criteria for frequency of unknown words =
The "criteria for the frequency of appearance of unknown words" is a criterion for determining whether or not an unknown word appears more than a predetermined number of times, and specifically, relearning recorded in the recording unit 22 of FIG. It is a criterion for judging based on whether or not an unknown word appears more than a predetermined number of times in the title of a news article or the text of the news article, which is information for use. In this embodiment, the predetermined number of times is 5 times. A case will be described.

=各基準のバリエーション=
なお、これらの基準については、様々なバリエーションが想定され、これらのバリエーションを任意に適用してもよい。「未知語の品詞に関する基準」については、例えば、名詞以外の1個以上の任意の品詞(例えば、動詞、形容詞等)を所定の品詞として用いてもよい。
= Variations of each standard =
Various variations are assumed for these criteria, and these variations may be arbitrarily applied. Regarding the "criteria for part of speech of unknown words", for example, one or more arbitrary part of speech other than nouns (for example, verbs, adjectives, etc.) may be used as a predetermined part of speech.

また、「未知語の出現頻度に関する基準」については、例えば、再学習用情報であるニュース記事のタイトルのみにおいて、未知語が所定回数以上を出現するか否かに基づいて判定する基準であることとしてもよいし、再学習用情報であるニュース記事の本文のみにおいて、未知語が所定回数以上を出現するか否かに基づいて判定する基準であることとしてもよいし、再学習用情報であるニュース記事のタイトルのみにおいて、未知語が所定回数以上を出現し、且つ、当該ニュース記事のタイトルのみにおいて、未知語が所定回数以上を出現するか否かに基づいて判定する基準であることとしてもよいし、再学習用情報であるニュース記事のタイトル又は本文において、未知語が合計所定回数以上を出現するか否かに基づいて判定する基準であることとしてもよい。 In addition, the "criteria for the frequency of appearance of unknown words" is, for example, a criterion for determining whether or not an unknown word appears more than a predetermined number of times only in the title of a news article which is information for re-learning. It may be used as a criterion for judging based on whether or not an unknown word appears more than a predetermined number of times only in the text of a news article which is information for re-learning, or it is information for re-learning. Even if it is a criterion for judging based on whether or not an unknown word appears a predetermined number of times or more only in the title of a news article and the unknown word appears a predetermined number of times or more only in the title of the news article. Alternatively, it may be a criterion for judging based on whether or not an unknown word appears a total of a predetermined number of times or more in the title or text of a news article which is information for re-learning.

また、「未知語の出現頻度に関する基準」における所定回数については、前述の「未知語の品詞に関する基準」における所定の品詞に応じて定めてもよい。また、これらの各基準の所定回数又は所定の品詞については、図1の再学習用情報又は分類対象情報が示すニュース記事が所属する分野に応じて定めてもよいし、あるいは、任意の最適化手法(例えば、ベイズ最適化、ネルダーミードに対応する手法)を用いて定めてもよい。 Further, the predetermined number of times in the "criteria for the frequency of appearance of unknown words" may be determined according to the predetermined part of speech in the above-mentioned "criteria for part of speech of unknown words". Further, the predetermined number of times or the predetermined part of speech of each of these criteria may be determined according to the field to which the news article indicated by the re-learning information or the classification target information in FIG. 1 belongs, or may be arbitrarily optimized. It may be determined by using a method (for example, Bayesian optimization, a method corresponding to Nelder-Mead).

=本実施の形態で適用する基準=
そして、本実施の形態では、「未知語の品詞に関する基準」としては、未知語が名詞であるか否かに基づいて判定する基準を用い、また、「未知語の出現頻度に関する基準」については、再学習用情報であるニュース記事のタイトルのみにおいて、未知語が5回以上を出現し、且つ、当該ニュース記事の本文のみにおいて、未知語が5回以上を出現するか否かに基づいて判定する基準を用いる場合について説明する。
= Criteria applied in this embodiment =
Then, in the present embodiment, as the "criteria for the part of speech of the unknown word", a criterion for judging based on whether or not the unknown word is a noun is used, and for the "criteria for the frequency of appearance of the unknown word". , Judgment based on whether or not the unknown word appears 5 times or more only in the title of the news article which is the information for re-learning, and the unknown word appears 5 times or more only in the text of the news article. The case where the standard is used will be described.

=SA7の具体的な処理=
SA7の処理について具体的には、まず、SA6で取得した各未知語の品詞を、任意の手法(例えば、図7の形態素解析用単語辞書情報を参照して特定する手法等)を用いて特定し、また、図1の記録部22に記録されている再学習用情報が示すニュース記事のタイトル及び当該ニュース記事の本文を取得し、SA6で取得した各未知語について、当該タイトル中での出現頻度、及び当該本文中の出現頻度を特定する。次に、SA6で取得した各未知語について、前述の特定した品詞が「名詞」であり、且つ、前述の特定したタイトル中での出現頻度が「5回」以上であり、且つ、前述の特定した本文中での出現頻度が「5回」以上である場合、再学習の対象にする未知語(以下、「再学習対象未知語」とも称する)であるものと判定する。一方、SA6で取得した各未知語について、前述の特定した品詞が「名詞」ではない場合、前述の特定したタイトル中での出現頻度が「5回」未満である場合、又は、前述の特定した本文中での出現頻度が「5回」未満である場合、再学習の対象としない未知語(以下、「非対象未知語」とも称する)であるものと判定する(つまり、再学習の対象とする未知語でないものと判定する)。
= Specific processing of SA7 =
Specifically, regarding the processing of SA7, first, the part of speech of each unknown word acquired in SA6 is specified by using an arbitrary method (for example, a method of specifying by referring to the word dictionary information for morphological analysis in FIG. 7). In addition, the title of the news article and the text of the news article indicated by the re-learning information recorded in the recording unit 22 of FIG. 1 are acquired, and each unknown word acquired by SA6 appears in the title. Specify the frequency and the frequency of appearance in the text. Next, for each unknown word acquired by SA6, the above-mentioned specified part of speech is a "noun", the frequency of appearance in the above-mentioned specified title is "5 times" or more, and the above-mentioned identification is performed. When the frequency of appearance in the text is "5 times" or more, it is determined that the word is an unknown word to be relearned (hereinafter, also referred to as "unknown word to be relearned"). On the other hand, for each unknown word acquired by SA6, when the above-mentioned specified part of speech is not a "noun", when the frequency of appearance in the above-mentioned specified title is less than "5 times", or when the above-mentioned identification is performed. If the frequency of appearance in the text is less than "5 times", it is determined that the word is an unknown word that is not the target of re-learning (hereinafter, also referred to as "non-target unknown word") (that is, the target of re-learning). Judge that it is not an unknown word).

そして、SA6で取得した未知語において、「再学習対象未知語」と判定した未知語が存在しない場合(つまり、全ての未知語について「非対象未知語」であるものと判定した場合)、SA6で取得した未知語の中に、再学習の対象にする未知語が存在しないものと判定し(SA7のNO)、処理を終了する。一方、SA6で取得した未知語において、「再学習対象未知語」と判定した未知語が存在する場合、SA6で取得した未知語の中に、再学習の対象にする未知語が存在するものと判定し(SA7のYES)、SA8に移行する。 Then, in the unknown words acquired by SA6, when there is no unknown word determined to be a "re-learning target unknown word" (that is, when it is determined that all unknown words are "non-target unknown words"), SA6 It is determined that there is no unknown word to be relearned among the unknown words acquired in (NO of SA7), and the process is terminated. On the other hand, in the unknown words acquired by SA6, if there is an unknown word determined to be "unknown word to be relearned", it is assumed that the unknown word to be relearned exists among the unknown words acquired by SA6. Judgment (YES of SA7), and shift to SA8.

ここでは、例えば、再学習用情報が示すニュース記事のタイトル及び本文の両方において、「ABフォンXR」が多数個(例えば、20個等)含まれており、「BCフォン」が3個のみ含まれているために、「ABフォンXR」が前述のタイトル及び本文において5回以上ずつ出現し、一方、「BCフォン」が5回未満のみしか出現しない場合について説明する。この場合、SA6で取得した各未知語である「ABフォンXR」、及び「BCフォン」の品詞を、図7の形態素解析用単語辞書情報の単語情報及び品詞情報を参照して、両方とも「名詞」と特定する。次に、「ABフォンXR」については、再学習用情報が示すニュース記事のタイトル中での出現頻度を「20回」と特定し、また、当該ニュース記事の本文中の出現頻度も「20回」と特定した上で、「再学習対象未知語」であるものと判定する。一方、「BCフォン」については、タイトル中及び本文中での出現頻度を「3回」と特定した上で、「非対象未知語」であるものと判定する。そして、少なくとも「ABフォンXR」について「再学習対象未知語」であるものと判定したので、SA6で取得した未知語の中に、再学習の対象にする未知語が存在するものと判定する(SA7のYES)。 Here, for example, in both the title and the text of the news article indicated by the re-learning information, a large number (for example, 20 etc.) of "AB phone XR" are included, and only 3 "BC phones" are included. Therefore, the case where "AB phone XR" appears 5 times or more in the above-mentioned title and the text, while "BC phone" appears less than 5 times will be described. In this case, the part of speech of each unknown word "AB phone XR" and "BC phone" acquired by SA6 is referred to the word information and part of speech information of the morphological analysis word dictionary information of FIG. 7, and both are ". Specify as "noun". Next, regarding "AB Phone XR", the frequency of appearance in the title of the news article indicated by the re-learning information is specified as "20 times", and the frequency of appearance in the text of the news article is also "20 times". After specifying, it is determined that the word is "unknown word to be relearned". On the other hand, regarding "BC phone", after specifying the frequency of appearance in the title and the text as "3 times", it is determined that the word is "non-target unknown word". Then, since it is determined that at least "AB phone XR" is an "unknown word to be relearned", it is determined that there is an unknown word to be relearned among the unknown words acquired by SA6 (). YES of SA7).

===SA8===
図6のSA8において学習部232は、未知語の登録等を行う。具体的な処理は任意であるが、例えば、SA7において「再学習対象未知語」であるものと判定した未知語を特定し、特定した未知語を図1の記録部のBERT用単語辞書情報に追加で記録することにより登録する。
=== SA8 ===
In SA8 of FIG. 6, the learning unit 232 registers unknown words and the like. Specific processing is arbitrary, but for example, an unknown word determined to be a "re-learning target unknown word" in SA7 is specified, and the specified unknown word is used as the BERT word dictionary information in the recording unit of FIG. Register by recording additionally.

図12は、未知語が新たに登録された状態のBERT用単語辞書情報を例示した図である。ここでは、例えば、SA7において「再学習対象未知語」であるものと判定した「ABフォンXR」を特定し、特定した「ABフォンXR」を、図2の記録部のBERT用単語辞書情報であるテキストファイルの最下段に追加で記録することにより、図12に示すように登録する。 FIG. 12 is a diagram illustrating the BERT word dictionary information in a state where an unknown word is newly registered. Here, for example, the "AB phone XR" determined to be the "unknown word to be relearned" in SA7 is specified, and the specified "AB phone XR" is used in the BERT word dictionary information of the recording unit of FIG. By additionally recording at the bottom of a certain text file, it is registered as shown in FIG.

なお、この場合、レイヤーサイズの変更に対応する処理も行う。「レイヤーサイズの変更に対応する処理」とは、BERTに関連する公知の処理であり、例えば、BERT用単語辞書情報の内の、BERTに関する処理(再学習又は分類の処理等)で用いられる情報の範囲を変更する処理であり、具体的には、SA8で新たに登録された「ABフォンXR」についてもBERTに関する処理で用いられるように設定を変更する処理である。詳細には、「ABフォンXR」の追加前は、初期値としてBERT用単語辞書情報には、32000個分の単語(つまり、32000行の情報)が格納されており、当該32000個分の単語を利用してBERTに関する処理を行う設定となっており、「ABフォンXR」を追加することにより、BERT用単語辞書情報に当該「ABフォンXR」を含めて32001個分の単語(つまり、32001行の情報)が格納されることになるので、この追加された「ABフォンXR」も含めて情報を全て利用できるように、当該32001個分の単語を利用してBERTに関する処理を行うように設定を変更する。 In this case, the process corresponding to the change of the layer size is also performed. The "process corresponding to a change in layer size" is a known process related to BERT, and is, for example, information used in a process related to BERT (processing such as re-learning or classification) in the word dictionary information for BERT. It is a process of changing the range of, specifically, a process of changing the setting of the "AB phone XR" newly registered in SA8 so as to be used in the process related to BERT. Specifically, before the addition of "AB Phone XR", 32000 words (that is, 32000 lines of information) are stored in the BERT word dictionary information as initial values, and the 32000 words are stored. It is set to perform processing related to BERT using, and by adding "AB phone XR", 32001 words (that is, 32001) including the "AB phone XR" in the word dictionary information for BERT. Since the line information) will be stored, process related to BERT should be performed using the 32001 words so that all the information including this added "AB phone XR" can be used. Change the settings.

===SA9===
図6のSA9において学習部232は、学習済BERTモデル再学習処理を実行する。図13は、学習済BERTモデル再学習処理のフローチャートである。「学習済BERTモデル再学習処理」とは、SA8で新たに登録した未知語等について、学習済BERTモデル(詳細には、本実施の形態では例えば「事前学習済BERTモデル」)を再学習する処理である。
=== SA9 ===
In SA9 of FIG. 6, the learning unit 232 executes the learned BERT model re-learning process. FIG. 13 is a flowchart of the trained BERT model re-learning process. The "learned BERT model re-learning process" is to relearn a learned BERT model (specifically, for example, "pre-learned BERT model" in this embodiment) for unknown words newly registered in SA8. It is a process.

===SB1===
図13のSB1において学習部232は、再学習用情報を取得する。具体的には任意であるが、例えば、記録部22に再学習用情報として記録されているニュース記事の本文を取得する。
=== SB1 ===
In SB1 of FIG. 13, the learning unit 232 acquires the re-learning information. Specifically, although it is arbitrary, for example, the text of the news article recorded as the re-learning information in the recording unit 22 is acquired.

ここでは、例えば、図5に例示されている「記事番号」=「1」~「4」等のニュース記事の本文を取得する。すなわち、「先日リリースされたABフォンXRとBCフォンのスペックは・・・である。そして、これらを比較すると、・・・・が優位である。」、及び「第5世代通信時代のサービスが昨年のxx月に開始したが、このサービスが普及すると、・・・となる。」等の複数の文を含む文章情報を取得する。 Here, for example, the text of a news article such as "article number" = "1" to "4" illustrated in FIG. 5 is acquired. That is, "The specifications of the AB phone XR and BC phone released the other day are ... And when comparing these, ... is superior.", And "Services in the 5th generation communication era are superior." It started in xx month of last year, but when this service becomes widespread, it will be ... "and so on."

===SB2===
図13のSB2において学習部232は、SB1で取得したニュース記事の本文について、単語に分割する処理を行う。具体的には任意であるが、例えば、基本的にはSA5の単語に分割する処理と同様な処理を行い、すなわち、図7の形態素解析用単語辞書情報に基づいて処理を行う。
=== SB2 ===
In SB2 of FIG. 13, the learning unit 232 performs a process of dividing the text of the news article acquired in SB1 into words. Specifically, although it is arbitrary, for example, the process is basically the same as the process of dividing into words of SA5, that is, the process is performed based on the morphological analysis word dictionary information of FIG.

ここでは、例えば、「先日,リリース,さ,れ,た,ABフォンXR,と,BCフォン,の,スペック,は,(以下省略)」等に分割する。なお、「第5世代通信時代のサービスが昨年のxx月に開始したが、このサービスが普及すると、・・・となる。」の説明は省略する。特に、図7に例示されているように、「ABフォンXR」が追加されたので、当該「ABフォンXR」を1個の単語として分割することになる。 Here, for example, "the other day, release, sa, re, ta, AB phone XR, and BC phone, specs, are (hereinafter omitted)" and the like are divided. The explanation of "The service of the 5th generation communication era started in xx month of last year, but when this service becomes widespread, it will be ..." is omitted. In particular, as illustrated in FIG. 7, since "AB phone XR" has been added, the "AB phone XR" will be divided into one word.

===SB3===
図13のSB3において学習部232は、SB2で分割した単語の並びを、単語IDの並びに変換する。具体的には任意であるが、例えば、図12のBERT用単語辞書情報であるテキストファイルを参照して、SB2で分割した単語と同じ単語が記録されている行を特定し、当該特定した行に対応する単語IDに変換する。なお、SB2で分割した単語の中には、図12のBERT用単語辞書情報に記録されていない単語も存在し得るが、この場合は、前述した「UNK」に対応する単語IDである「ID1」に変換することとする。
=== SB3 ===
In SB3 of FIG. 13, the learning unit 232 converts the sequence of words divided by SB2 into the sequence of word IDs. Specifically, although it is arbitrary, for example, referring to the text file which is the word dictionary information for BERT in FIG. 12, the line in which the same word as the word divided by SB2 is recorded is specified, and the specified line is specified. Convert to the word ID corresponding to. It should be noted that among the words divided by SB2, there may be words that are not recorded in the BERT word dictionary information of FIG. 12, but in this case, the word ID corresponding to the above-mentioned "UNK" is "ID1". Will be converted to.

ここでは、例えば、「先日,リリース,さ,れ,た,ABフォンXR,と,BCフォン,の,スペック,は,・・・」の並びを、「ID(先日),ID(リリース),ID(さ),ID(れ),ID(た),ID32001,ID4,ID1,ID(の),ID(スペック),ID(は),・・・」という単語IDの並びに変換する。なお、ここでの「ID(先日)」については、図12のBERT用単語辞書情報における、「先日」という単語が格納されている行に対応する単語IDを示すものとする(他の「()」を用いた単語IDの表現も同様とする)。 Here, for example, the sequence of "the other day, release, sa, re, ta, AB phone XR, and BC phone, specs, is ..." is changed to "ID (the other day), ID (release), ...". The word IDs "ID (sa), ID (re), ID (ta), ID32001, ID4, ID1, ID (no), ID (spec), ID (ha), ..." Are converted. The "ID (the other day)" here indicates the word ID corresponding to the line in which the word "the other day" is stored in the BERT word dictionary information of FIG. 12 (other "(()". The same applies to the expression of the word ID using ")").

特に、「ABフォンXR」については、前述したように、図12のBERT用単語辞書情報に登録されたので、当該「ABフォンXR」を一意に識別する単語IDである「ID32001」(図12のBERT用単語辞書情報のテキストファイルにおける、32001行目に対応する単語ID)に変換されることなる。一方、「BCフォン」については、図6のSA7において「非対象未知語」と判定されて、図12のBERT用単語辞書情報に登録されていないので、「UNK」に対応する単語IDである「ID1」に変換されることになる。 In particular, since the "AB phone XR" is registered in the BERT word dictionary information of FIG. 12, as described above, the word ID "ID32001" (FIG. 12) uniquely identifies the "AB phone XR". It will be converted into the word ID corresponding to the 32001th line in the text file of the BERT word dictionary information. On the other hand, the "BC phone" is a word ID corresponding to "UNK" because it is determined to be a "non-target unknown word" in SA7 of FIG. 6 and is not registered in the BERT word dictionary information of FIG. It will be converted to "ID1".

そして、このSB3においては、SB1で取得した再学習用情報であるニュース記事の本文全てについて、単語IDの並びに変換する。 Then, in this SB3, all the texts of the news articles, which are the re-learning information acquired in SB1, are converted into the sequence of word IDs.

===SB4===
図13のSB4において学習部232は、SB3で変換された単語IDの並びを用いて、図1の記録部22に記録されている学習済BERTモデルについて、再度の機械学習を行うことにより、学習済BERTモデルを更新する(詳細には、本実施の形態では例えば「事前学習済BERTモデル」を「未知語学習済BERTモデル」に更新する)。
=== SB4 ===
In SB4 of FIG. 13, the learning unit 232 learns by performing machine learning again for the learned BERT model recorded in the recording unit 22 of FIG. 1 using the sequence of word IDs converted in SB3. The completed BERT model is updated (specifically, in the present embodiment, for example, the "pre-learned BERT model" is updated to the "unknown language learned BERT model").

ここでは、例えば、「ID(先日),ID(リリース),ID(さ),ID(れ),ID(た),ID32001,ID4,ID1,ID(の),ID(スペック),ID(は),・・・」という単語IDの並び等を用いて、図1の記録部22に記録されている学習済BERTモデルについて、再度の機械学習を行うことにより、学習済BERTモデルを更新して、更新された学習済BERTモデルを記録する(詳細には、本実施の形態では例えば「事前学習済BERTモデル」を「未知語学習済BERTモデル」に更新し、更新された「未知語学習済BERTモデル」を格納する)。 Here, for example, "ID (the other day), ID (release), ID (sa), ID (re), ID (ta), ID32001, ID4, ID1, ID (no), ID (spec), ID (ha) ), ... ”, etc., to update the trained BERT model by performing machine learning again for the trained BERT model recorded in the recording unit 22 of FIG. , Record the updated learned BERT model (Specifically, in this embodiment, for example, the "pre-learned BERT model" is updated to the "unknown word learned BERT model", and the updated "unknown word learned" is recorded. Stores the BERT model).

そして、図13の学習済BERTモデル再学習処理をリターンした後に、図6の再学習処理を終了する。 Then, after returning the trained BERT model re-learning process of FIG. 13, the re-learning process of FIG. 6 is terminated.

(処理-分類処理)
図14は、分類処理のフローチャートである。分類処理は、サーバ装置2で行われる処理であり、概略的には、分類タスクを実行する処理である。この分類処理を実行するタイミングは任意であるが、例えば、前述の再学習処理(図6)が実行された後に、タスクモデルを生成する場合に利用される情報を用いて前述の公知の機械学習を行って、「未知語学習済BERTモデル」が「分類学習済BERTモデル」に更新されて記録され、また、タスクモデルが生成されて記録された後のタイミングであり、一例としては、端末装置1のユーザが、当該端末装置1を介して図1の分類対象情報をサーバ装置2に送信することにより入力して格納した後の、所定のタイミング(例えば、ユーザが端末装置1を介して分類処理を実行する操作を行ったタイミング等)に、起動することとし、分類処理が起動したところから説明する。
(Processing-Classification processing)
FIG. 14 is a flowchart of the classification process. The classification process is a process performed by the server device 2, and is generally a process of executing a classification task. The timing of executing this classification process is arbitrary, but for example, after the above-mentioned re-learning process (FIG. 6) is executed, the above-mentioned known machine learning is performed using the information used when generating a task model. This is the timing after the "unknown word learned BERT model" is updated and recorded in the "classified learned BERT model", and the task model is generated and recorded. As an example, the terminal device A predetermined timing (for example, the user classifies via the terminal device 1) after the user of 1 inputs and stores the classification target information of FIG. 1 by transmitting the classification target information of FIG. 1 to the server device 2 via the terminal device 1. It will be started at the timing when the operation to execute the process is performed, etc.), and the explanation will be given from the place where the classification process is started.

ここでは、例えば、前述の再学習処理(図6)において、通信分野のニュース記事に基づいて「事前学習済BERTモデル」が「未知語学習済BERTモデル」に更新され、この後に、当該「未知語学習済BERTモデル」が「分類学習済BERTモデル」に更新されており、また、前述したように、分類対象情報が通信分野のニュース記事である場合を例示して説明する。 Here, for example, in the above-mentioned re-learning process (FIG. 6), the "pre-learned BERT model" is updated to the "unknown language learned BERT model" based on the news article in the communication field, and then the "unknown" is described. The case where the "word-learned BERT model" has been updated to the "classified-learned BERT model" and, as described above, the classified target information is a news article in the communication field will be described as an example.

===SC1===
図14のSC1において制御部23は、分類対象情報を取得する。具体的には任意であるが、例えば、図1の記録部22に分類対象情報として記録されているニュース記事のタイトルを取得する。
=== SC1 ===
In SC1 of FIG. 14, the control unit 23 acquires the classification target information. Specifically, although it is arbitrary, for example, the title of the news article recorded as the classification target information in the recording unit 22 of FIG. 1 is acquired.

ここでは、例えば、図1の記録部22の分類対象情報として、タイトルが「新発売のABフォンXRを徹底検証した。」であり、本文が「うわさのABフォンXRは・・・」というニュース記事を含む多数のニュース記事が格納されている場合を例示する。この場合、このタイトルである「新発売のABフォンXRを徹底検証した。」等を取得する。 Here, for example, the news that the title is "Thorough verification of the newly released AB phone XR" and the text is "The rumored AB phone XR is ..." as the classification target information of the recording unit 22 in FIG. An example is an example in which a large number of news articles including articles are stored. In this case, the title such as "Thorough verification of the newly released AB phone XR" is acquired.

===SC2===
図14のSC2において制御部23は、SC1で取得したニュース記事のタイトルについて、単語に分割する処理を行う。具体的には任意であるが、例えば、図13のSB2の処理と同様な処理を行い、すなわち、図7の形態素解析用単語辞書情報に基づいて処理を行う。
=== SC2 ===
In SC2 of FIG. 14, the control unit 23 performs a process of dividing the title of the news article acquired in SC1 into words. Specifically, although it is arbitrary, for example, the same processing as the processing of SB2 in FIG. 13 is performed, that is, the processing is performed based on the word dictionary information for morphological analysis in FIG.

ここでは、例えば、「新発売,の,ABフォンXR,を,・・・」等に分割する。 Here, for example, it is divided into "new release, AB phone XR, ..." and the like.

===SC3===
図14のSC3において制御部23は、SC2で分割した単語の並びを、単語IDの並びに変換する。具体的には任意であるが、例えば、図13のSB3の処理と同様な処理を行い、すなわち、図12のBERT用単語辞書情報に基づいて処理を行う。
=== SC3 ===
In SC3 of FIG. 14, the control unit 23 converts the sequence of words divided by SC2 into the sequence of word IDs. Specifically, although it is arbitrary, for example, the same processing as the processing of SB3 in FIG. 13 is performed, that is, the processing is performed based on the BERT word dictionary information of FIG.

ここでは、例えば、「ID(新発売),ID(の),ID32001,ID(を),・・・」という単語IDの並び等に変換する。特に、「ABフォンXR」については、前述したように、図12のBERT用単語辞書情報に登録されたので、当該「ABフォンXR」を一意に識別する単語IDである「ID32001」に変換されることなる。 Here, for example, it is converted into a sequence of word IDs such as "ID (new release), ID (no), ID32001, ID (o), ...". In particular, since the "AB phone XR" is registered in the BERT word dictionary information of FIG. 12, as described above, it is converted into the word ID "ID32001" that uniquely identifies the "AB phone XR". It will be.

===SC4===
図14のSC4において制御部23は、分散表現数値情報の並びを取得する。具体的には任意であるが、例えば、SC3で変換した単語IDの並びを、各ニュース記事のタイトル単位で、図1の記録部22に記録されている学習済BERTモデル(詳細には、本実施の形態では例えば「分類学習済BERTモデル」)に入力し、当該学習済BERTモデルから出力された分散表現数値情報の並びを取得する。
=== SC4 ===
In SC4 of FIG. 14, the control unit 23 acquires a sequence of distributed representation numerical information. Specifically, although it is arbitrary, for example, a trained BERT model in which the sequence of word IDs converted by SC3 is recorded in the recording unit 22 of FIG. 1 for each title of each news article (specifically, a book). In the embodiment, for example, it is input to "classification trained BERT model"), and a sequence of distributed expression numerical information output from the trained BERT model is acquired.

ここでは、例えば、SC3で変換した単語IDの並びである「ID(新発売),ID(の),ID32001,ID(を),・・・」等を、図1の記録部22に記録されている学習済BERTモデル(詳細には、本実施の形態では例えば「分類学習済BERTモデル」)に入力し、当該学習済BERTモデルから出力された分散表現数値情報の並びである「Num_ID(新発売),Num_ID(の),Num_ID32001,Num_ID(を),・・・」等を取得する。なお、「Num_ID(新発売)」は、「ID(新発売)」に対応する分散表現数値情報であることとする。なお、他の「Num_」を用いた表現も同様とする。 Here, for example, "ID (new release), ID (no), ID32001, ID (o), ...", which is a sequence of word IDs converted by SC3, is recorded in the recording unit 22 of FIG. "Num_ID (new), which is a sequence of distributed expression numerical information output from the trained BERT model that has been input to the trained BERT model (specifically, for example," classified and trained BERT model "in this embodiment). (Release), Num_ID (), Num_ID32001, Num_ID (), ... ”and so on. It should be noted that "Num_ID (new release)" is distributed representation numerical information corresponding to "ID (new release)". The same applies to other expressions using "Num_".

===SC5===
図14のSC5において制御部23は、カテゴリを示す情報を取得する。具体的には任意であるが、例えば、SC4で取得した分散表現数値情報の並びを、各ニュース記事のタイトル単位で、図1の記録部22に記録されているタスクモデルに入力し、当該タスクモデルから出力されたカテゴリを示す情報(つまり、タスクモデルに入力された分散表現数値情報の並びに対応するタイトルのニュース記事が属するカテゴリを示す情報)を取得する。
=== SC5 ===
In SC5 of FIG. 14, the control unit 23 acquires information indicating a category. Specifically, although it is arbitrary, for example, the sequence of distributed expression numerical information acquired by SC4 is input to the task model recorded in the recording unit 22 of FIG. 1 for each title of each news article, and the task is concerned. The information indicating the category output from the model (that is, the information indicating the category to which the news article of the corresponding title belongs to the distributed representation numerical information input to the task model) is acquired.

ここでは、例えば、SC4で取得した分散表現数値情報の並びである「Num_ID(新発売),Num_ID(の),Num_ID32001,Num_ID(を),・・・」等を、図1の記録部22に記録されているタスクモデルに入力し、当該タスクモデルから出力されたカテゴリを示す情報として「製品紹介」のカテゴリを示す情報等を取得する。 Here, for example, "Num_ID (new release), Num_ID (), Num_ID320011, Num_ID (), ...", Which is a sequence of distributed expression numerical information acquired by SC4, is set in the recording unit 22 of FIG. Input to the recorded task model, and acquire information indicating the category of "product introduction" as information indicating the category output from the task model.

===SC6===
図14のSC6において制御部23は、図1の分類対象情報として格納されているニュース記事を分類する。具体的には任意であるが、例えば、SC5で取得したカテゴリを示す情報に基づいて、各ニュース記事をカテゴリに分類し、当該分類結果を示す情報を、端末装置1に送信することにより、当該端末装置1側で当該処理結果を利用可能とする。
=== SC6 ===
In SC6 of FIG. 14, the control unit 23 classifies news articles stored as the classification target information of FIG. Specifically, although it is arbitrary, for example, by classifying each news article into a category based on the information indicating the category acquired by SC5 and transmitting the information indicating the classification result to the terminal device 1, the said article. The processing result can be used on the terminal device 1 side.

ここでは、例えば、タイトルが「新発売のABフォンXRを徹底検証した。」であり、本文が「うわさのABフォンXRは・・・」であるニュース記事を「製品紹介」のカテゴリに分類し、また、同様にして、他のニュース記事もカテゴリに分類し、分類結果を示す情報を、端末装置1側に送信する。 Here, for example, a news article whose title is "Thorough verification of the newly released AB phone XR" and whose text is "Rumored AB phone XR is ..." is classified into the "Product introduction" category. In the same way, other news articles are also classified into categories, and information indicating the classification result is transmitted to the terminal device 1 side.

なお、ここでの分類結果を示す情報は任意であるが、例えば、各ニュース記事を特定する情報(例えば、記事の番号又はタイトル等)と当該記事が分類されたカテゴリを示す情報とが相互に関連付けられた情報を用いてもよいし、あるいは、各カテゴリに属するニュース記事を特定する一覧情報を用いてもよい。 The information indicating the classification result here is arbitrary, but for example, the information specifying each news article (for example, the number or title of the article) and the information indicating the category in which the article is classified are mutually exchanged. The associated information may be used, or list information that identifies news articles belonging to each category may be used.

そして、このように処理することにより、端末装置1のユーザは、当該サーバ装置2から送信された情報に基づいて、各ニュース記事のカテゴリを把握することが可能となる。これにて、分類処理を終了する。 Then, by processing in this way, the user of the terminal device 1 can grasp the category of each news article based on the information transmitted from the server device 2. This ends the classification process.

(分類精度について)
前述したように、図6の再学習処理を行って、図12に示すように未知語をBERT用単語辞書に新たに追加した上で、学習済BERTモデルを再学習することにより、当該学習済BERTモデルが、当該追加した未知語についても一意に認識して分散表現数値情報を出力可能となり、学習済BERTモデルを用いて適切に扱える単語数が増加し、結果として、学習済BERTモデル及びタスクモデルにおいて、文章の文脈をより的確にとらえることが可能となるので、ニュース記事の分類精度が向上することになる。
(Regarding classification accuracy)
As described above, the learned word is newly added to the BERT word dictionary as shown in FIG. 12 by performing the re-learning process of FIG. 6, and then the learned BERT model is re-learned. The BERT model can uniquely recognize the added unknown word and output the distributed expression numerical information, and the number of words that can be appropriately handled by using the learned BERT model increases. As a result, the learned BERT model and the task In the model, it becomes possible to grasp the context of the sentence more accurately, so that the classification accuracy of the news article is improved.

(再学習時間について)
また、図13のSB4で行われる再学習においては、図7のSA8で新たにBERT用単語辞書情報に格納された未知語以外の、当該BERT用単語辞書情報中の単語は、既に機械学習の対象となっているので、当該再学習で用いられる再学習用情報(実施の形態では、ニュース記事の本文)の情報量を低減させることができ、比較的少ない量の再学習用情報を用いて比較的短い時間(例えば、12時間~24時間等)で再学習を行うことが可能となる。
(About re-learning time)
Further, in the re-learning performed in SB4 of FIG. 13, the words in the BERT word dictionary information other than the unknown words newly stored in the BERT word dictionary information in SA8 of FIG. 7 are already machine-learned. Since it is a target, the amount of information for re-learning used in the re-learning (in the embodiment, the text of the news article) can be reduced, and a relatively small amount of re-learning information is used. Re-learning can be performed in a relatively short time (for example, 12 hours to 24 hours, etc.).

(実施の形態の効果)
このように本実施の形態によれば、取得部231が取得した未知語に関する機械学習を行うことにより、例えば、学習済BERTモデルを更新することができるので、当該学習済BERTモデルに基づいて行う処理の処理精度を向上させることが可能となる。また、例えば、新たに学習済BERTモデルを生成するわけではないので、比較的少ない情報量の第2文章情報(ニュース記事の本文)を用いて機械学習を行うことができるので、当該機械学習を行う時間を短縮することが可能となる。
(Effect of embodiment)
As described above, according to the present embodiment, for example, the learned BERT model can be updated by performing machine learning on the unknown word acquired by the acquisition unit 231. Therefore, the learning is performed based on the learned BERT model. It is possible to improve the processing accuracy of the processing. Further, for example, since a newly trained BERT model is not generated, machine learning can be performed using a relatively small amount of second sentence information (the text of a news article), so that the machine learning can be performed. It is possible to shorten the time to do it.

また、取得部231が取得した未知語の内の、機械学習の対象にするものと判定した未知語に関する機械学習を学習済BERTモデルについて行うことにより、例えば、未知語を適切に絞ることができるので、機械学習を行う時間を短縮することが可能となる。 Further, by performing machine learning on the learned BERT model regarding the unknown words determined to be the target of machine learning among the unknown words acquired by the acquisition unit 231, for example, the unknown words can be appropriately narrowed down. Therefore, it is possible to shorten the time for machine learning.

また、品詞に関する基準に基づいて未知語を機械学習の対象にするか否かを判定することにより、例えば、機械学習の対象にするか否かを適切に判定することが可能となる。 Further, by determining whether or not an unknown word is targeted for machine learning based on a criterion regarding part of speech, for example, it is possible to appropriately determine whether or not it is targeted for machine learning.

また、出現頻度に関する基準に基づいて未知語を機械学習の対象にするか否かを判定することにより、例えば、機械学習の対象にするか否かを適切に判定することが可能となる。 Further, by determining whether or not an unknown word is a target of machine learning based on a criterion regarding the frequency of appearance, for example, it is possible to appropriately determine whether or not an unknown word is a target of machine learning.

また、第1文章情報(ニュース記事のタイトル)において特定した重要単語又は重要フレーズに基づいて、第1文章情報から未知語を取得することにより、例えば、有用な未知語を取得することができるので、学習済BERTモデルに基づいて行う処理の処理精度を向上させることが可能となる。 Further, by acquiring an unknown word from the first sentence information based on an important word or an important phrase specified in the first sentence information (news article title), for example, a useful unknown word can be acquired. , It is possible to improve the processing accuracy of the processing performed based on the trained BERT model.

また、第1文章情報(ニュース記事のタイトル)に含まれる単語の内の、単語辞書情報(BERT用単語辞書情報)に記録されている単語以外の単語を、未知語として取得することにより、例えば、有用な未知語を取得することができるので、学習済BERTモデルに基づいて行う処理の処理精度を向上させることが可能となる。 Further, for example, by acquiring a word other than the word recorded in the word dictionary information (word dictionary information for BERT) among the words included in the first sentence information (title of the news article) as an unknown word, for example. Since useful unknown words can be acquired, it is possible to improve the processing accuracy of the processing performed based on the learned BERT model.

また、少なくとも単語辞書情報(BERT用単語辞書情報)に新たに記録した未知語に関する機械学習を行うことにより、例えば、比較的少ない情報量の第2文章情報を用いて機械学習を行うことができるので、当該機械学習を行う時間を短縮することが可能となる。 Further, by performing machine learning on at least the unknown words newly recorded in the word dictionary information (word dictionary information for BERT), for example, machine learning can be performed using the second sentence information having a relatively small amount of information. Therefore, it is possible to shorten the time for performing the machine learning.

また、第1文章情報はニュース記事のタイトルに対応する文章を示す情報であり、第2文章情報はニュース記事の本文に対応する文章を示す情報であることにより、例えば、未知語に関して適切に機械学習を行うことができるので、学習済BERTモデルに基づいて行う処理の処理精度を向上させることが可能となる。 Further, the first sentence information is information indicating a sentence corresponding to the title of the news article, and the second sentence information is information indicating the sentence corresponding to the body of the news article. Since learning can be performed, it is possible to improve the processing accuracy of the processing performed based on the trained BERT model.

〔実施の形態に対する変形例〕
以上、本発明に係る実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した本発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[Variation example with respect to the embodiment]
Although the embodiments according to the present invention have been described above, the specific configuration and means of the present invention shall be arbitrarily modified and improved within the scope of the technical idea of the present invention described in the claims. Can be done. Hereinafter, such a modification will be described.

(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、上述の内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏したりすることがある。
(About the problem to be solved and the effect of the invention)
First, the problem to be solved by the invention and the effect of the invention are not limited to the above-mentioned contents, and may differ depending on the implementation environment and the details of the configuration of the invention, and only a part of the above-mentioned problems. May be resolved or only some of the above effects may be achieved.

(分散や統合について)
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散や統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合して構成できる。また、本出願における「装置」とは、単一の装置によって構成されたものに限定されず、複数の装置によって構成されたものを含む。
(About distribution and integration)
Further, each of the above-mentioned electrical components is a functional concept and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of dispersion or integration of each part is not limited to the one shown in the figure, and all or part of them may be functionally or physically dispersed or integrated in any unit according to various loads and usage conditions. Can be configured. Further, the "device" in the present application is not limited to a device composed of a single device, but includes a device composed of a plurality of devices.

(形状、数値、構造、時系列について)
実施の形態や図面において例示した構成要素に関して、形状、数値、又は複数の構成要素の構造若しくは時系列の相互関係については、本発明の技術的思想の範囲内において、任意に改変及び改良することができる。
(About shape, numerical value, structure, time series)
With respect to the components exemplified in the embodiments and drawings, the shape, numerical value, or the mutual relationship of the structure or time series of the plurality of components shall be arbitrarily modified and improved within the scope of the technical idea of the present invention. Can be done.

(タスクモデルの機械学習について)
また、上記実施の形態のタスクモデルについては、前述したように、機械学習を行うことにより生成されるが、前述の再学習が行われた学習済BERTモデル、及び当該再学習の際に利用したBERT用単語辞書に基づいて行われる処理の処理結果を利用して、機械学習を行うことによりタスクモデルを生成することとしてもよい。
(About machine learning of task model)
Further, the task model of the above embodiment is generated by performing machine learning as described above, but it is used in the trained BERT model in which the above-mentioned re-learning is performed and in the re-learning. A task model may be generated by performing machine learning using the processing result of the processing performed based on the BERT word dictionary.

(再学習処理について(その1))
また、図6の再学習処理において、重要単語又は重要フレーズの内の重要単語のみを用いて未知語を取得するように変更してもよい。なお、以下で特記する処理以外の処理は、実施の形態で説明した処理と同様とする(後述する「(再学習処理について(その2))」も同様とする)。処理については例えば、SA1の後のSA2において、重要単語又は重要フレーズの内の重要単語のみを取得する。次に、SA3及びSA4を省略し、SA5において、図4の形態素解析用単語辞書情報(つまり、重要フレーズが追加されていない形態素解析用単語辞書情報)に基づいて単語に分割する処理を行い、この後に、未知語を取得する処理を行う。次に、SA6において、SA5で取得した未知語の中から、SA2で取得した重要単語に合致する未知語のみを取得する。そして、この後、SA7~SA9を実行する。
(About re-learning process (1))
Further, in the re-learning process of FIG. 6, the unknown word may be acquired by using only the important word or the important word among the important phrases. The processes other than the processes specified below are the same as the processes described in the embodiment (the same applies to "(Re-learning process (Part 2))" described later). Regarding the processing, for example, in SA2 after SA1, only important words or important phrases among important words are acquired. Next, SA3 and SA4 are omitted, and in SA5, a process of dividing into words based on the morphological analysis word dictionary information of FIG. 4 (that is, the morphological analysis word dictionary information to which important phrases are not added) is performed. After this, the process of acquiring the unknown word is performed. Next, in SA6, only the unknown words that match the important words acquired in SA2 are acquired from the unknown words acquired in SA5. Then, after this, SA7 to SA9 are executed.

(再学習処理について(その2))
また、図6の再学習処理において、形態素解析用単語辞書情報の単語情報として、所定の単語又は所定のフレーズを登録するように変更してもよい。なお、「所定の単語」とは、予め定められた単語であり、例えば、ユーザによってサーバ装置2に入力された単語等を含む概念である。また、「所定のフレーズ」とは、予め定められたフレーズであり、例えば、ユーザによってサーバ装置2に入力されたフレーズ等を含む概念である。処理については例えば、SA1を実行した後に、SA2を省略し、SA3を実行する。次に、SA4において、前述の所定の単語又は所定のフレーズを、図4の形態素解析用単語辞書情報の単語情報として記録することにより登録する。なお、この場合、これらの所定の単語又は所定のフレーズに対応する品詞情報及び読み情報もユーザによってサーバ装置2に入力されることとし、この情報を登録する。次に、SA5において、SA4で所定の単語又は所定のフレーズが登録された形態素解析用単語辞書情報を用いて、単語に分割する処理を行い、この後、未知語を取得する処理を行う。次に、SA6において、SA5で取得した未知語の中から、SA4で登録した所定の単語又は所定のフレーズに合致する未知語のみを取得する。そして、この後、SA7~SA9を実行する。
(About re-learning process (2))
Further, in the re-learning process of FIG. 6, a predetermined word or a predetermined phrase may be registered as the word information of the word dictionary information for morphological analysis. The "predetermined word" is a predetermined word, and is a concept including, for example, a word input to the server device 2 by the user. Further, the "predetermined phrase" is a predetermined phrase, and is a concept including, for example, a phrase input to the server device 2 by the user. Regarding the processing, for example, after executing SA1, SA2 is omitted and SA3 is executed. Next, in SA4, the above-mentioned predetermined word or predetermined phrase is registered by recording it as word information of the word dictionary information for morphological analysis of FIG. In this case, the part-of-speech information and the reading information corresponding to these predetermined words or predetermined phrases are also input to the server device 2 by the user, and this information is registered. Next, in SA5, a process of dividing into words is performed using the word dictionary information for morphological analysis in which a predetermined word or a predetermined phrase is registered in SA4, and then a process of acquiring an unknown word is performed. Next, in SA6, only the unknown word that matches the predetermined word or the predetermined phrase registered in SA4 is acquired from the unknown words acquired in SA5. Then, after this, SA7 to SA9 are executed.

(処理の省略又は変更について)
また、図6の再学習処理の内の任意の処理を省略又は変更してもよく、例えば、SA3で取得した未知語を全てBERT用単語辞書情報に登録した上で、学習済BERTモデル再学習処理を行うように構成してもよい。又は、SA5で取得した未知語を全てBERT用単語辞書情報に登録した上で、学習済BERTモデル再学習処理を行うように構成してもよい。又は、SA3又はSA5で取得した未知語の内の、SA6で排除した未知語以外の未知語(つまり、「!」等の不要な未知語以外の未知語)を、BERT用単語辞書情報に登録した上で、学習済BERTモデル再学習処理を行うように構成してもよい。
(About omission or change of processing)
Further, any process in the re-learning process of FIG. 6 may be omitted or changed. For example, all the unknown words acquired by SA3 are registered in the BERT word dictionary information, and then the learned BERT model re-learning is performed. It may be configured to perform processing. Alternatively, it may be configured to perform the learned BERT model re-learning process after registering all the unknown words acquired by SA5 in the BERT word dictionary information. Alternatively, among the unknown words acquired by SA3 or SA5, unknown words other than the unknown words excluded by SA6 (that is, unknown words other than unnecessary unknown words such as "!") Are registered in the BERT word dictionary information. Then, it may be configured to perform the trained BERT model re-learning process.

(初回の機械学習について)
また、上記実施の形態の学習済BERTモデルに関する「初回の機械学習」については、基本的には、学習済BERTモデル再学習処理と同様な処理であるものと解釈してもよい。
(About the first machine learning)
Further, the "first machine learning" regarding the trained BERT model of the above embodiment may be interpreted as basically the same as the trained BERT model re-learning process.

(用語の解釈について)
また、上記実施の形態では、「事前学習済BERTモデル」が「学習済対象モデル」に対応するものと解釈してもよいと説明したが、他の解釈を適用することも可能である。例えば、図1の記録部22の再学習用情報を入れかえて図6の再学習処理を複数回実行することも想定されるが、この場合、当該再学習処理における処理対象が前回の学習済BERTモデル再学習処理で更新された「未知語学習済BERTモデル」になる場合が想定される。この場合、この前回更新された「未知語学習済BERTモデル」が「学習済対象モデル」に対応するものと解釈してもよい。
(Interpretation of terms)
Further, in the above embodiment, it has been explained that the "pre-learned BERT model" may be interpreted as corresponding to the "trained target model", but other interpretations can also be applied. For example, it is assumed that the relearning process of FIG. 6 is executed a plurality of times by exchanging the relearning information of the recording unit 22 of FIG. 1, but in this case, the processing target in the relearning process is the previously learned BERT. It is assumed that the "unknown word learned BERT model" updated by the model re-learning process will be obtained. In this case, it may be interpreted that the previously updated "unknown word learned BERT model" corresponds to the "learned target model".

(組み合わせについて)
また、上記実施の形態の特徴と、変形例の特徴を任意に組み合わせてもよい。
(About the combination)
Further, the characteristics of the above-described embodiment and the characteristics of the modified example may be arbitrarily combined.

(付記)
付記1の情報処理システムは、1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理システムであって、前記学習済対象モデルにおいて機械学習の対象となっていない未知語を、第1文章情報から取得する取得手段と、第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、を備える。
(Additional note)
The information processing system of Appendix 1 is a trained target model generated by performing machine learning on one or more words, and machine learning again on the trained target model that outputs numerical information indicating the characteristics of the words. This is an information processing system for performing the above learning, using the acquisition means for acquiring an unknown word that is not the target of machine learning in the trained target model from the first sentence information and the second sentence information. The completed target model is provided with at least a learning means for performing machine learning on the unknown word acquired by the acquisition means.

付記2の情報処理システムは、付記1に記載の情報処理システムにおいて、前記学習手段は、所定の判定基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定し、前記取得手段が取得した前記未知語の内の、機械学習の対象にするものと判定した前記未知語に関する機械学習を前記学習済対象モデルについて行う。 In the information processing system described in Appendix 1, whether or not the learning means targets the unknown word acquired by the acquisition means for machine learning based on a predetermined determination criterion. Is determined, and machine learning for the unknown word determined to be the target of machine learning among the unknown words acquired by the acquisition means is performed on the learned target model.

付記3の情報処理システムは、付記2に記載の情報処理システムにおいて、前記学習手段は、前記取得手段が取得した前記未知語の品詞に関する基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定する。 The information processing system of Appendix 3 is the information processing system according to Appendix 2, wherein the learning means obtains the unknown word acquired by the acquisition means based on the criteria regarding the part of the unknown word acquired by the acquisition means. Determine whether or not to target machine learning.

付記4の情報処理システムは、付記2又は3に記載の演算システムにおいて、前記学習手段は、前記取得手段が取得した前記未知語の、前記第1文章情報又は前記第2文章情報内での出現頻度に関する基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定する。 The information processing system of the appendix 4 is the arithmetic system according to the appendix 2 or 3, wherein the learning means appears in the first sentence information or the second sentence information of the unknown word acquired by the acquisition means. Based on the criteria regarding frequency, it is determined whether or not the unknown word acquired by the acquisition means is targeted for machine learning.

付記5の情報処理システムは、付記1から4の何れか一項に記載の情報処理システムにおいて、前記取得手段は、所定の特定基準に基づいて、前記第1文章情報において重要単語又は重要フレーズを特定し、特定した前記重要単語又は前記重要フレーズに基づいて、前記第1文章情報から前記未知語を取得する。 The information processing system of Supplementary Note 5 is the information processing system according to any one of Supplementary note 1 to 4, wherein the acquisition means uses important words or phrases in the first sentence information based on a predetermined specific criterion. The unknown word is acquired from the first sentence information based on the specified and specified important word or the important phrase.

付記6の情報処理システムは、付記1から5の何れか一項に記載の情報処理システムにおいて、前記学習済対象モデルで一意に識別される単語が記録されている単語辞書情報を格納する格納手段、を備え、前記取得手段は、前記第1文章情報に含まれる単語の内の、前記単語辞書情報に記録されている単語以外の単語を、前記未知語として取得する。 The information processing system of Supplementary Note 6 is a storage means for storing word dictionary information in which words uniquely identified by the trained target model are recorded in the information processing system according to any one of Supplementary note 1 to 5. , And the acquisition means acquires words other than the words recorded in the word dictionary information among the words included in the first sentence information as the unknown words.

付記7の情報処理システムは、付記6に記載の情報処理システムにおいて、前記学習手段は、前記取得手段が取得した前記未知語を前記単語辞書情報に新たに記録し、前記第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記単語辞書情報に新たに記録した前記未知語に関する機械学習を行う。 In the information processing system described in Appendix 6, the learning means newly records the unknown word acquired by the acquisition means in the word dictionary information, and uses the second sentence information. Then, for the trained target model, at least machine learning is performed on the unknown word newly recorded in the word dictionary information.

付記8の情報処理システムは、付記1から7の何れか一項に記載の情報処理システムにおいて、前記第1文章情報は、ニュース記事のタイトルに対応する文章を示す情報であり、前記第2文章情報は、ニュース記事の本文に対応する文章を示す情報である。 The information processing system of the appendix 8 is the information processing system according to any one of the appendices 1 to 7, wherein the first sentence information is information indicating a sentence corresponding to the title of a news article, and the second sentence. Information is information indicating a sentence corresponding to the text of a news article.

付記9の情報処理プログラムは、1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理プログラムであって、コンピュータを、前記学習済対象モデルにおいて機械学習の対象となっていない未知語を、第1文章情報から取得する取得手段と、第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、として機能させる。 The information processing program of Appendix 9 is a trained target model generated by performing machine learning on one or more words, and machine learning again on the trained target model that outputs numerical information indicating the characteristics of the words. This is an information processing program for performing the above, using the acquisition means for acquiring an unknown word that is not the target of machine learning in the trained target model from the first sentence information and the second sentence information. , The learned target model is made to function as at least a learning means for performing machine learning on the unknown word acquired by the acquisition means.

(付記の効果)
付記1に記載の情報処理システム、及び付記9に記載の情報処理プログラムによれば、取得手段が取得した未知語に関する機械学習を行うことにより、例えば、学習済対象モデルを更新することができるので、当該学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。また、例えば、新たに学習済対象モデルを生成するわけではないので、比較的少ない情報量の第2文章情報を用いて機械学習を行うことができるので、当該機械学習を行う時間を短縮することが可能となる。
(Effect of appendix)
According to the information processing system described in Appendix 1 and the information processing program described in Appendix 9, for example, the trained target model can be updated by performing machine learning on the unknown words acquired by the acquisition means. , It is possible to improve the processing accuracy of the processing performed based on the trained target model. Further, for example, since a newly trained target model is not generated, machine learning can be performed using a relatively small amount of second sentence information, so that the time for performing the machine learning can be shortened. Is possible.

付記2に記載の情報処理システムによれば、取得手段が取得した未知語の内の、機械学習の対象にするものと判定した未知語に関する機械学習を学習済対象モデルについて行うことにより、例えば、未知語を適切に絞ることができるので、機械学習を行う時間を短縮することが可能となる。 According to the information processing system described in Appendix 2, for example, by performing machine learning on the learned target model regarding the unknown words determined to be the target of machine learning among the unknown words acquired by the acquisition means, for example. Since unknown words can be narrowed down appropriately, it is possible to shorten the time for machine learning.

付記3に記載の情報処理システムによれば、品詞に関する基準に基づいて未知語を機械学習の対象にするか否かを判定することにより、例えば、機械学習の対象にするか否かを適切に判定することが可能となる。 According to the information processing system described in Appendix 3, for example, whether or not an unknown word is targeted for machine learning is appropriately determined by determining whether or not an unknown word is targeted for machine learning based on the criteria for part of speech. It becomes possible to judge.

付記4に記載の情報処理システムによれば、出現頻度に関する基準に基づいて未知語を機械学習の対象にするか否かを判定することにより、例えば、機械学習の対象にするか否かを適切に判定することが可能となる。 According to the information processing system described in Appendix 4, for example, whether or not an unknown word is targeted for machine learning is appropriately determined by determining whether or not an unknown word is targeted for machine learning based on a criterion regarding frequency of appearance. It is possible to make a judgment.

付記5に記載の情報処理システムによれば、第1文章情報において特定した重要単語又は重要フレーズに基づいて、第1文章情報から未知語を取得することにより、例えば、有用な未知語を取得することができるので、学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。 According to the information processing system described in Appendix 5, for example, a useful unknown word is acquired by acquiring an unknown word from the first sentence information based on the important word or important phrase specified in the first sentence information. Therefore, it is possible to improve the processing accuracy of the processing performed based on the trained target model.

付記6に記載の情報処理システムによれば、第1文章情報に含まれる単語の内の、単語辞書情報に記録されている単語以外の単語を、未知語として取得することにより、例えば、有用な未知語を取得することができるので、学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。 According to the information processing system described in Appendix 6, it is useful, for example, by acquiring words other than the words recorded in the word dictionary information among the words included in the first sentence information as unknown words. Since the unknown word can be acquired, it is possible to improve the processing accuracy of the processing performed based on the trained target model.

付記7に記載の情報処理システムによれば、少なくとも単語辞書情報に新たに記録した未知語に関する機械学習を行うことにより、例えば、比較的少ない情報量の第2文章情報を用いて機械学習を行うことができるので、当該機械学習を行う時間を短縮することが可能となる。 According to the information processing system described in Appendix 7, at least machine learning is performed on unknown words newly recorded in the word dictionary information, for example, machine learning is performed using a relatively small amount of second sentence information. Therefore, it is possible to shorten the time for performing the machine learning.

付記8に記載の情報処理システムによれば、第1文章情報はニュース記事のタイトルに対応する文章を示す情報であり、第2文章情報はニュース記事の本文に対応する文章を示す情報であることにより、例えば、未知語に関して適切に機械学習を行うことができるので、学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。 According to the information processing system described in Appendix 8, the first sentence information is the information indicating the sentence corresponding to the title of the news article, and the second sentence information is the information indicating the sentence corresponding to the text of the news article. As a result, for example, machine learning can be appropriately performed for unknown words, so that it is possible to improve the processing accuracy of the processing performed based on the trained target model.

1 端末装置
2 サーバ装置
21 通信部
22 記録部
23 制御部
100 情報システム
231 取得部
232 学習部
1 Terminal device 2 Server device 21 Communication unit 22 Recording unit 23 Control unit 100 Information system 231 Acquisition unit 232 Learning unit

上述した課題を解決し、目的を達成するために、請求項1に記載の情報処理システムは、1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理システムであって、前記学習済対象モデルで一意に識別される単語が記録されている単語辞書情報を格納する格納手段と、前記学習済対象モデルにおいて機械学習の対象となっていない未知語であって、少なくとも前記格納手段の前記単語辞書情報に記録されていない単語である前記未知語を、第1文章情報から取得する取得手段と、前記第1文章情報に関連する第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、を備え、前記学習手段は、前記取得手段が取得した前記未知語を前記単語辞書情報に新たに記録する第1処理と、前記第2文章情報に含まれる文章を単語に分割する第2処理と、前記格納手段に格納されている前記単語辞書情報に基づいて、前記第2処理で分割された単語を、各単語を識別するための単語識別情報に変換する第3処理と、前記第3処理で変換された前記単語識別情報に基づいて、前記学習済対象モデルについて機械学習を行う第4処理と、を行う。 The information processing system according to claim 1 is a trained target model generated by performing machine learning on one or more words in order to solve the above-mentioned problems and achieve the object, and is a trained target model of words. It is an information processing system for performing machine learning again for the trained target model that outputs numerical information indicating features, and stores word dictionary information in which words uniquely identified by the trained target model are recorded. The storage means and the unknown word that is not the target of machine learning in the trained target model and is at least a word that is not recorded in the word dictionary information of the storage means are described in the first sentence. An acquisition means acquired from the information, and a learning means for performing machine learning on the unknown word acquired by the acquisition means at least for the trained target model using the second sentence information related to the first sentence information . The learning means includes a first process of newly recording the unknown word acquired by the acquisition means in the word dictionary information, and a second process of dividing the sentence included in the second sentence information into words. , The third process of converting the words divided in the second process into word identification information for identifying each word based on the word dictionary information stored in the storage means, and the third process. Based on the word identification information converted in, the fourth process of performing machine learning on the trained target model is performed.

請求項に記載の情報処理システムは、請求項1からの何れか一項に記載の情報処理システムにおいて、前記第1文章情報は、ニュース記事のタイトルに対応する文章を示す情報であり、前記第2文章情報は、ニュース記事の本文に対応する文章を示す情報である。
請求項7に記載の情報処理システムは、請求項1から6の何れか一項に記載の情報処理システムにおいて、前記第3処理において、前記学習手段は、前記第2処理で分割された単語が前記単語辞書情報に記録されている場合に、当該単語を一意に識別するための前記単語識別情報である第1単語識別情報に変換し、前記第2処理で分割された単語が前記単語辞書情報に記録されていない場合に、前記単語辞書情報に記録されていない単語に共通して用いる前記単語識別情報である第2単語識別情報に変換し、前記第4処理において、前記学習手段は、前記第3処理で変換された前記第1単語識別情報及び前記第2単語識別情報に基づいて、前記学習済対象モデルについて機械学習を行う。
The information processing system according to claim 6 is the information processing system according to any one of claims 1 to 5 , wherein the first sentence information is information indicating a sentence corresponding to the title of a news article. The second sentence information is information indicating a sentence corresponding to the body of a news article.
The information processing system according to claim 7 is the information processing system according to any one of claims 1 to 6, wherein in the third process, the learning means includes words divided in the second process. When it is recorded in the word dictionary information, it is converted into the first word identification information which is the word identification information for uniquely identifying the word, and the word divided in the second process is the word dictionary information. When it is not recorded in the word dictionary information, it is converted into the second word identification information which is the word identification information commonly used for the words not recorded in the word dictionary information, and in the fourth process, the learning means is described. Machine learning is performed on the trained target model based on the first word identification information and the second word identification information converted in the third process.

請求項に記載の情報処理プログラムは、1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理プログラムであって、コンピュータを、前記学習済対象モデルにおいて機械学習の対象となっていない未知語であって、少なくとも前記学習済対象モデルで一意に識別される単語が記録されている単語辞書情報を格納する格納手段に格納されている前記単語辞書情報に記録されていない単語である前記未知語を、第1文章情報から取得する取得手段と、前記第1文章情報に関連する第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、として機能させ、前記学習手段は、前記取得手段が取得した前記未知語を前記単語辞書情報に新たに記録する第1処理と、前記第2文章情報に含まれる文章を単語に分割する第2処理と、前記格納手段に格納されている前記単語辞書情報に基づいて、前記第2処理で分割された単語を、各単語を識別するための単語識別情報に変換する第3処理と、前記第3処理で変換された前記単語識別情報に基づいて、前記学習済対象モデルについて機械学習を行う第4処理と、を行う。 The information processing program according to claim 8 is a trained target model generated by performing machine learning on one or more words, and the trained target model that outputs numerical information indicating the characteristics of the words. An information processing program for performing machine learning again, and a word that is an unknown word that is not the target of machine learning in the trained target model and is uniquely identified by at least the trained target model. The acquisition means for acquiring the unknown word, which is a word not recorded in the word dictionary information stored in the storage means for storing the word dictionary information in which the information is recorded , from the first sentence information, and the first sentence. Using the second sentence information related to the information, the trained target model is made to function as at least a learning means for performing machine learning on the unknown word acquired by the acquisition means, and the learning means is the acquisition means. The first process of newly recording the unknown word acquired by the user in the word dictionary information, the second process of dividing the sentence included in the second sentence information into words, and the word stored in the storage means. Based on the third process of converting the words divided in the second process into word identification information for identifying each word based on the dictionary information, and the word identification information converted in the third process. The fourth process of performing machine learning on the trained target model is performed.

請求項1に記載の情報処理システム、及び請求項に記載の情報処理プログラムによれば、例えば、学習済対象モデルを更新することができるので、当該学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。また、例えば、新たに学習済対象モデルを生成するわけではないので、比較的少ない情報量の第2文章情報を用いて機械学習を行うことができるので、当該機械学習を行う時間を短縮することが可能となる。 According to the information processing system according to claim 1 and the information processing program according to claim 8 , for example , the trained target model can be updated, so that the processing performed based on the trained target model can be performed. It is possible to improve the processing accuracy. Further, for example, since a newly trained target model is not generated, machine learning can be performed using a relatively small amount of second sentence information, so that the time for performing the machine learning can be shortened. Is possible.

請求項に記載の情報処理システムによれば、第1文章情報はニュース記事のタイトルに対応する文章を示す情報であり、第2文章情報はニュース記事の本文に対応する文章を示す情報であることにより、例えば、未知語に関して適切に機械学習を行うことができるので、学習済対象モデルに基づいて行う処理の処理精度を向上させることが可能となる。 According to the information processing system according to claim 6 , the first sentence information is information indicating a sentence corresponding to the title of the news article, and the second sentence information is information indicating the sentence corresponding to the text of the news article. As a result, for example, machine learning can be appropriately performed for unknown words, so that it is possible to improve the processing accuracy of the processing performed based on the trained target model.

Claims (9)

1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理システムであって、
前記学習済対象モデルにおいて機械学習の対象となっていない未知語を、第1文章情報から取得する取得手段と、
第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、
を備える情報処理システム。
It is a trained target model generated by performing machine learning on one or more words, and is an information processing system for performing machine learning again on the trained target model that outputs numerical information indicating the characteristics of the words. There,
An acquisition means for acquiring unknown words that are not the target of machine learning in the trained target model from the first sentence information, and
A learning means for performing machine learning on the unknown word acquired by the acquisition means at least for the trained target model using the second sentence information.
Information processing system equipped with.
前記学習手段は、
所定の判定基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定し、
前記取得手段が取得した前記未知語の内の、機械学習の対象にするものと判定した前記未知語に関する機械学習を前記学習済対象モデルについて行う、
請求項1に記載の情報処理システム。
The learning means is
Based on a predetermined determination criterion, it is determined whether or not the unknown word acquired by the acquisition means is targeted for machine learning.
Machine learning for the unknown word determined to be the target of machine learning among the unknown words acquired by the acquisition means is performed on the trained target model.
The information processing system according to claim 1.
前記学習手段は、前記取得手段が取得した前記未知語の品詞に関する基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定する、
請求項2に記載の情報処理システム。
The learning means determines whether or not the unknown word acquired by the acquisition means is subject to machine learning based on the criteria regarding the part of speech of the unknown word acquired by the acquisition means.
The information processing system according to claim 2.
前記学習手段は、前記取得手段が取得した前記未知語の、前記第1文章情報又は前記第2文章情報内での出現頻度に関する基準に基づいて、前記取得手段が取得した前記未知語を機械学習の対象にするか否かを判定する、
請求項2又は3に記載の情報処理システム。
The learning means machine-learns the unknown word acquired by the acquisition means based on the criteria regarding the frequency of appearance of the unknown word acquired by the acquisition means in the first sentence information or the second sentence information. Judging whether or not to be the target of
The information processing system according to claim 2 or 3.
前記取得手段は、所定の特定基準に基づいて、前記第1文章情報において重要単語又は重要フレーズを特定し、特定した前記重要単語又は前記重要フレーズに基づいて、前記第1文章情報から前記未知語を取得する、
請求項1から4の何れか一項に記載の情報処理システム。
The acquisition means identifies an important word or an important phrase in the first sentence information based on a predetermined specific criterion, and based on the specified important word or the important phrase, the unknown word from the first sentence information. To get,
The information processing system according to any one of claims 1 to 4.
前記学習済対象モデルで一意に識別される単語が記録されている単語辞書情報を格納する格納手段、を備え、
前記取得手段は、前記第1文章情報に含まれる単語の内の、前記単語辞書情報に記録されている単語以外の単語を、前記未知語として取得する、
請求項1から5の何れか一項に記載の情報処理システム。
A storage means for storing word dictionary information in which a word uniquely identified in the trained target model is recorded is provided.
The acquisition means acquires words other than the words recorded in the word dictionary information among the words included in the first sentence information as the unknown words.
The information processing system according to any one of claims 1 to 5.
前記学習手段は、
前記取得手段が取得した前記未知語を前記単語辞書情報に新たに記録し、
前記第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記単語辞書情報に新たに記録した前記未知語に関する機械学習を行う、
請求項6に記載の情報処理システム。
The learning means is
The unknown word acquired by the acquisition means is newly recorded in the word dictionary information, and the unknown word is newly recorded in the word dictionary information.
Using the second sentence information, machine learning is performed on the trained target model at least for the unknown word newly recorded in the word dictionary information.
The information processing system according to claim 6.
前記第1文章情報は、ニュース記事のタイトルに対応する文章を示す情報であり、
前記第2文章情報は、ニュース記事の本文に対応する文章を示す情報である、
請求項1から7の何れか一項に記載の情報処理システム。
The first sentence information is information indicating a sentence corresponding to the title of a news article.
The second sentence information is information indicating a sentence corresponding to the body of a news article.
The information processing system according to any one of claims 1 to 7.
1個以上の単語に関する機械学習を行うことにより生成された学習済対象モデルであって、単語の特徴を示す数値情報を出力する前記学習済対象モデルについて再度機械学習を行うための情報処理プログラムであって、
コンピュータを、
前記学習済対象モデルにおいて機械学習の対象となっていない未知語を、第1文章情報から取得する取得手段と、
第2文章情報を用いて、前記学習済対象モデルについて、少なくとも前記取得手段が取得した前記未知語に関する機械学習を行う学習手段と、
として機能させる情報処理プログラム。
It is a trained target model generated by performing machine learning on one or more words, and is an information processing program for performing machine learning again on the trained target model that outputs numerical information indicating the characteristics of the words. There,
Computer,
An acquisition means for acquiring unknown words that are not the target of machine learning in the trained target model from the first sentence information, and
A learning means for performing machine learning on the unknown word acquired by the acquisition means at least for the trained target model using the second sentence information.
An information processing program that functions as.
JP2020147186A 2020-09-02 2020-09-02 Information processing system and information processing program Active JP6936370B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020147186A JP6936370B1 (en) 2020-09-02 2020-09-02 Information processing system and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020147186A JP6936370B1 (en) 2020-09-02 2020-09-02 Information processing system and information processing program

Publications (2)

Publication Number Publication Date
JP6936370B1 JP6936370B1 (en) 2021-09-15
JP2022042030A true JP2022042030A (en) 2022-03-14

Family

ID=77657926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020147186A Active JP6936370B1 (en) 2020-09-02 2020-09-02 Information processing system and information processing program

Country Status (1)

Country Link
JP (1) JP6936370B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210124780A (en) 2020-04-07 2021-10-15 현대자동차주식회사 Polymer electrolyte membrane for fuel cell and method of manufacturing same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161968A (en) * 2015-02-26 2016-09-05 日本電信電話株式会社 Word vector learning device, natural language processing device, method, and program
US20180018971A1 (en) * 2016-07-15 2018-01-18 Samsung Electronics Co., Ltd. Word embedding method and apparatus, and voice recognizing method and apparatus
US20190286716A1 (en) * 2018-03-19 2019-09-19 Adobe Inc. Online Dictionary Extension of Word Vectors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161968A (en) * 2015-02-26 2016-09-05 日本電信電話株式会社 Word vector learning device, natural language processing device, method, and program
US20180018971A1 (en) * 2016-07-15 2018-01-18 Samsung Electronics Co., Ltd. Word embedding method and apparatus, and voice recognizing method and apparatus
US20190286716A1 (en) * 2018-03-19 2019-09-19 Adobe Inc. Online Dictionary Extension of Word Vectors

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
壹岐 太一 外2名: "学術分野に特化した事前学習済み日本語言語モデルの構築", 情報処理学会 研究報告 情報基礎とアクセス技術(IFAT) 2020−IFAT−139 [ONLIN, JPN6021007363, 24 July 2020 (2020-07-24), JP, pages 1 - 6, ISSN: 0004458649 *
岩田 憲治、吉田 尚水: "開発コストやカスタマイズコストを削減する統計的手法を用いた音声対話システム", 東芝レビュー VOL.73 NO.5 [ONLINE], vol. 第73巻第5号, JPN6021007362, 21 September 2018 (2018-09-21), JP, pages 58 - 62, ISSN: 0004458648 *

Also Published As

Publication number Publication date
JP6936370B1 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
US9542477B2 (en) Method of automated discovery of topics relatedness
Kristensson et al. A design engineering approach for quantitatively exploring context-aware sentence retrieval for nonspeaking individuals with motor disabilities
Banik et al. Gru based named entity recognition system for bangla online newspapers
JP2023018624A (en) Data generation method using language model, computer device, and computer program
JP2021179980A (en) Method for extracting category of item for shopping search
Bryl et al. Interlinking and knowledge fusion
Jarvis et al. Native language identification
JP6936370B1 (en) Information processing system and information processing program
Mihret et al. Sentiment Analysis Model for Opinionated Awngi Text
Singh et al. Optimal feature selection and invasive weed tunicate swarm algorithm-based hierarchical attention network for text classification
Lopez-de-Ipina et al. Multilingual audio information management system based on semantic knowledge in complex environments
Petcuşin et al. An experiment on automated requirements mapping using deep learning methods
Popova et al. Keyphrase extraction using extended list of stop words with automated updating of stop words list
Kim et al. Bat4RCT: A suite of benchmark data and baseline methods for text classification of randomized controlled trials
Huszár Multilingual prompt engineering via large language models: an approach to sentiment analysis
Kunanets et al. Enhanced LSA Method with Ukraine Language Support.
Ngo et al. Identifying user intents in Vietnamese spoken language commands and its application in smart mobile voice interaction
Alian et al. Unsupervised learning blocking keys technique for indexing Arabic entity resolution
JP5342574B2 (en) Topic modeling apparatus, topic modeling method, and program
Langlais et al. Issues in analogical inference over sequences of symbols: A case study on proper name transliteration
Shenoy et al. Design of chatbot using natural language processing
Butt et al. Emotional speech recognition using SMILE features and random forest tree
Rajesh et al. Significance of natural language processing in data analysis using business intelligence
Espin-Riofrio et al. Spanish Stylometric Features to Determine Gender and Profession of Ecuadorian Twitter Users
Cooper Data warehouse, bronze, gold, STEC, software

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200902

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210826

R150 Certificate of patent or registration of utility model

Ref document number: 6936370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250