JP2015230570A - Learning model creation device, determination system and learning model creation method - Google Patents

Learning model creation device, determination system and learning model creation method Download PDF

Info

Publication number
JP2015230570A
JP2015230570A JP2014116280A JP2014116280A JP2015230570A JP 2015230570 A JP2015230570 A JP 2015230570A JP 2014116280 A JP2014116280 A JP 2014116280A JP 2014116280 A JP2014116280 A JP 2014116280A JP 2015230570 A JP2015230570 A JP 2015230570A
Authority
JP
Japan
Prior art keywords
user
learning model
learning
data
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014116280A
Other languages
Japanese (ja)
Other versions
JP6231944B2 (en
Inventor
充敏 熊谷
Mitsutoshi Kumagai
充敏 熊谷
慎吾 折原
Shingo Orihara
慎吾 折原
靖 岡野
Yasushi Okano
靖 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014116280A priority Critical patent/JP6231944B2/en
Publication of JP2015230570A publication Critical patent/JP2015230570A/en
Application granted granted Critical
Publication of JP6231944B2 publication Critical patent/JP6231944B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To create a learning model having high determination accuracy.SOLUTION: A learning model creation device comprises: a reception part for receiving learning data, in which input information and a label corresponding to the input information are combined, about each of plural users; a calculation part for, calculating an index value indicating difference between a feature of the user and a feature of other user, for every user, based on the feature of the user indicated by the learning data for each user; and a learning model creation part for, when creating the learning model for determining the label which corresponds to unknown input data, based on the learning data for each of plural users, reducing a degree that the learning data of the user having large difference between the feature of the user and feature of other user, contributes to the learning model, based on the index value calculated for every user, for creating the learning model.

Description

本発明は、学習モデル作成装置、判定システムおよび学習モデル作成方法に関する。   The present invention relates to a learning model creation device, a determination system, and a learning model creation method.

従来、機械学習においては、判別対象のデータの入力を受け付け、そのデータの内容の種別(これをラベルとよぶ)を判定して出力する手法として、教師つき学習と呼ばれるものがある。この教師つき学習では、複数のユーザから与えられる学習データを基に学習モデルを作成する。次いで、ラベルが未知であるデータの入力を受け付け、作成した学習モデルに基づいてそのデータのラベルを判定する。なお、学習データは、テキスト、画像、音声等のデータと、そのデータの内容の種別であるラベルとの組を複数のユーザから集めたものである。また、学習モデルは、データに対応するラベルを判定するためのパラメータである。   Conventionally, in machine learning, there is a technique called supervised learning as a technique for receiving input of data to be discriminated and determining and outputting the type of data content (this is called a label). In this supervised learning, a learning model is created based on learning data given from a plurality of users. Next, the input of data whose label is unknown is received, and the label of the data is determined based on the created learning model. Note that the learning data is a collection of a set of data such as text, image, and sound and a label that is a type of content of the data from a plurality of users. The learning model is a parameter for determining a label corresponding to data.

ラベルが未知であるデータの判定精度は元となる学習モデルによる影響が大きい。このため、学習モデルの作成においては、各ユーザからの学習データを基に、各ユーザ固有の学習モデル(ユーザモデル)を作成し、各ユーザのユーザモデルの単純平均によって、判定に用いる学習モデルを作成するものがある(非特許文献1参照)。また、ラベルの信頼度が所定の基準を満たす学習データ(エキスパートデータ)を基に、非エキスパートデータごとに信頼度を算出し、算出した信頼度を学習データに加味して学習モデルを作成するものがある(特許文献1参照)。   The determination accuracy of data whose label is unknown is greatly influenced by the original learning model. For this reason, in creating a learning model, a learning model (user model) unique to each user is created based on learning data from each user, and a learning model used for determination is determined by a simple average of the user models of each user. There is something to be created (see Non-Patent Document 1). Also, based on learning data (expert data) where the reliability of the label satisfies a predetermined standard, the reliability is calculated for each non-expert data, and a learning model is created by adding the calculated reliability to the learning data. (See Patent Document 1).

特開2009−282686号公報JP 2009-282686 A

Hiroshi Kajino, Yuta Tsuboi, Hisashi Kashima, "A Convex Formulation for Learning from Crowds", Proceedings of the Twenty-Sixth AAAI Conference on Artificial IntelligenceHiroshi Kajino, Yuta Tsuboi, Hisashi Kashima, "A Convex Formulation for Learning from Crowds", Proceedings of the Twenty-Sixth AAAI Conference on Artificial Intelligence

しかしながら、上述した従来技術では、誤ったラベルを付与されたデータ(以後、これを誤った学習データと呼ぶ)を与えるユーザが存在した場合であっても、そのユーザのユーザモデルも単純平均によって、判定に用いる学習モデルの作成に影響を及ぼすことから、判定精度が落ちてしまう場合があった。また、エキスパートデータが少ない場合には、非エキスパートデータの信頼度を算出することが困難となる。このため、高精度な判定が可能な学習モデルの作成が困難となる場合があった。   However, in the above-described conventional technology, even when there is a user who gives data with an erroneous label (hereinafter referred to as erroneous learning data), the user model of the user is also obtained by a simple average, Since it affects the creation of the learning model used for the determination, the determination accuracy may be reduced. Moreover, when there is little expert data, it becomes difficult to calculate the reliability of non-expert data. For this reason, it may be difficult to create a learning model capable of highly accurate determination.

本発明は、上記に鑑みてなされたものであって、判定精度の高い学習モデルを作成することを可能とする学習モデル作成装置、判定システムおよび学習モデル作成方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a learning model creation device, a determination system, and a learning model creation method that can create a learning model with high determination accuracy.

上述した課題を解決し、目的を達成するために、実施形態にかかる学習モデル作成装置は、複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部とを備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the learning model creation device according to the embodiment accepts learning data including a combination of input information and a label corresponding to the input information for a plurality of users. A calculation unit that calculates, for each user, an index value indicating a difference between the feature of the user and the feature of another user, based on the feature of the user indicated by the reception unit and the learning data for each user; When creating a learning model for determining a label corresponding to input data whose label is unknown based on the learning data of the plurality of users, other users are based on the index value calculated for each user. And a learning model creation unit that creates the learning model by reducing the degree to which the learning data of the user whose feature difference is large contributes to the learning model. And butterflies.

本発明によれば、判定精度の高い学習モデルを作成することができる、という効果を奏する。   According to the present invention, it is possible to create a learning model with high determination accuracy.

図1は、第1の実施形態にかかる判定システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a configuration of a determination system according to the first embodiment. 図2は、学習データを説明する説明図である。FIG. 2 is an explanatory diagram for explaining learning data. 図3は、ユーザモデル作成部を説明する説明図である。FIG. 3 is an explanatory diagram illustrating the user model creation unit. 図4は、異常度の算出を説明する説明図である。FIG. 4 is an explanatory diagram for explaining the calculation of the degree of abnormality. 図5は、異常度の算出を説明する説明図である。FIG. 5 is an explanatory diagram for explaining the calculation of the degree of abnormality. 図6は、異常度の算出を説明する説明図である。FIG. 6 is an explanatory diagram for explaining the calculation of the degree of abnormality. 図7は、第1の実施形態にかかる判定システムの処理フローを説明する説明図である。FIG. 7 is an explanatory diagram illustrating a processing flow of the determination system according to the first embodiment. 図8は、第2の実施形態にかかる判定システムの構成の一例を示すブロック図である。FIG. 8 is a block diagram illustrating an example of a configuration of a determination system according to the second embodiment. 図9は、第2の実施形態にかかる学習モデル作成の処理を示すフローチャートである。FIG. 9 is a flowchart illustrating a learning model creation process according to the second embodiment. 図10は、実施形態にかかる判定システムの学習モデル作成装置および判定装置における処理がコンピュータを用いて具体的に実現されることを示す図である。FIG. 10 is a diagram illustrating that the learning model creating apparatus and the determination apparatus of the determination system according to the embodiment are specifically implemented using a computer.

以下、添付図面を参照して実施形態にかかる学習モデル作成装置、判定システムおよび学習モデル作成方法を詳細に説明する。なお、以下の説明において、同様の構成要素には共通の符号を付与するとともに、重複する説明を省略する。   Hereinafter, a learning model creation device, a determination system, and a learning model creation method according to embodiments will be described in detail with reference to the accompanying drawings. In the following description, common constituent elements are given common reference numerals, and redundant description is omitted.

(第1の実施形態)
図1は、第1の実施形態にかかる判定システムの構成の一例を示すブロック図である。図1に示すように、判定システム1は、複数のユーザの学習データD1を受け付けて学習モデルM1を作成する学習モデル作成装置10と、ラベルが未知であるデータD2の入力を受け付け、学習モデル作成装置10が作成した学習モデルM1に基づいてデータD2のラベルを判定する判定装置20とを有する。
(First embodiment)
FIG. 1 is a block diagram illustrating an example of a configuration of a determination system according to the first embodiment. As shown in FIG. 1, the determination system 1 receives learning data D1 from a plurality of users and creates a learning model M1, and receives an input of data D2 whose label is unknown, and creates a learning model. And a determination device 20 that determines the label of the data D2 based on the learning model M1 created by the device 10.

学習モデル作成装置10は、学習データ変換部101と、学習データ格納部102と、ユーザモデル作成部103と、異常度算出部104と、学習モデル作成部105とを有する。   The learning model creation device 10 includes a learning data conversion unit 101, a learning data storage unit 102, a user model creation unit 103, an abnormality degree calculation unit 104, and a learning model creation unit 105.

学習データ変換部101は、学習データD1の入力を受け付ける。学習データD1は、複数のユーザから与えられ、教師つき学習における教師データに相当するデータである。具体的には、学習データD1は、ユーザの入力情報であるテキスト、画像、音声等のデータと、そのデータの内容の種別であるラベルとを少なくとも組としたデータである。   The learning data conversion unit 101 receives input of learning data D1. The learning data D1 is data that is given by a plurality of users and corresponds to teacher data in supervised learning. Specifically, the learning data D1 is data including at least a set of data such as text, image, and voice that are user input information and a label that is a type of content of the data.

図2は、学習データD1を説明する説明図である。図2に示すように、学習データD1は、ユーザの入力情報がテキストである場合、「野球をしたい」などのテキストと、そのテキスト内容の種別を示す「スポーツ」等のラベルと、ユーザを識別するためのユーザIDとを有する。この学習データD1は、例えばコンソールからの入力の他、インターネット上の掲示板、ブログ、SNS(ソーシャル・ネットワーキング・サービス)などへのユーザの書き込みを収集したものであってもよい。   FIG. 2 is an explanatory diagram for explaining the learning data D1. As shown in FIG. 2, when the user input information is text, the learning data D1 identifies text such as “I want to play baseball”, a label such as “sports” indicating the type of the text content, and the user. And a user ID for The learning data D1 may be, for example, collected from user input to a bulletin board on the Internet, a blog, an SNS (social networking service), etc., in addition to input from a console.

学習データ変換部101は、入力された学習データD1について、データの特徴をn次元のベクトルで表記した特徴ベクトルと、ラベルの内容を数値化した数値ラベルの組に変換する。特徴ベクトルへの変換は、機械学習で一般的に用いられている公知の手法を利用する。例えば、データがテキストの場合には、形態素解析、n−gramまたは区切り文字により特徴ベクトルへ変換する手法がある。一般に、形態素解析は日本語のテキストに、空白区切りは英語のテキストに適用されることが多く、テキストの種別(日本語/英語)によって手法を変更してもよい。   The learning data conversion unit 101 converts the input learning data D1 into a set of a feature vector in which the feature of the data is expressed by an n-dimensional vector and a numerical label in which the contents of the label are digitized. For the conversion to the feature vector, a known method generally used in machine learning is used. For example, when the data is text, there is a method of converting to a feature vector by morphological analysis, n-gram or delimiter. In general, morphological analysis is often applied to Japanese text and white space is applied to English text, and the method may be changed depending on the type of text (Japanese / English).

形態素解析の場合は、予め設定された辞書データをもとに、データを品詞に分割し、分割された要素をもとに特徴ベクトルへ変換する。例えば、「今日は、サッカーを、する」というテキストは、「今日/は/、/サッカー/を/、/する」と分割され、分割された要素をもとに特徴ベクトルに変換する。   In the case of morphological analysis, the data is divided into parts of speech based on preset dictionary data, and converted into feature vectors based on the divided elements. For example, the text “Today plays soccer” is divided as “Today / ha /, // soccer ////”, and is converted into a feature vector based on the divided elements.

また、n−gramの場合は、データを先頭から1文字ずつずらしながらn文字の組をつくり、それらを特徴ベクトルに変換する。例えば、「今日は、サッカーを、する」というテキストは、n−gram(n=6)の場合、「今日は、サッ/日は、サッカ/…/カーを、する」という要素が作られ、これらの要素をもとに特徴ベクトルに変換する。   In the case of n-gram, a set of n characters is created while shifting the data one character at a time from the beginning, and these are converted into feature vectors. For example, if the text “Today plays soccer” is n-gram (n = 6), an element “Today is a day / day is a soccer /.../ car” is created. Based on these elements, it is converted into a feature vector.

また、区切り文字の場合は、データを予め定めた区切り文字(空白、句読点、カンマ等)によって分割し、分割された要素をもとに特徴ベクトルへ変換する。例えば、「今日は、サッカーを、する」というテキストは、区切り文字(”、”)の場合、「今日は/サッカーを/する」と分割され、分割された要素をもとに特徴ベクトルへ変換する。   In the case of a delimiter character, the data is divided by a predetermined delimiter character (space, punctuation mark, comma, etc.), and converted into a feature vector based on the divided elements. For example, the text “Today we play soccer” is divided into “Today / to play soccer” in the case of the delimiter (“,”), and converted to a feature vector based on the divided elements. To do.

特徴ベクトルへの変換には、各要素の出現回数をそのまま特徴ベクトルとする方式、出現回数によらず、ある要素が出現する(1)/出現しない(0)で数値化する方式等がある。ラベルに関しても所定の規則に従って数値化する。例えば、「スポーツ」/「非スポーツ」のラベルがある場合は、「スポーツ」を「1」、「非スポーツ」を「0」のように数値化する。   Conversion to a feature vector includes a method in which the number of appearances of each element is used as it is as a feature vector, and a method in which a certain element appears (1) / not appear (0) regardless of the number of appearances. Labels are also digitized according to predetermined rules. For example, when there is a label of “sports” / “non-sports”, “sports” is digitized as “1” and “non-sports” is expressed as “0”.

学習データ格納部102は、学習データ変換部101による変換済の学習データD1と、ユーザIDの組を格納する。学習データ格納部102は、一般のデータベース(MySQLやPostgreSQL等)を用いてもよいし、表形式やテキスト形式での格納などであってもよい。学習データ格納部102における、格納方法の種類は問わない。また、学習データ格納部102は、RAM(Random Access Memory)上に確保された作業領域で代用してもよい。   The learning data storage unit 102 stores a set of learning data D1 converted by the learning data conversion unit 101 and a user ID. The learning data storage unit 102 may use a general database (MySQL, PostgreSQL, etc.), or may be stored in a table format or a text format. The type of storage method in the learning data storage unit 102 is not limited. Further, the learning data storage unit 102 may be substituted with a work area secured on a RAM (Random Access Memory).

ユーザモデル作成部103は、学習データ格納部102から変換済の学習データD1とユーザIDの組を取り出し、ユーザID(ユーザ)ごとに固有の学習モデルであるユーザモデルを作成する。   The user model creation unit 103 retrieves a set of the converted learning data D1 and user ID from the learning data storage unit 102, and creates a user model that is a unique learning model for each user ID (user).

図3は、ユーザモデル作成部103を説明する説明図である。図3に示すように、ユーザモデル作成部103は、ユーザIDごとの学習データD11、D12に対応したユーザモデルU1、U2を作成する。ユーザモデルU1、U2は、ユーザIDが「1」、「2」におけるユーザの特徴ベクトルと数値化ラベルとの組をもとに作成される、ユーザごとの学習モデルである。ユーザモデルU1、U2の作成には、一般の機械学習手法である、ロジスティック回帰、サポートベクターマシン、パーセプトロン等を用いてもよい。作成されたユーザモデルU1、U2は、n次元のベクトルで表記される。   FIG. 3 is an explanatory diagram for explaining the user model creation unit 103. As shown in FIG. 3, the user model creation unit 103 creates user models U1 and U2 corresponding to learning data D11 and D12 for each user ID. The user models U1 and U2 are learning models for each user that are created based on a set of user feature vectors and numerical labels with user IDs “1” and “2”. The user models U1 and U2 may be created by using general machine learning techniques such as logistic regression, support vector machines, and perceptrons. The created user models U1 and U2 are represented by n-dimensional vectors.

異常度算出部104は、ユーザごとの学習データD1が示す各ユーザの特徴に基づいて、ユーザごとに、ユーザの特徴と、他のユーザの特徴とが、どの程度相違するかを示す指標値である異常度を算出する。具体的には、各ユーザの学習データD1や、ユーザモデルU1、U2を互いに比較することで、あるユーザが他のユーザとどの程度相違するかを示す異常度を算出する。この異常度の算出方法には、大きく分けて、各ユーザの学習データD1の違いにより算出する第1の算出方法、ユーザモデルU1、U2の違いにより算出する第2の算出方法、第1の算出方法と第2の算出方法を組み合わせた第3の算出方法がある。   The degree-of-abnormality calculation unit 104 is an index value indicating how much the user's characteristics and other users' characteristics are different for each user based on the characteristics of each user indicated by the learning data D1 for each user. A certain degree of abnormality is calculated. Specifically, the degree of abnormality indicating how much a certain user is different from other users is calculated by comparing the learning data D1 of each user and the user models U1 and U2. The calculation method of the degree of abnormality is roughly divided into a first calculation method that is calculated based on a difference in learning data D1 of each user, a second calculation method that is calculated based on a difference between user models U1 and U2, and a first calculation. There is a third calculation method that combines the method and the second calculation method.

第1の算出方法では、各ユーザの学習データD1の要素の違いを基に、各ユーザの異常度を算出する。例えば、他のユーザと比べて学習データの要素が極端に少ない、もしくは多いユーザの異常度を高く算出する。   In the first calculation method, the degree of abnormality of each user is calculated based on the difference in the elements of the learning data D1 of each user. For example, the degree of abnormality of a user having extremely few or many learning data elements compared to other users is calculated to be high.

図4は、異常度の算出を説明する説明図であり、より具体的には、第1の算出方法による異常度の算出を説明する図である。図4に示すように、第1の算出方法の具体例としては、全てのユーザの学習データ数の平均(図示例では「40」)を算出し、算出した平均と各ユーザの学習データ数との差を、各ユーザの異常度と定義する方法がある。また、全てのユーザの学習データ数の中央値(図示例では「30」)と、各ユーザの学習データ数の差を、各ユーザの異常度と定義する方法がある。なお、第1の算出方法は、図4の例に限定するものではなく、各ユーザの学習データD1の要素を互いに比較する方法であれば他の方法を用いてもよい。   FIG. 4 is an explanatory diagram for explaining the calculation of the degree of abnormality, and more specifically, a diagram for explaining the calculation of the degree of abnormality by the first calculation method. As shown in FIG. 4, as a specific example of the first calculation method, an average of the number of learning data of all users (“40” in the illustrated example) is calculated, and the calculated average and the number of learning data of each user are calculated. There is a method of defining the difference between each user as the degree of abnormality of each user. In addition, there is a method of defining the difference between the median value of the number of learning data of all users (“30” in the illustrated example) and the number of learning data of each user as the degree of abnormality of each user. Note that the first calculation method is not limited to the example of FIG. 4, and any other method may be used as long as the elements of the learning data D1 of each user are compared with each other.

第2の算出方法では、ユーザモデルU1、U2を表すベクトルの大きさや方向の違いを基に、各ユーザの異常度を算出する。例えば、ユーザモデルU1、U2を表すベクトルの大きさや方向が、他とは異なるユーザの異常度を高く算出する。   In the second calculation method, the degree of abnormality of each user is calculated based on the difference in the size and direction of the vectors representing the user models U1 and U2. For example, the degree of abnormality of a user whose magnitude and direction of vectors representing the user models U1 and U2 are different from others is calculated high.

図5、図6は、異常度の算出を説明する説明図であり、より具体的には、第2の算出方法による異常度の算出を説明する図である。ここで、図5、図6におけるV、VおよびVはユーザIDが「1」、「2」、「3」のユーザモデルを2次元のベクトルとして表記したものである。また、図5におけるVは、V、VおよびVの平均のベクトルである。また、図6におけるV1n、V2nおよびV3nは、V、VおよびVを正規化したベクトルである。また、図6におけるVanは、V1n、V2nおよびV3nの平均のベクトルである。 5 and 6 are explanatory diagrams for explaining the calculation of the degree of abnormality, and more specifically, for explaining the calculation of the degree of abnormality by the second calculation method. Here, V 1 , V 2, and V 3 in FIG. 5 and FIG. 6 represent user models having user IDs “1”, “2”, and “3” as two-dimensional vectors. Further, V a in FIG. 5 is an average vector of V 1 , V 2 and V 3 . Further, V 1n , V 2n and V 3n in FIG. 6 are vectors obtained by normalizing V 1 , V 2 and V 3 . Further, V an in FIG. 6 is an average vector of V 1n , V 2n, and V 3n .

図5に示すように、第2の算出方法としては、各ユーザのユーザモデルであるV、VおよびVの平均をとり、平均とV、VおよびVとの距離D、D、Dをユーザごとの異常度と定義する方法がある。この場合、Vと、V、VおよびVとの距離D、D、Dが大きくなるほど、異常度は高くなる。 As shown in FIG. 5, as the second calculation method of taking the average of V 1, V 2 and V 3 is a user model for each user, the distance between the average and the V 1, V 2 and V 3 D 1 , D 2 and D 3 are defined as the degree of abnormality for each user. In this case, the degree of abnormality increases as distances D 1 , D 2 , D 3 between V a and V 1 , V 2, and V 3 increase.

また、図6に示すように、第2の算出方法としては、各ユーザのユーザモデルであるV、VおよびVについて正規化し、正規化したV1n、V2nおよびV3nの平均をとる。そして、平均したVanと、V、VおよびVとのなす角度をユーザごとの異常度と定義する方法がある。この場合、Vanと、V、VおよびVとのなす角度が大きくなるほど、異常度は高くなる。なお、第2の算出方法は、図5、6の例に限定するものではなく、各ユーザのユーザモデルU1、U2をもとに比較を行う方法であれば他の方法を用いてもよい。 Further, as shown in FIG. 6, the second calculation method is to normalize V 1 , V 2 and V 3 which are user models of each user, and calculate the average of normalized V 1n , V 2n and V 3n . Take. Then, there is a method of defining the angle formed by the averaged V an and V 1 , V 2, and V 3 as the degree of abnormality for each user. In this case, the degree of abnormality increases as the angle between V an and V 1 , V 2, and V 3 increases. Note that the second calculation method is not limited to the examples of FIGS. 5 and 6, and other methods may be used as long as the comparison is performed based on the user models U1 and U2 of each user.

第3の算出方法としては、例えば、(第1の算出方法で算出された異常度)+(第2の算出方法で算出された異常度)と算出する方法がある。なお、第1の算出方法および第2の算出方法の組み合わせは、上述した単純加算以外に乗算を用いてもよく、特に限定しない。   As a third calculation method, for example, there is a method of calculating (abnormality calculated by the first calculation method) + (abnormality calculated by the second calculation method). Note that the combination of the first calculation method and the second calculation method may use multiplication in addition to the above-described simple addition, and is not particularly limited.

学習モデル作成部105は、入力された学習データD1に基づいて、判定装置20がデータD2に対応したラベルを判定するための学習モデルM1を作成する。具体的には、学習モデル作成部105は、ユーザモデル作成部103が作成した各ユーザのユーザモデルを統合した学習モデルM1を作成し、判定装置20へ出力する。この学習モデルM1の作成に際し、学習モデル作成部105は、異常度算出部104が算出した各ユーザの異常度に基づいて、他のユーザと特徴の相違が大きい、すなわち異常度の大きいユーザのユーザモデルが学習モデルM1に寄与する度合いを小さくして、学習モデルM1を作成する。異常度に応じてユーザの学習データD1の寄与を変更する方法としては、異常度から各ユーザモデルの重みを定義し、その重み付き平均により学習モデルを作成する方法、所定の閾値未満の重みに対応するユーザモデルを排除した上で学習モデルを作成する方法などがある。   The learning model creation unit 105 creates a learning model M1 for the determination device 20 to determine a label corresponding to the data D2 based on the input learning data D1. Specifically, the learning model creation unit 105 creates a learning model M1 that integrates the user models of each user created by the user model creation unit 103, and outputs the learning model M1 to the determination device 20. In creating the learning model M1, the learning model creating unit 105 has a large feature difference from other users based on the degree of abnormality of each user calculated by the degree of abnormality calculating unit 104, that is, a user of a user having a large degree of abnormality. The learning model M1 is created by reducing the degree of contribution of the model to the learning model M1. As a method of changing the contribution of the learning data D1 of the user according to the degree of abnormality, the weight of each user model is defined from the degree of abnormality, a method of creating a learning model by the weighted average, and a weight less than a predetermined threshold There is a method of creating a learning model after excluding a corresponding user model.

重み付き平均により学習モデルを作成する方法において、ユーザモデルの重みの定め方としては、例えば異常度の逆数を重みとする方法がある。異常度の逆数を重みとする場合、異常度が0の時には、逆数の計算ができないため、予め設定しておいた数値を重みとする等の例外処理を行う。なお、重要度から重みを定める方法は上記に限定しない。   In the method of creating a learning model by weighted average, as a method of determining the weight of the user model, for example, there is a method in which the reciprocal of the degree of abnormality is used as the weight. When the reciprocal of the degree of abnormality is used as a weight, when the degree of abnormality is 0, the reciprocal cannot be calculated. Therefore, exception processing such as using a preset numerical value as a weight is performed. The method for determining the weight from the importance is not limited to the above.

例えば、wiをユーザID=iのユーザモデルとし、λをユーザモデルwの重み、Kをユーザの総数としたとき、学習モデルwは以下の式(1)で算出してもよい。 For example, when w i is the user model of user ID = i, λ i is the weight of the user model w i , and K is the total number of users, the learning model w 0 may be calculated by the following equation (1). .

Figure 2015230570
Figure 2015230570

式(1)を用いる方法では、異常度の高いユーザモデルwは、学習モデルwへの寄与が小さくなる。 In the method using Expression (1), the user model w i having a high degree of abnormality has a small contribution to the learning model w 0 .

所定の閾値未満の重みに対応するユーザモデルを排除した上で学習モデルを作成する方法としては、重みλがある所定の閾値を下回っているユーザモデルwは用いずに学習モデルwを作成する方法がある。この閾値の設定方法は、ユーザがコンソール等より予め定める方法、重みλの平均を閾値とする方法があるが、それらに限定しない。 As a method of creating a learning model after eliminating a user model corresponding to a weight less than a predetermined threshold, the learning model w 0 is used without using the user model w i whose weight λ i is lower than a predetermined threshold. There is a way to create. The threshold value setting method includes a method in which the user predetermines from the console or the like, and a method in which the average of the weights λ i is used as the threshold value, but is not limited thereto.

例えば、所定の閾値をaとした場合の学習モデルwは、以下の式(2)で算出してもよい。 For example, the learning model w 0 when the predetermined threshold value is a may be calculated by the following equation (2).

Figure 2015230570
Figure 2015230570

また、重みが閾値a以上となるユーザモデルwは、すべて均等に扱って学習モデルwを算出してもよい。この場合、学習モデルwは、以下の式(3)で与えられる。 Further, all the user models w i whose weight is equal to or greater than the threshold value a may be handled equally to calculate the learning model w 0 . In this case, the learning model w 0 is given by the following equation (3).

Figure 2015230570
Figure 2015230570

なお、すべてのユーザモデルの重みλが閾値aを下回った場合は、学習モデルwは0ベクトルとしてもよい。 If the weights λ i of all user models are below the threshold value a, the learning model w 0 may be a 0 vector.

判定装置20は、データ変換部201と、判定部202と、学習モデル格納部203と、判定結果出力部204とを有する。   The determination device 20 includes a data conversion unit 201, a determination unit 202, a learning model storage unit 203, and a determination result output unit 204.

データ変換部201は、ラベルが未知であるデータD2を入力として受け付ける。このデータD2は、例えばコンソールからの入力の他、例えば、入力がテキストの場合には、インターネット上の掲示板、ブログ、SNSなどへの任意の書き込みを収集したものであってもよい。データ変換部201は、学習データ変換部101と同様、受け付けたデータD2を特徴ベクトルに変換する。特徴ベクトルに変換されたデータD2は判定部202へ出力される。   The data conversion unit 201 receives data D2 whose label is unknown as an input. For example, when the input is text, the data D2 may be collected from arbitrary writing on a bulletin board, blog, SNS, etc. on the Internet. Similar to the learning data conversion unit 101, the data conversion unit 201 converts the received data D2 into a feature vector. The data D2 converted to the feature vector is output to the determination unit 202.

判定部202は、特徴ベクトルに変換されたデータD2を受け取ると、学習モデル格納部203に格納されている学習モデルM1を参照し、データD2に対応するラベルを判定する。具体的には、特徴ベクトルと学習モデルM1との内積が0より大きければ数値化ラベル=1、0より小さければ数値化ラベル=0、0であれば数値化ラベル=−1(「−1」は「判定不能」を示す)のように、判定部202は、特徴ベクトルと学習モデルM1との内積の値をもとにラベル判定を行う。   When the determination unit 202 receives the data D2 converted into the feature vector, the determination unit 202 refers to the learning model M1 stored in the learning model storage unit 203 and determines a label corresponding to the data D2. Specifically, if the inner product of the feature vector and the learning model M1 is greater than 0, the quantification label = 1, if it is less than 0, the quantification label = 0, and if it is 0, the quantification label = 1 (“−1”). The determination unit 202 performs label determination based on the inner product value of the feature vector and the learning model M1.

学習モデル格納部203は、学習モデル作成装置10にて作成された学習モデルM1を格納する。学習モデル格納部203は、一般のデータベース(MySQLやPostgreSQL等)を用いてもよいし、表形式やテキスト形式での格納などであってもよい。学習モデル格納部203における、格納方法の種類は問わない。   The learning model storage unit 203 stores the learning model M1 created by the learning model creation device 10. The learning model storage unit 203 may use a general database (MySQL, PostgreSQL, etc.), or may be stored in a table format or a text format. The type of storage method in the learning model storage unit 203 does not matter.

判定結果出力部204は、判定部202で得られた判定結果(数値化ラベル)を、数値化ラベルとラベル表記との対応テーブルなどを参照し、数値化する前のラベルに変換する。そして、判定結果出力部204は、変換したラベルをユーザに識別可能な判定結果R1として出力する。ただし、判定部202で得られた判定結果が「−1」の場合には、「判定不能」などの文字列を判定結果R1として出力する。ここで、判定結果出力部204が行う判定結果R1の出力は、ディスプレイへの表示出力、HDD(Hard Disk Drive)等の記憶媒体へ書き込み、ネットワーク上の他の情報処理装置(例えばPC(Personal Computer)等)への送信などであってよい。   The determination result output unit 204 converts the determination result (numerical label) obtained by the determination unit 202 into a label before digitization with reference to a correspondence table between the numerical label and label notation. Then, the determination result output unit 204 outputs the converted label as a determination result R1 that can be identified by the user. However, when the determination result obtained by the determination unit 202 is “−1”, a character string such as “determination impossible” is output as the determination result R1. Here, the output of the determination result R1 performed by the determination result output unit 204 is displayed on a display, written to a storage medium such as an HDD (Hard Disk Drive), and other information processing apparatuses on the network (for example, a PC (Personal Computer) ) Etc.).

図7は、第1の実施形態にかかる判定システム1の処理フローを説明する説明図である。図7に示すように、学習モデル作成装置10は、複数のユーザについて、入力情報と、その入力情報に対応したラベルとを少なくとも組とする学習データD11、D12、D13…を受け付ける。そして、学習モデル作成装置10は、学習データ変換部101において、ユーザごとの学習データD11、D12、D13が示す特徴ベクトルへの変換等の学習データ変換の処理を行う(S1)。   FIG. 7 is an explanatory diagram illustrating a processing flow of the determination system 1 according to the first embodiment. As illustrated in FIG. 7, the learning model creation device 10 receives learning data D11, D12, D13... That includes at least a set of input information and a label corresponding to the input information for a plurality of users. Then, the learning model creation apparatus 10 performs learning data conversion processing such as conversion to the feature vector indicated by the learning data D11, D12, and D13 for each user in the learning data conversion unit 101 (S1).

次いで、学習モデル作成装置10は、ユーザモデル作成部103において、変換後のデータをもとにユーザモデルを作成し、異常度算出部104において、ユーザごとに、このユーザの特徴と、他のユーザの特徴との相違を示す異常度を算出する。そして、学習モデル作成装置10は、学習モデル作成部105において、算出した異常度と、ユーザモデルとに基づいて学習モデルM1を作成する処理(S2)を行う。このS2では、ユーザごとに算出された異常度に基づいて、他のユーザと特徴の相違が大きいユーザのユーザモデルが学習モデルM1に寄与する度合いを小さくする。   Next, the learning model creation apparatus 10 creates a user model based on the converted data in the user model creation unit 103, and the abnormality degree calculation unit 104 determines the user characteristics and other users for each user. The degree of abnormality indicating the difference from the feature is calculated. Then, the learning model creation device 10 performs processing (S2) in the learning model creation unit 105 that creates the learning model M1 based on the calculated degree of abnormality and the user model. In S <b> 2, based on the degree of abnormality calculated for each user, the degree to which the user model of the user who has a large feature difference from other users contributes to the learning model M <b> 1 is reduced.

判定装置20は、ラベルが未知のデータD2の入力を受け付ける。そして、判定装置20は、データ変換部201において、受け付けたデータD2の特徴ベクトルへの変換等のデータ変換の処理を行う(S3)。次いで、判定装置20は、判定部202において、データ変換後のデータD2を受け取り、S2で作成された学習モデルM1を参照し、データD2に対応するラベルを判定する(S4)。そして、判定装置20は、判定したラベル(図示例では「スポーツ」)を判定結果R1として出力する。   The determination device 20 receives input of data D2 whose label is unknown. Then, in the data conversion unit 201, the determination device 20 performs data conversion processing such as conversion of the received data D2 into a feature vector (S3). Next, in the determination unit 202, the determination unit 202 receives the data D2 after data conversion, refers to the learning model M1 created in S2, and determines a label corresponding to the data D2 (S4). Then, the determination device 20 outputs the determined label (“sports” in the illustrated example) as the determination result R1.

以上のように、学習モデル作成装置10は、複数のユーザについて、入力情報と、その入力情報に対応したラベルとを少なくとも組とする学習データD1を受け付ける。そして、学習モデル作成装置10は、ユーザごとの学習データD1が示す特徴に基づいて、ユーザごとに、このユーザの特徴と、他のユーザの特徴との相違を示す異常度を算出する。そして、学習モデル作成装置10は、判定装置20がデータD2に対応したラベルを判定するための学習モデルM1を学習データD1に基づいて作成する際に、ユーザごとに算出された異常度に基づいて、他のユーザと特徴の相違が大きいユーザの学習データD1が学習モデルM1に寄与する度合いを小さくする。   As described above, the learning model creation device 10 accepts learning data D1 including at least a set of input information and a label corresponding to the input information for a plurality of users. Then, the learning model creation apparatus 10 calculates, for each user, a degree of abnormality indicating a difference between the user's feature and another user's feature based on the feature indicated by the learning data D1 for each user. The learning model creation device 10 then creates a learning model M1 for determining a label corresponding to the data D2 based on the learning data D1 when the determination device 20 determines a label corresponding to the data D2. The degree of contribution of the learning data D1 of the user who has a large feature difference from the other users to the learning model M1 is reduced.

このため、学習モデル作成装置10は、誤った学習データD1を与えるユーザが存在した場合であっても、そのユーザの学習データD1が学習モデルM1に寄与する度合いを小さくすることができ、判定精度の高い学習モデルM1を作成することができる。例えば、誤った学習データD1を与えるユーザが少数の場合には、それらのユーザが与える学習データD1やユーザモデルは多数のユーザのものと大きく異なるものとなる。したがって、誤った学習データD1を与えるユーザは異常度が高くなる。異常度の高いユーザの学習データD1は学習モデルM1へ寄与する度合いが小さくなるため、エキスパードデータなどで信頼度を加味することなく、判定精度の高い学習モデルM1の作成が可能となる。また、判定装置20では、学習モデル作成装置10で作成された学習モデルM1を参照してデータD2のラベル判定を行うことから、誤った学習データD1を与えるユーザの影響を抑えた、精度の高い判定を行うことが可能となる。   For this reason, even when there is a user who gives erroneous learning data D1, the learning model creation apparatus 10 can reduce the degree to which the learning data D1 of the user contributes to the learning model M1, and the determination accuracy Can be created. For example, when there are a small number of users who give erroneous learning data D1, the learning data D1 and user models given by those users are significantly different from those of many users. Therefore, a user who gives erroneous learning data D1 has a high degree of abnormality. Since the degree of contribution of the learning data D1 of the user having a high degree of abnormality to the learning model M1 is small, it is possible to create the learning model M1 with high determination accuracy without taking the reliability into account with the expanded data or the like. In addition, since the determination device 20 performs label determination of the data D2 with reference to the learning model M1 created by the learning model creation device 10, the influence of the user who gives erroneous learning data D1 is suppressed and the accuracy is high. A determination can be made.

(第2の実施形態)
次に、第2の実施形態について説明する。上述した第1の実施形態では、各ユーザのユーザモデルを作成した後、ユーザごとの異常度を求め、求めた異常度を重みに変換する。そして、ユーザモデルと重みを用いて学習モデルM1を作成する。すなわち、第1の実施形態では、上述した処理を順次行って学習モデルM1を作成する順次法を例示した。第2の実施形態では、学習モデル(ユーザごとのユーザモデルおよびそれらを統合した学習モデル)と、ユーザごとの重みの更新を繰り返し、所定の収束条件を満たしたところで学習モデルとして出力する繰り返し法を例示する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment described above, after creating a user model for each user, the degree of abnormality for each user is obtained, and the obtained degree of abnormality is converted into a weight. Then, the learning model M1 is created using the user model and the weight. That is, in the first embodiment, a sequential method in which the above-described processing is sequentially performed to create the learning model M1 is exemplified. In the second embodiment, a learning model (a user model for each user and a learning model that integrates them) and a weight update for each user are repeated, and an iterative method that outputs a learning model when a predetermined convergence condition is satisfied is provided. Illustrate.

図8は、第2の実施形態にかかる判定システム1aの構成の一例を示すブロック図である。図8に示すように、判定システム1aの学習モデル作成装置10aは、初期化部111、学習モデル更新部112及びパラメータ更新部113を有する学習モデル作成部110としているところが判定システム1と異なっている。   FIG. 8 is a block diagram illustrating an example of the configuration of the determination system 1a according to the second embodiment. As shown in FIG. 8, the learning model creation device 10a of the determination system 1a is different from the determination system 1 in that a learning model creation unit 110 having an initialization unit 111, a learning model update unit 112, and a parameter update unit 113 is used. .

初期化部111は、学習データ格納部102から学習データD1を受け取ると、各ユーザ(任意のユーザID=kをユーザkとする)のユーザモデルw、学習モデルw、重みλ、正則化パラメータη(実数)を予め定めておいた値で初期化する。次いで、初期化部111は、ユーザモデルw、学習モデルwおよび学習データD1を学習モデル更新部112に出力し、重みλ、正則化パラメータηをパラメータ更新部113へ出力する。 When the initialization unit 111 receives the learning data D1 from the learning data storage unit 102, the user model w k , the learning model w 0 , the weight λ k , and the regularity of each user (arbitrary user ID = k is a user k) The initialization parameter η (real number) is initialized with a predetermined value. Next, the initialization unit 111 outputs the user model w k , the learning model w 0 and the learning data D 1 to the learning model update unit 112, and outputs the weight λ k and the regularization parameter η to the parameter update unit 113.

学習モデル更新部112は、各ユーザのユーザモデルwと学習モデルwを更新する。ここで、学習モデル更新部112における更新処理の詳細について説明する。先ず、ユーザID=kのユーザkが与えたi番目の学習データD1を(xki,yki)で表す。ここで、xkiはn次元の特徴ベクトル、ykiはラベルを表し、このラベルは0または1の値をとるものとする。なお、特徴ベクトルxkiは列ベクトルである。 The learning model update unit 112 updates the user model w k and the learning model w 0 of each user. Here, the details of the update process in the learning model update unit 112 will be described. First, the i-th learning data D1 given by the user k with the user ID = k is represented by (x ki , y ki ). Here, x ki represents an n-dimensional feature vector, y ki represents a label, and this label takes a value of 0 or 1. The feature vector x ki is a column vector.

また、ユーザkの与えた学習データD1の要素の総数をIとしたとき、I個の特徴ベクトルの転置を縦に並べて作ったI×n行列を次の式(4)のXで表す。 Also, assuming that the total number of elements of the learning data D1 given by the user k is I k , an I k × n matrix formed by vertically transposing I k feature vectors is expressed as X k in the following equation (4). Represented by

Figure 2015230570
Figure 2015230570

ここで、x kiはxkiの転置を表す。また、行列Aの逆行列はA−1と表記する。 Here, x T ki represents transposition of x ki . The inverse matrix of the matrix A is denoted as A- 1 .

学習モデル更新部112は、各ユーザのユーザモデルwと学習モデルwを次の式(5)に従って更新する。なお、式(5)におけるwは更新前のユーザモデル、wnew は更新後のユーザモデルを示す。また、wは更新前の学習モデル、wnew は更新後の学習モデルを示す。 The learning model update unit 112 updates the user model w k and the learning model w 0 of each user according to the following equation (5). In Equation (5), w k represents a user model before update, and w new k represents a user model after update. In addition, w 0 is updated before the learning model, w new 0 indicates the learning model after the update.

Figure 2015230570
Figure 2015230570

ここで、βは予め定めておく必要がある正の実数であり、Hとgは次の式(6)で与えられる。   Here, β is a positive real number that needs to be determined in advance, and H and g are given by the following equation (6).

Figure 2015230570
Figure 2015230570

は、(i,i)成分が(1−σ(w ki))σ(w ki)のI次対角行列である。また、Dは、i成分がyki−σ(w ki)のI次列ベクトルである。また、Iはn次単位行列である。ここで、σは次の式(7)で与えられる関数(シグモイド関数)である。 B k is an I k -order diagonal matrix whose (i, i) component is (1−σ (w T k x ki )) σ (w T k x ki ). Further, D k is an I k -th order column vector whose i component is y ki −σ (w T k x ki ). I is an n-th unit matrix. Here, σ is a function (sigmoid function) given by the following equation (7).

Figure 2015230570
Figure 2015230570

学習モデル更新部112における更新は、所定の終了条件(収束条件)が満たされるまで実施される。ここで、終了条件としては、更新の回数が予定の数を超えた場合、更新の前後における学習モデルの変化が所定の値以下である場合などがある。   The update in the learning model update unit 112 is performed until a predetermined end condition (convergence condition) is satisfied. Here, as the end condition, there are a case where the number of updates exceeds a predetermined number, a case where the change of the learning model before and after the update is a predetermined value or less, and the like.

パラメータ更新部113は、各ユーザのユーザモデルにおける重みλと、正則化パラメータηを次の式(8)に従って更新する。この重みλは、他のユーザとの相違を示す指標値である。 The parameter updating unit 113 updates the weight λ k and the regularization parameter η in the user model of each user according to the following equation (8). The weight λ k is an index value indicating the difference from other users.

Figure 2015230570
Figure 2015230570

ここで、Tr[A]は行列Aのトレースを示す。なお、異常度の定め方としては、例えば重みの逆数を異常度とする方法が考えられるが、この方法以外であってもよく、特に限定しない。   Here, Tr [A] indicates a trace of the matrix A. Note that, as a method of determining the degree of abnormality, for example, a method in which the reciprocal of the weight is used as the degree of abnormality can be considered, but other methods may be used and there is no particular limitation.

上述した、学習モデル更新部112による学習モデル(ユーザごとのユーザモデルおよびそれらを統合した学習モデル)の更新と、パラメータ更新部113によるユーザごとの重みの更新を繰り返すことで得られる学習モデルwは、式(5)より以下の式(9)となる。 The learning model w 0 obtained by repeating the updating of the learning model (the user model for each user and the learning model integrating them) and the updating of the weight for each user by the parameter updating unit 113 described above by the learning model updating unit 112. Becomes the following equation (9) from equation (5).

Figure 2015230570
Figure 2015230570

上記の式(9)より、学習モデルwは、各ユーザモデルwの重み付き平均の定数倍で与えられることがわかる。なお、第1の実施形態における、所定の閾値未満を切り捨てる場合と同様、ある閾値aを定め、重みが閾値aを下回っているユーザモデルは上記の式で用いずに学習モデルwを作成してもよい。 From the above equation (9), it can be seen that the learning model w 0 is given by a constant multiple of the weighted average of each user model w k . As in the case of truncating less than a predetermined threshold in the first embodiment, a certain threshold a is defined, and a user model whose weight is lower than the threshold a is not used in the above formula, but a learning model w 0 is created. May be.

図9は、第2の実施形態にかかる学習モデル作成の処理を示すフローチャートである。図9に示すように、学習モデル作成部110における処理が開始されると、初期化部111は、ユーザモデルw、学習モデルw、重みλ、正則化パラメータη(実数)を初期化する(S11)。次いで、学習モデル更新部112は、初期化されたユーザモデルwと学習モデルwを更新する(S12)。 FIG. 9 is a flowchart illustrating a learning model creation process according to the second embodiment. As shown in FIG. 9, when the process in the learning model creation unit 110 is started, the initialization unit 111 initializes the user model w k , the learning model w 0 , the weight λ k , and the regularization parameter η (real number). (S11). Next, the learning model update unit 112 updates the initialized user model w k and learning model w 0 (S12).

次いで、パラメータ更新部113は、ユーザモデルにおける重みλと、正則化パラメータηを更新する(S13)。次いで、学習モデル更新部112は、S13で更新された重みλと、正則化パラメータηをもとに、ユーザモデルwと学習モデルwを更新する(S14)。次いで、学習モデル作成部110は、更新の回数が予定の数を超えたか否か、更新の前後における学習モデルの変化が所定の値以下であるか否かなど、所定の収束条件を満たすか否かを判定する(S15)。 Next, the parameter updating unit 113 updates the weight λ k and the regularization parameter η in the user model (S13). Next, the learning model update unit 112 updates the user model w k and the learning model w 0 based on the weight λ k updated in S13 and the regularization parameter η (S14). Next, the learning model creation unit 110 satisfies a predetermined convergence condition such as whether or not the number of updates exceeds a predetermined number, whether or not the change in the learning model before and after the update is equal to or less than a predetermined value, and so on. Is determined (S15).

所定の収束条件を満たさない場合(S15:NO)、学習モデル作成部110はS13へ処理を戻す。これにより、所定の収束条件を満たさない間は、ユーザモデルにおける重みλおよび正則化パラメータηの更新と、ユーザモデルwおよび学習モデルwの更新とが交互に繰り返し実施されることとなる。 When the predetermined convergence condition is not satisfied (S15: NO), the learning model creation unit 110 returns the process to S13. Thus, while the predetermined convergence condition is not satisfied, the updating of the weight λ k and the regularization parameter η in the user model and the updating of the user model w k and the learning model w 0 are alternately and repeatedly performed. .

所定の収束条件を満たす場合(S15:YES)、学習モデル作成部110は処理を終了し、収束条件を満たすまでに演算された学習モデルwを判定装置20へ出力する。 If predetermined convergence condition is satisfied (S15: YES), the learning model creation unit 110 ends the processing, and outputs a learning model w 0 computed until convergence condition is satisfied to the decision unit 20.

また、上述した実施形態において説明した学習モデル作成装置10および判定装置20が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上述した実施形態にかかる学習モデル作成装置10および判定装置20における処理と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上述した実施形態と同様の処理を実現してもよい。以下に、上述したプログラムを実行するコンピュータの一例を説明する。   It is also possible to create a program in which the processing executed by the learning model creation device 10 and the determination device 20 described in the above-described embodiment is described in a language that can be executed by a computer. In this case, when the computer executes the program, the same effect as the processing in the learning model creation device 10 and the determination device 20 according to the above-described embodiment can be obtained. Further, such a program may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer and executed to realize the same processing as that of the above-described embodiment. An example of a computer that executes the above-described program will be described below.

図10は、実施形態にかかる判定システム1の学習モデル作成装置10および判定装置20における処理がコンピュータを用いて具体的に実現されることを示す図である。図10に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。   FIG. 10 is a diagram illustrating that the processing in the learning model creation device 10 and the determination device 20 of the determination system 1 according to the embodiment is specifically realized using a computer. As illustrated in FIG. 10, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブに挿入される。シリアルポートインタフェース1050は、例えばマウス1051、キーボード1052に接続される。ビデオアダプタ1060は、例えばディスプレイ1061に接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1031. The disk drive interface 1040 is connected to the disk drive 1041. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive. The serial port interface 1050 is connected to a mouse 1051 and a keyboard 1052, for example. The video adapter 1060 is connected to the display 1061, for example.

ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記のプログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、例えばハードディスクドライブ1031に記憶される。例えば、図1に例示した学習モデル作成装置10の機能構成(学習データ変換部101、学習データ格納部102、ユーザモデル作成部103、異常度算出部104、学習モデル作成部105)や判定装置20の機能構成(データ変換部201、判定部202、判定結果出力部204、学習モデル格納部203)と同様の情報処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。   The hard disk drive 1031 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, the above program is stored in, for example, the hard disk drive 1031 as a program module 1093 in which a command to be executed by the computer 1000 is described. For example, the functional configuration of the learning model creation device 10 illustrated in FIG. 1 (the learning data conversion unit 101, the learning data storage unit 102, the user model creation unit 103, the abnormality degree calculation unit 104, the learning model creation unit 105) and the determination device 20 A program module 1093 for executing information processing similar to the functional configuration (data conversion unit 201, determination unit 202, determination result output unit 204, learning model storage unit 203) is stored in the hard disk drive 1031.

また、上述したプログラムを実行する際の作業領域などは、RAM1012に確保される。処理に必要な設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1031に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。   In addition, a work area for executing the above-described program is secured in the RAM 1012. Setting data necessary for processing is stored as program data 1094 in, for example, the memory 1010 or the hard disk drive 1031. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1031 to the RAM 1012 as necessary, and executes them.

なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。また、学習モデル作成装置10および判定装置20を備える判定システム1は、上述した一つのコンピュータで実現されるものであってよいことは言うまでもないことである。   The program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1031, but may be stored in a removable storage medium, for example, and read by the CPU 1020 via the disk drive or the like. Alternatively, the program module 1093 and the program data 1094 are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.) and read by the CPU 1020 via the network interface 1070. May be issued. Needless to say, the determination system 1 including the learning model creation device 10 and the determination device 20 may be realized by the above-described one computer.

1、1a…判定システム
10、10a…学習モデル作成装置
20…判定装置
101…学習データ変換部
102…学習データ格納部
103…ユーザモデル作成部
104…異常度算出部
105、110…学習モデル作成部
111…初期化部
112…学習モデル更新部
113…パラメータ更新部
201…データ変換部
202…判定部
203…学習モデル格納部
204…判定結果出力部
D1、D11、D12、D13…学習データ
D2…データ
M1…学習モデル
U1、U2…ユーザモデル
R1…判定結果
1000…コンピュータ
DESCRIPTION OF SYMBOLS 1, 1a ... Determination system 10, 10a ... Learning model creation apparatus 20 ... Determination apparatus 101 ... Learning data conversion part 102 ... Learning data storage part 103 ... User model creation part 104 ... Abnormality calculation part 105, 110 ... Learning model creation part 111 ... Initialization unit 112 ... Learning model update unit 113 ... Parameter update unit 201 ... Data conversion unit 202 ... Determination unit 203 ... Learning model storage unit 204 ... Determination result output units D1, D11, D12, D13 ... Learning data D2 ... Data M1 ... Learning model U1, U2 ... User model R1 ... Determination result 1000 ... Computer

Claims (8)

複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、
前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、
前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部と
を備えることを特徴とする学習モデル作成装置。
For a plurality of users, a reception unit that receives learning data including at least a set of input information and a label corresponding to the input information;
Based on the characteristics of the user indicated by the learning data for each user, for each user, a calculation unit that calculates an index value indicating the difference between the characteristics of the user and the characteristics of other users;
When creating a learning model for determining a label corresponding to input data whose label is unknown based on the learning data of the plurality of users, other users are based on the index value calculated for each user. A learning model creation device comprising: a learning model creation unit that creates a learning model by reducing a degree of contribution of learning data of a user having a large feature difference to the learning model.
前記複数のユーザの学習データに基づいて、前記ユーザごとに、当該ユーザの特徴をベクトルで示したユーザモデルを作成するユーザモデル作成部を更に備え、
前記算出部は、前記ユーザごとに作成された前記ユーザモデルのベクトルが示す大きさまたは方向、あるいは大きさと方向の両方を、前記ユーザごとに、他のユーザと比較して前記指標値を算出する
ことを特徴とする請求項1に記載の学習モデル作成装置。
A user model creation unit that creates a user model in which the features of the user are represented by vectors for each user based on the learning data of the plurality of users,
The calculation unit calculates the index value by comparing the size or direction indicated by the user model vector created for each user, or both the size and direction for each user with other users. The learning model creation apparatus according to claim 1.
前記算出部は、前記ユーザごとに作成された前記ユーザモデルの平均のユーザモデルと、前記ユーザごとのユーザモデルとを比較して前記指標値を算出する
ことを特徴とする請求項2に記載の学習モデル作成装置。
The said calculation part calculates the said index value by comparing the average user model of the said user model produced for every said user with the user model for every said user. Learning model creation device.
前記算出部は、前記ユーザごとに、当該ユーザの学習データ数と、他のユーザの学習データ数とを比較して前記指標値を算出する
ことを特徴とする請求項1に記載の学習モデル作成装置。
2. The learning model creation according to claim 1, wherein the calculation unit calculates the index value by comparing the number of learning data of the user with the number of learning data of another user for each user. apparatus.
前記学習モデル作成部は、前記ユーザごとに算出された指標値が所定の閾値を超えるか否かに基づいて、前記ユーザの学習データが前記学習モデルに寄与する度合いを変更する
ことを特徴とする請求項1乃至4のいずれか一項に記載の学習モデル作成装置。
The learning model creation unit changes a degree of contribution of the learning data of the user to the learning model based on whether or not an index value calculated for each user exceeds a predetermined threshold value. The learning model creation device according to any one of claims 1 to 4.
前記学習モデル作成部は、前記ユーザごとに、当該ユーザの学習データが前記学習モデルに寄与する度合いを更新する処理と、当該更新された度合いをもとに前記学習モデルを更新する処理とを、所定の収束条件を満たすまで繰り返して前記学習モデルを作成する
ことを特徴とする請求項1に記載の学習モデル作成装置。
The learning model creation unit, for each of the users, a process of updating the degree that the learning data of the user contributes to the learning model, and a process of updating the learning model based on the updated degree. The learning model creation apparatus according to claim 1, wherein the learning model is created repeatedly until a predetermined convergence condition is satisfied.
学習モデルを作成する学習モデル作成装置と、前記学習モデルに基づいてラベルが未知の入力データに対応したラベルを判定する判定装置とを有する判定システムであって、
前記学習モデル作成装置は、
複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、
前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、
前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための前記学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部とを備え、
前記判定装置は、
前記学習モデル作成部が作成した学習モデルを格納する格納部と、
前記格納された学習モデルに基づいて、前記ラベルが未知の入力データに対応したラベルを判定する判定部と
を備えることを特徴とする判定システム。
A determination system having a learning model generation device that generates a learning model and a determination device that determines a label corresponding to input data whose label is unknown based on the learning model,
The learning model creation device includes:
For a plurality of users, a reception unit that receives learning data including at least a set of input information and a label corresponding to the input information;
Based on the characteristics of the user indicated by the learning data for each user, for each user, a calculation unit that calculates an index value indicating the difference between the characteristics of the user and the characteristics of other users;
When creating the learning model for determining the label corresponding to the input data whose label is unknown based on the learning data of the plurality of users, based on the index value calculated for each user, A learning model creating unit that creates the learning model by reducing the degree to which the learning data of the user having a large feature difference from the user contributes to the learning model;
The determination device includes:
A storage unit for storing the learning model created by the learning model creation unit;
And a determination unit configured to determine a label corresponding to input data whose label is unknown based on the stored learning model.
学習モデル作成装置によって実行される学習モデル作成方法であって、
複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付けるステップと、
前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出するステップと、
前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成するステップと
を含むことを特徴とする学習モデル作成方法。
A learning model creation method executed by a learning model creation device,
For a plurality of users, receiving learning data including at least a pair of input information and a label corresponding to the input information;
Calculating an index value indicating a difference between the feature of the user and the feature of another user for each user based on the feature of the user indicated by the learning data for each user;
When creating a learning model for determining a label corresponding to input data whose label is unknown based on the learning data of the plurality of users, other users are based on the index value calculated for each user. And a step of creating the learning model by reducing the degree to which learning data of a user having a large feature difference contributes to the learning model.
JP2014116280A 2014-06-04 2014-06-04 Learning model creation device, determination system, and learning model creation method Active JP6231944B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014116280A JP6231944B2 (en) 2014-06-04 2014-06-04 Learning model creation device, determination system, and learning model creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116280A JP6231944B2 (en) 2014-06-04 2014-06-04 Learning model creation device, determination system, and learning model creation method

Publications (2)

Publication Number Publication Date
JP2015230570A true JP2015230570A (en) 2015-12-21
JP6231944B2 JP6231944B2 (en) 2017-11-15

Family

ID=54887313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116280A Active JP6231944B2 (en) 2014-06-04 2014-06-04 Learning model creation device, determination system, and learning model creation method

Country Status (1)

Country Link
JP (1) JP6231944B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167649A (en) * 2016-03-14 2017-09-21 日本電気株式会社 Data estimation device, data estimation method, and data estimation program
JP2018045592A (en) * 2016-09-16 2018-03-22 Kddi株式会社 Label application device, label application method, and label application program
JP2018156323A (en) * 2017-03-16 2018-10-04 ヤフー株式会社 Extraction device, extraction method, and extraction program
JP2019040543A (en) * 2017-08-29 2019-03-14 京セラドキュメントソリューションズ株式会社 Information processing system and program
JP2019046058A (en) * 2017-08-31 2019-03-22 キヤノン株式会社 Information processing device, and information processing method and program
WO2019150813A1 (en) * 2018-01-30 2019-08-08 富士フイルム株式会社 Data processing device and method, recognition device, learning data storage device, machine learning device, and program
WO2019167556A1 (en) * 2018-02-27 2019-09-06 国立大学法人九州工業大学 Label-collecting device, label collection method, and label-collecting program
JP2020149693A (en) * 2019-03-14 2020-09-17 アクタピオ,インコーポレイテッド Generation device, generation method, and generation program
JPWO2020240770A1 (en) * 2019-05-30 2020-12-03
WO2021044459A1 (en) * 2019-09-02 2021-03-11 日本電気株式会社 Learning device, prediction system, method, and program
JP2021039542A (en) * 2019-09-03 2021-03-11 トヨタ自動車株式会社 Information processing method and information processing device
JPWO2021053776A1 (en) * 2019-09-18 2021-03-25

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7297532B2 (en) 2019-05-28 2023-06-26 オークマ株式会社 DATA COLLECTION SYSTEM FOR MACHINE LEARNING AND DATA COLLECTION METHOD

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273475A (en) * 2000-03-24 2001-10-05 Denso Corp Method and device for selecting teacher data, controller with learning function and recording medium
JP2005181928A (en) * 2003-12-24 2005-07-07 Fuji Xerox Co Ltd System and method for machine learning, and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273475A (en) * 2000-03-24 2001-10-05 Denso Corp Method and device for selecting teacher data, controller with learning function and recording medium
JP2005181928A (en) * 2003-12-24 2005-07-07 Fuji Xerox Co Ltd System and method for machine learning, and computer program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
安田 陽介 外1名: "「身体的特徴情報を用いた適応的トレーニングデータ選択による日常行動認識手法」", 電気学会研究会資料 情報システム研究会, vol. IS−13−26, JPN6017038864, 21 June 2013 (2013-06-21), pages 23 - 27, ISSN: 0003659463 *
木村 周 外2名: "「モバイル端末上における行動認識のための距離関数を用いた分類モデル生成手法の提案と評価」", 電子情報通信学会技術研究報告, vol. 第111巻,第485号, JPN6017038866, March 2012 (2012-03-01), pages 113 - 118, ISSN: 0003659464 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167649A (en) * 2016-03-14 2017-09-21 日本電気株式会社 Data estimation device, data estimation method, and data estimation program
JP2018045592A (en) * 2016-09-16 2018-03-22 Kddi株式会社 Label application device, label application method, and label application program
JP2018156323A (en) * 2017-03-16 2018-10-04 ヤフー株式会社 Extraction device, extraction method, and extraction program
JP2019040543A (en) * 2017-08-29 2019-03-14 京セラドキュメントソリューションズ株式会社 Information processing system and program
JP2019046058A (en) * 2017-08-31 2019-03-22 キヤノン株式会社 Information processing device, and information processing method and program
JP7027070B2 (en) 2017-08-31 2022-03-01 キヤノン株式会社 Information processing equipment, information processing methods, and programs
US11636378B2 (en) 2017-08-31 2023-04-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and information processing system
JPWO2019150813A1 (en) * 2018-01-30 2021-01-28 富士フイルム株式会社 Data processing equipment and methods, recognition equipment, learning data storage equipment, machine learning equipment and programs
US11288550B2 (en) * 2018-01-30 2022-03-29 Fujifilm Corporation Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
WO2019150813A1 (en) * 2018-01-30 2019-08-08 富士フイルム株式会社 Data processing device and method, recognition device, learning data storage device, machine learning device, and program
JPWO2019167556A1 (en) * 2018-02-27 2021-02-04 国立大学法人九州工業大学 Label collection device, label collection method and label collection program
CN111712841A (en) * 2018-02-27 2020-09-25 国立大学法人九州工业大学 Label collecting device, label collecting method, and label collecting program
JP7320280B2 (en) 2018-02-27 2023-08-03 国立大学法人九州工業大学 Label collection device, label collection method and label collection program
WO2019167556A1 (en) * 2018-02-27 2019-09-06 国立大学法人九州工業大学 Label-collecting device, label collection method, and label-collecting program
JP7267964B2 (en) 2019-03-14 2023-05-02 アクタピオ,インコーポレイテッド Generation device, generation method and generation program
JP2020149693A (en) * 2019-03-14 2020-09-17 アクタピオ,インコーポレイテッド Generation device, generation method, and generation program
JPWO2020240770A1 (en) * 2019-05-30 2020-12-03
JP7359206B2 (en) 2019-05-30 2023-10-11 日本電信電話株式会社 Learning devices, learning methods, and programs
WO2021044459A1 (en) * 2019-09-02 2021-03-11 日本電気株式会社 Learning device, prediction system, method, and program
JP7283548B2 (en) 2019-09-02 2023-05-30 日本電気株式会社 LEARNING APPARATUS, PREDICTION SYSTEM, METHOD AND PROGRAM
JPWO2021044459A1 (en) * 2019-09-02 2021-03-11
JP7243533B2 (en) 2019-09-03 2023-03-22 トヨタ自動車株式会社 Information processing method and information processing device
JP2021039542A (en) * 2019-09-03 2021-03-11 トヨタ自動車株式会社 Information processing method and information processing device
JP7251643B2 (en) 2019-09-18 2023-04-04 日本電信電話株式会社 LEARNING DEVICE, LEARNING METHOD AND PROGRAM
JPWO2021053776A1 (en) * 2019-09-18 2021-03-25

Also Published As

Publication number Publication date
JP6231944B2 (en) 2017-11-15

Similar Documents

Publication Publication Date Title
JP6231944B2 (en) Learning model creation device, determination system, and learning model creation method
US8990128B2 (en) Graph-based framework for multi-task multi-view learning
US8886515B2 (en) Systems and methods for enhancing machine translation post edit review processes
CN106778878B (en) Character relation classification method and device
JP6772213B2 (en) Question answering device, question answering method and program
JP6462970B1 (en) Classification device, classification method, generation method, classification program, and generation program
US20130204835A1 (en) Method of extracting named entity
WO2014073206A1 (en) Information-processing device and information-processing method
KR20230013793A (en) Method and Apparatus for Classifying Document Based on Attension Mechanism and Semantic Analysis
JP5638503B2 (en) Text summarization apparatus, method and program
JP7163618B2 (en) LEARNING DEVICE, LEARNING METHOD, PROGRAM AND ESTIMATION DEVICE
JP2019160236A (en) Learning data generation method, learning data generation program and data structure
JP2020060970A (en) Context information generation method, context information generation device and context information generation program
JP5623369B2 (en) Text summarization apparatus, method and program
US20230259717A1 (en) Learning method and information processing apparatus
JP5175585B2 (en) Document processing apparatus, electronic medical chart apparatus, and document processing program
JP4405542B2 (en) Apparatus, method and program for clustering phoneme models
JP2022185799A (en) Information processing program, information processing method and information processing device
WO2020241039A1 (en) Information processing device, information processing method, and program
JP6817690B2 (en) Extraction device, extraction method and its program, support device, display control device
JP5824429B2 (en) Spam account score calculation apparatus, spam account score calculation method, and program
JP5462748B2 (en) Data visualization device, data conversion device, method, and program
CN107622129B (en) Method and device for organizing knowledge base and computer storage medium
JP5807966B2 (en) Document evaluation learning apparatus, document evaluation apparatus, method, and program
JP2017102599A (en) Estimation device, parameter learning device, method, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171020

R150 Certificate of patent or registration of utility model

Ref document number: 6231944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150