JP2015230570A - Learning model creation device, determination system and learning model creation method - Google Patents
Learning model creation device, determination system and learning model creation method Download PDFInfo
- Publication number
- JP2015230570A JP2015230570A JP2014116280A JP2014116280A JP2015230570A JP 2015230570 A JP2015230570 A JP 2015230570A JP 2014116280 A JP2014116280 A JP 2014116280A JP 2014116280 A JP2014116280 A JP 2014116280A JP 2015230570 A JP2015230570 A JP 2015230570A
- Authority
- JP
- Japan
- Prior art keywords
- user
- learning model
- learning
- data
- users
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、学習モデル作成装置、判定システムおよび学習モデル作成方法に関する。 The present invention relates to a learning model creation device, a determination system, and a learning model creation method.
従来、機械学習においては、判別対象のデータの入力を受け付け、そのデータの内容の種別(これをラベルとよぶ)を判定して出力する手法として、教師つき学習と呼ばれるものがある。この教師つき学習では、複数のユーザから与えられる学習データを基に学習モデルを作成する。次いで、ラベルが未知であるデータの入力を受け付け、作成した学習モデルに基づいてそのデータのラベルを判定する。なお、学習データは、テキスト、画像、音声等のデータと、そのデータの内容の種別であるラベルとの組を複数のユーザから集めたものである。また、学習モデルは、データに対応するラベルを判定するためのパラメータである。 Conventionally, in machine learning, there is a technique called supervised learning as a technique for receiving input of data to be discriminated and determining and outputting the type of data content (this is called a label). In this supervised learning, a learning model is created based on learning data given from a plurality of users. Next, the input of data whose label is unknown is received, and the label of the data is determined based on the created learning model. Note that the learning data is a collection of a set of data such as text, image, and sound and a label that is a type of content of the data from a plurality of users. The learning model is a parameter for determining a label corresponding to data.
ラベルが未知であるデータの判定精度は元となる学習モデルによる影響が大きい。このため、学習モデルの作成においては、各ユーザからの学習データを基に、各ユーザ固有の学習モデル(ユーザモデル)を作成し、各ユーザのユーザモデルの単純平均によって、判定に用いる学習モデルを作成するものがある(非特許文献1参照)。また、ラベルの信頼度が所定の基準を満たす学習データ(エキスパートデータ)を基に、非エキスパートデータごとに信頼度を算出し、算出した信頼度を学習データに加味して学習モデルを作成するものがある(特許文献1参照)。 The determination accuracy of data whose label is unknown is greatly influenced by the original learning model. For this reason, in creating a learning model, a learning model (user model) unique to each user is created based on learning data from each user, and a learning model used for determination is determined by a simple average of the user models of each user. There is something to be created (see Non-Patent Document 1). Also, based on learning data (expert data) where the reliability of the label satisfies a predetermined standard, the reliability is calculated for each non-expert data, and a learning model is created by adding the calculated reliability to the learning data. (See Patent Document 1).
しかしながら、上述した従来技術では、誤ったラベルを付与されたデータ(以後、これを誤った学習データと呼ぶ)を与えるユーザが存在した場合であっても、そのユーザのユーザモデルも単純平均によって、判定に用いる学習モデルの作成に影響を及ぼすことから、判定精度が落ちてしまう場合があった。また、エキスパートデータが少ない場合には、非エキスパートデータの信頼度を算出することが困難となる。このため、高精度な判定が可能な学習モデルの作成が困難となる場合があった。 However, in the above-described conventional technology, even when there is a user who gives data with an erroneous label (hereinafter referred to as erroneous learning data), the user model of the user is also obtained by a simple average, Since it affects the creation of the learning model used for the determination, the determination accuracy may be reduced. Moreover, when there is little expert data, it becomes difficult to calculate the reliability of non-expert data. For this reason, it may be difficult to create a learning model capable of highly accurate determination.
本発明は、上記に鑑みてなされたものであって、判定精度の高い学習モデルを作成することを可能とする学習モデル作成装置、判定システムおよび学習モデル作成方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a learning model creation device, a determination system, and a learning model creation method that can create a learning model with high determination accuracy.
上述した課題を解決し、目的を達成するために、実施形態にかかる学習モデル作成装置は、複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部とを備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the learning model creation device according to the embodiment accepts learning data including a combination of input information and a label corresponding to the input information for a plurality of users. A calculation unit that calculates, for each user, an index value indicating a difference between the feature of the user and the feature of another user, based on the feature of the user indicated by the reception unit and the learning data for each user; When creating a learning model for determining a label corresponding to input data whose label is unknown based on the learning data of the plurality of users, other users are based on the index value calculated for each user. And a learning model creation unit that creates the learning model by reducing the degree to which the learning data of the user whose feature difference is large contributes to the learning model. And butterflies.
本発明によれば、判定精度の高い学習モデルを作成することができる、という効果を奏する。 According to the present invention, it is possible to create a learning model with high determination accuracy.
以下、添付図面を参照して実施形態にかかる学習モデル作成装置、判定システムおよび学習モデル作成方法を詳細に説明する。なお、以下の説明において、同様の構成要素には共通の符号を付与するとともに、重複する説明を省略する。 Hereinafter, a learning model creation device, a determination system, and a learning model creation method according to embodiments will be described in detail with reference to the accompanying drawings. In the following description, common constituent elements are given common reference numerals, and redundant description is omitted.
(第1の実施形態)
図1は、第1の実施形態にかかる判定システムの構成の一例を示すブロック図である。図1に示すように、判定システム1は、複数のユーザの学習データD1を受け付けて学習モデルM1を作成する学習モデル作成装置10と、ラベルが未知であるデータD2の入力を受け付け、学習モデル作成装置10が作成した学習モデルM1に基づいてデータD2のラベルを判定する判定装置20とを有する。
(First embodiment)
FIG. 1 is a block diagram illustrating an example of a configuration of a determination system according to the first embodiment. As shown in FIG. 1, the
学習モデル作成装置10は、学習データ変換部101と、学習データ格納部102と、ユーザモデル作成部103と、異常度算出部104と、学習モデル作成部105とを有する。
The learning
学習データ変換部101は、学習データD1の入力を受け付ける。学習データD1は、複数のユーザから与えられ、教師つき学習における教師データに相当するデータである。具体的には、学習データD1は、ユーザの入力情報であるテキスト、画像、音声等のデータと、そのデータの内容の種別であるラベルとを少なくとも組としたデータである。
The learning
図2は、学習データD1を説明する説明図である。図2に示すように、学習データD1は、ユーザの入力情報がテキストである場合、「野球をしたい」などのテキストと、そのテキスト内容の種別を示す「スポーツ」等のラベルと、ユーザを識別するためのユーザIDとを有する。この学習データD1は、例えばコンソールからの入力の他、インターネット上の掲示板、ブログ、SNS(ソーシャル・ネットワーキング・サービス)などへのユーザの書き込みを収集したものであってもよい。 FIG. 2 is an explanatory diagram for explaining the learning data D1. As shown in FIG. 2, when the user input information is text, the learning data D1 identifies text such as “I want to play baseball”, a label such as “sports” indicating the type of the text content, and the user. And a user ID for The learning data D1 may be, for example, collected from user input to a bulletin board on the Internet, a blog, an SNS (social networking service), etc., in addition to input from a console.
学習データ変換部101は、入力された学習データD1について、データの特徴をn次元のベクトルで表記した特徴ベクトルと、ラベルの内容を数値化した数値ラベルの組に変換する。特徴ベクトルへの変換は、機械学習で一般的に用いられている公知の手法を利用する。例えば、データがテキストの場合には、形態素解析、n−gramまたは区切り文字により特徴ベクトルへ変換する手法がある。一般に、形態素解析は日本語のテキストに、空白区切りは英語のテキストに適用されることが多く、テキストの種別(日本語/英語)によって手法を変更してもよい。
The learning
形態素解析の場合は、予め設定された辞書データをもとに、データを品詞に分割し、分割された要素をもとに特徴ベクトルへ変換する。例えば、「今日は、サッカーを、する」というテキストは、「今日/は/、/サッカー/を/、/する」と分割され、分割された要素をもとに特徴ベクトルに変換する。 In the case of morphological analysis, the data is divided into parts of speech based on preset dictionary data, and converted into feature vectors based on the divided elements. For example, the text “Today plays soccer” is divided as “Today / ha /, // soccer ////”, and is converted into a feature vector based on the divided elements.
また、n−gramの場合は、データを先頭から1文字ずつずらしながらn文字の組をつくり、それらを特徴ベクトルに変換する。例えば、「今日は、サッカーを、する」というテキストは、n−gram(n=6)の場合、「今日は、サッ/日は、サッカ/…/カーを、する」という要素が作られ、これらの要素をもとに特徴ベクトルに変換する。 In the case of n-gram, a set of n characters is created while shifting the data one character at a time from the beginning, and these are converted into feature vectors. For example, if the text “Today plays soccer” is n-gram (n = 6), an element “Today is a day / day is a soccer /.../ car” is created. Based on these elements, it is converted into a feature vector.
また、区切り文字の場合は、データを予め定めた区切り文字(空白、句読点、カンマ等)によって分割し、分割された要素をもとに特徴ベクトルへ変換する。例えば、「今日は、サッカーを、する」というテキストは、区切り文字(”、”)の場合、「今日は/サッカーを/する」と分割され、分割された要素をもとに特徴ベクトルへ変換する。 In the case of a delimiter character, the data is divided by a predetermined delimiter character (space, punctuation mark, comma, etc.), and converted into a feature vector based on the divided elements. For example, the text “Today we play soccer” is divided into “Today / to play soccer” in the case of the delimiter (“,”), and converted to a feature vector based on the divided elements. To do.
特徴ベクトルへの変換には、各要素の出現回数をそのまま特徴ベクトルとする方式、出現回数によらず、ある要素が出現する(1)/出現しない(0)で数値化する方式等がある。ラベルに関しても所定の規則に従って数値化する。例えば、「スポーツ」/「非スポーツ」のラベルがある場合は、「スポーツ」を「1」、「非スポーツ」を「0」のように数値化する。 Conversion to a feature vector includes a method in which the number of appearances of each element is used as it is as a feature vector, and a method in which a certain element appears (1) / not appear (0) regardless of the number of appearances. Labels are also digitized according to predetermined rules. For example, when there is a label of “sports” / “non-sports”, “sports” is digitized as “1” and “non-sports” is expressed as “0”.
学習データ格納部102は、学習データ変換部101による変換済の学習データD1と、ユーザIDの組を格納する。学習データ格納部102は、一般のデータベース(MySQLやPostgreSQL等)を用いてもよいし、表形式やテキスト形式での格納などであってもよい。学習データ格納部102における、格納方法の種類は問わない。また、学習データ格納部102は、RAM(Random Access Memory)上に確保された作業領域で代用してもよい。
The learning
ユーザモデル作成部103は、学習データ格納部102から変換済の学習データD1とユーザIDの組を取り出し、ユーザID(ユーザ)ごとに固有の学習モデルであるユーザモデルを作成する。
The user
図3は、ユーザモデル作成部103を説明する説明図である。図3に示すように、ユーザモデル作成部103は、ユーザIDごとの学習データD11、D12に対応したユーザモデルU1、U2を作成する。ユーザモデルU1、U2は、ユーザIDが「1」、「2」におけるユーザの特徴ベクトルと数値化ラベルとの組をもとに作成される、ユーザごとの学習モデルである。ユーザモデルU1、U2の作成には、一般の機械学習手法である、ロジスティック回帰、サポートベクターマシン、パーセプトロン等を用いてもよい。作成されたユーザモデルU1、U2は、n次元のベクトルで表記される。
FIG. 3 is an explanatory diagram for explaining the user
異常度算出部104は、ユーザごとの学習データD1が示す各ユーザの特徴に基づいて、ユーザごとに、ユーザの特徴と、他のユーザの特徴とが、どの程度相違するかを示す指標値である異常度を算出する。具体的には、各ユーザの学習データD1や、ユーザモデルU1、U2を互いに比較することで、あるユーザが他のユーザとどの程度相違するかを示す異常度を算出する。この異常度の算出方法には、大きく分けて、各ユーザの学習データD1の違いにより算出する第1の算出方法、ユーザモデルU1、U2の違いにより算出する第2の算出方法、第1の算出方法と第2の算出方法を組み合わせた第3の算出方法がある。
The degree-of-
第1の算出方法では、各ユーザの学習データD1の要素の違いを基に、各ユーザの異常度を算出する。例えば、他のユーザと比べて学習データの要素が極端に少ない、もしくは多いユーザの異常度を高く算出する。 In the first calculation method, the degree of abnormality of each user is calculated based on the difference in the elements of the learning data D1 of each user. For example, the degree of abnormality of a user having extremely few or many learning data elements compared to other users is calculated to be high.
図4は、異常度の算出を説明する説明図であり、より具体的には、第1の算出方法による異常度の算出を説明する図である。図4に示すように、第1の算出方法の具体例としては、全てのユーザの学習データ数の平均(図示例では「40」)を算出し、算出した平均と各ユーザの学習データ数との差を、各ユーザの異常度と定義する方法がある。また、全てのユーザの学習データ数の中央値(図示例では「30」)と、各ユーザの学習データ数の差を、各ユーザの異常度と定義する方法がある。なお、第1の算出方法は、図4の例に限定するものではなく、各ユーザの学習データD1の要素を互いに比較する方法であれば他の方法を用いてもよい。 FIG. 4 is an explanatory diagram for explaining the calculation of the degree of abnormality, and more specifically, a diagram for explaining the calculation of the degree of abnormality by the first calculation method. As shown in FIG. 4, as a specific example of the first calculation method, an average of the number of learning data of all users (“40” in the illustrated example) is calculated, and the calculated average and the number of learning data of each user are calculated. There is a method of defining the difference between each user as the degree of abnormality of each user. In addition, there is a method of defining the difference between the median value of the number of learning data of all users (“30” in the illustrated example) and the number of learning data of each user as the degree of abnormality of each user. Note that the first calculation method is not limited to the example of FIG. 4, and any other method may be used as long as the elements of the learning data D1 of each user are compared with each other.
第2の算出方法では、ユーザモデルU1、U2を表すベクトルの大きさや方向の違いを基に、各ユーザの異常度を算出する。例えば、ユーザモデルU1、U2を表すベクトルの大きさや方向が、他とは異なるユーザの異常度を高く算出する。 In the second calculation method, the degree of abnormality of each user is calculated based on the difference in the size and direction of the vectors representing the user models U1 and U2. For example, the degree of abnormality of a user whose magnitude and direction of vectors representing the user models U1 and U2 are different from others is calculated high.
図5、図6は、異常度の算出を説明する説明図であり、より具体的には、第2の算出方法による異常度の算出を説明する図である。ここで、図5、図6におけるV1、V2およびV3はユーザIDが「1」、「2」、「3」のユーザモデルを2次元のベクトルとして表記したものである。また、図5におけるVaは、V1、V2およびV3の平均のベクトルである。また、図6におけるV1n、V2nおよびV3nは、V1、V2およびV3を正規化したベクトルである。また、図6におけるVanは、V1n、V2nおよびV3nの平均のベクトルである。 5 and 6 are explanatory diagrams for explaining the calculation of the degree of abnormality, and more specifically, for explaining the calculation of the degree of abnormality by the second calculation method. Here, V 1 , V 2, and V 3 in FIG. 5 and FIG. 6 represent user models having user IDs “1”, “2”, and “3” as two-dimensional vectors. Further, V a in FIG. 5 is an average vector of V 1 , V 2 and V 3 . Further, V 1n , V 2n and V 3n in FIG. 6 are vectors obtained by normalizing V 1 , V 2 and V 3 . Further, V an in FIG. 6 is an average vector of V 1n , V 2n, and V 3n .
図5に示すように、第2の算出方法としては、各ユーザのユーザモデルであるV1、V2およびV3の平均をとり、平均とV1、V2およびV3との距離D1、D2、D3をユーザごとの異常度と定義する方法がある。この場合、Vaと、V1、V2およびV3との距離D1、D2、D3が大きくなるほど、異常度は高くなる。 As shown in FIG. 5, as the second calculation method of taking the average of V 1, V 2 and V 3 is a user model for each user, the distance between the average and the V 1, V 2 and V 3 D 1 , D 2 and D 3 are defined as the degree of abnormality for each user. In this case, the degree of abnormality increases as distances D 1 , D 2 , D 3 between V a and V 1 , V 2, and V 3 increase.
また、図6に示すように、第2の算出方法としては、各ユーザのユーザモデルであるV1、V2およびV3について正規化し、正規化したV1n、V2nおよびV3nの平均をとる。そして、平均したVanと、V1、V2およびV3とのなす角度をユーザごとの異常度と定義する方法がある。この場合、Vanと、V1、V2およびV3とのなす角度が大きくなるほど、異常度は高くなる。なお、第2の算出方法は、図5、6の例に限定するものではなく、各ユーザのユーザモデルU1、U2をもとに比較を行う方法であれば他の方法を用いてもよい。 Further, as shown in FIG. 6, the second calculation method is to normalize V 1 , V 2 and V 3 which are user models of each user, and calculate the average of normalized V 1n , V 2n and V 3n . Take. Then, there is a method of defining the angle formed by the averaged V an and V 1 , V 2, and V 3 as the degree of abnormality for each user. In this case, the degree of abnormality increases as the angle between V an and V 1 , V 2, and V 3 increases. Note that the second calculation method is not limited to the examples of FIGS. 5 and 6, and other methods may be used as long as the comparison is performed based on the user models U1 and U2 of each user.
第3の算出方法としては、例えば、(第1の算出方法で算出された異常度)+(第2の算出方法で算出された異常度)と算出する方法がある。なお、第1の算出方法および第2の算出方法の組み合わせは、上述した単純加算以外に乗算を用いてもよく、特に限定しない。 As a third calculation method, for example, there is a method of calculating (abnormality calculated by the first calculation method) + (abnormality calculated by the second calculation method). Note that the combination of the first calculation method and the second calculation method may use multiplication in addition to the above-described simple addition, and is not particularly limited.
学習モデル作成部105は、入力された学習データD1に基づいて、判定装置20がデータD2に対応したラベルを判定するための学習モデルM1を作成する。具体的には、学習モデル作成部105は、ユーザモデル作成部103が作成した各ユーザのユーザモデルを統合した学習モデルM1を作成し、判定装置20へ出力する。この学習モデルM1の作成に際し、学習モデル作成部105は、異常度算出部104が算出した各ユーザの異常度に基づいて、他のユーザと特徴の相違が大きい、すなわち異常度の大きいユーザのユーザモデルが学習モデルM1に寄与する度合いを小さくして、学習モデルM1を作成する。異常度に応じてユーザの学習データD1の寄与を変更する方法としては、異常度から各ユーザモデルの重みを定義し、その重み付き平均により学習モデルを作成する方法、所定の閾値未満の重みに対応するユーザモデルを排除した上で学習モデルを作成する方法などがある。
The learning
重み付き平均により学習モデルを作成する方法において、ユーザモデルの重みの定め方としては、例えば異常度の逆数を重みとする方法がある。異常度の逆数を重みとする場合、異常度が0の時には、逆数の計算ができないため、予め設定しておいた数値を重みとする等の例外処理を行う。なお、重要度から重みを定める方法は上記に限定しない。 In the method of creating a learning model by weighted average, as a method of determining the weight of the user model, for example, there is a method in which the reciprocal of the degree of abnormality is used as the weight. When the reciprocal of the degree of abnormality is used as a weight, when the degree of abnormality is 0, the reciprocal cannot be calculated. Therefore, exception processing such as using a preset numerical value as a weight is performed. The method for determining the weight from the importance is not limited to the above.
例えば、wiをユーザID=iのユーザモデルとし、λiをユーザモデルwiの重み、Kをユーザの総数としたとき、学習モデルw0は以下の式(1)で算出してもよい。 For example, when w i is the user model of user ID = i, λ i is the weight of the user model w i , and K is the total number of users, the learning model w 0 may be calculated by the following equation (1). .
式(1)を用いる方法では、異常度の高いユーザモデルwiは、学習モデルw0への寄与が小さくなる。 In the method using Expression (1), the user model w i having a high degree of abnormality has a small contribution to the learning model w 0 .
所定の閾値未満の重みに対応するユーザモデルを排除した上で学習モデルを作成する方法としては、重みλiがある所定の閾値を下回っているユーザモデルwiは用いずに学習モデルw0を作成する方法がある。この閾値の設定方法は、ユーザがコンソール等より予め定める方法、重みλiの平均を閾値とする方法があるが、それらに限定しない。 As a method of creating a learning model after eliminating a user model corresponding to a weight less than a predetermined threshold, the learning model w 0 is used without using the user model w i whose weight λ i is lower than a predetermined threshold. There is a way to create. The threshold value setting method includes a method in which the user predetermines from the console or the like, and a method in which the average of the weights λ i is used as the threshold value, but is not limited thereto.
例えば、所定の閾値をaとした場合の学習モデルw0は、以下の式(2)で算出してもよい。 For example, the learning model w 0 when the predetermined threshold value is a may be calculated by the following equation (2).
また、重みが閾値a以上となるユーザモデルwiは、すべて均等に扱って学習モデルw0を算出してもよい。この場合、学習モデルw0は、以下の式(3)で与えられる。 Further, all the user models w i whose weight is equal to or greater than the threshold value a may be handled equally to calculate the learning model w 0 . In this case, the learning model w 0 is given by the following equation (3).
なお、すべてのユーザモデルの重みλiが閾値aを下回った場合は、学習モデルw0は0ベクトルとしてもよい。 If the weights λ i of all user models are below the threshold value a, the learning model w 0 may be a 0 vector.
判定装置20は、データ変換部201と、判定部202と、学習モデル格納部203と、判定結果出力部204とを有する。
The
データ変換部201は、ラベルが未知であるデータD2を入力として受け付ける。このデータD2は、例えばコンソールからの入力の他、例えば、入力がテキストの場合には、インターネット上の掲示板、ブログ、SNSなどへの任意の書き込みを収集したものであってもよい。データ変換部201は、学習データ変換部101と同様、受け付けたデータD2を特徴ベクトルに変換する。特徴ベクトルに変換されたデータD2は判定部202へ出力される。
The
判定部202は、特徴ベクトルに変換されたデータD2を受け取ると、学習モデル格納部203に格納されている学習モデルM1を参照し、データD2に対応するラベルを判定する。具体的には、特徴ベクトルと学習モデルM1との内積が0より大きければ数値化ラベル=1、0より小さければ数値化ラベル=0、0であれば数値化ラベル=−1(「−1」は「判定不能」を示す)のように、判定部202は、特徴ベクトルと学習モデルM1との内積の値をもとにラベル判定を行う。
When the
学習モデル格納部203は、学習モデル作成装置10にて作成された学習モデルM1を格納する。学習モデル格納部203は、一般のデータベース(MySQLやPostgreSQL等)を用いてもよいし、表形式やテキスト形式での格納などであってもよい。学習モデル格納部203における、格納方法の種類は問わない。
The learning
判定結果出力部204は、判定部202で得られた判定結果(数値化ラベル)を、数値化ラベルとラベル表記との対応テーブルなどを参照し、数値化する前のラベルに変換する。そして、判定結果出力部204は、変換したラベルをユーザに識別可能な判定結果R1として出力する。ただし、判定部202で得られた判定結果が「−1」の場合には、「判定不能」などの文字列を判定結果R1として出力する。ここで、判定結果出力部204が行う判定結果R1の出力は、ディスプレイへの表示出力、HDD(Hard Disk Drive)等の記憶媒体へ書き込み、ネットワーク上の他の情報処理装置(例えばPC(Personal Computer)等)への送信などであってよい。
The determination
図7は、第1の実施形態にかかる判定システム1の処理フローを説明する説明図である。図7に示すように、学習モデル作成装置10は、複数のユーザについて、入力情報と、その入力情報に対応したラベルとを少なくとも組とする学習データD11、D12、D13…を受け付ける。そして、学習モデル作成装置10は、学習データ変換部101において、ユーザごとの学習データD11、D12、D13が示す特徴ベクトルへの変換等の学習データ変換の処理を行う(S1)。
FIG. 7 is an explanatory diagram illustrating a processing flow of the
次いで、学習モデル作成装置10は、ユーザモデル作成部103において、変換後のデータをもとにユーザモデルを作成し、異常度算出部104において、ユーザごとに、このユーザの特徴と、他のユーザの特徴との相違を示す異常度を算出する。そして、学習モデル作成装置10は、学習モデル作成部105において、算出した異常度と、ユーザモデルとに基づいて学習モデルM1を作成する処理(S2)を行う。このS2では、ユーザごとに算出された異常度に基づいて、他のユーザと特徴の相違が大きいユーザのユーザモデルが学習モデルM1に寄与する度合いを小さくする。
Next, the learning
判定装置20は、ラベルが未知のデータD2の入力を受け付ける。そして、判定装置20は、データ変換部201において、受け付けたデータD2の特徴ベクトルへの変換等のデータ変換の処理を行う(S3)。次いで、判定装置20は、判定部202において、データ変換後のデータD2を受け取り、S2で作成された学習モデルM1を参照し、データD2に対応するラベルを判定する(S4)。そして、判定装置20は、判定したラベル(図示例では「スポーツ」)を判定結果R1として出力する。
The
以上のように、学習モデル作成装置10は、複数のユーザについて、入力情報と、その入力情報に対応したラベルとを少なくとも組とする学習データD1を受け付ける。そして、学習モデル作成装置10は、ユーザごとの学習データD1が示す特徴に基づいて、ユーザごとに、このユーザの特徴と、他のユーザの特徴との相違を示す異常度を算出する。そして、学習モデル作成装置10は、判定装置20がデータD2に対応したラベルを判定するための学習モデルM1を学習データD1に基づいて作成する際に、ユーザごとに算出された異常度に基づいて、他のユーザと特徴の相違が大きいユーザの学習データD1が学習モデルM1に寄与する度合いを小さくする。
As described above, the learning
このため、学習モデル作成装置10は、誤った学習データD1を与えるユーザが存在した場合であっても、そのユーザの学習データD1が学習モデルM1に寄与する度合いを小さくすることができ、判定精度の高い学習モデルM1を作成することができる。例えば、誤った学習データD1を与えるユーザが少数の場合には、それらのユーザが与える学習データD1やユーザモデルは多数のユーザのものと大きく異なるものとなる。したがって、誤った学習データD1を与えるユーザは異常度が高くなる。異常度の高いユーザの学習データD1は学習モデルM1へ寄与する度合いが小さくなるため、エキスパードデータなどで信頼度を加味することなく、判定精度の高い学習モデルM1の作成が可能となる。また、判定装置20では、学習モデル作成装置10で作成された学習モデルM1を参照してデータD2のラベル判定を行うことから、誤った学習データD1を与えるユーザの影響を抑えた、精度の高い判定を行うことが可能となる。
For this reason, even when there is a user who gives erroneous learning data D1, the learning
(第2の実施形態)
次に、第2の実施形態について説明する。上述した第1の実施形態では、各ユーザのユーザモデルを作成した後、ユーザごとの異常度を求め、求めた異常度を重みに変換する。そして、ユーザモデルと重みを用いて学習モデルM1を作成する。すなわち、第1の実施形態では、上述した処理を順次行って学習モデルM1を作成する順次法を例示した。第2の実施形態では、学習モデル(ユーザごとのユーザモデルおよびそれらを統合した学習モデル)と、ユーザごとの重みの更新を繰り返し、所定の収束条件を満たしたところで学習モデルとして出力する繰り返し法を例示する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment described above, after creating a user model for each user, the degree of abnormality for each user is obtained, and the obtained degree of abnormality is converted into a weight. Then, the learning model M1 is created using the user model and the weight. That is, in the first embodiment, a sequential method in which the above-described processing is sequentially performed to create the learning model M1 is exemplified. In the second embodiment, a learning model (a user model for each user and a learning model that integrates them) and a weight update for each user are repeated, and an iterative method that outputs a learning model when a predetermined convergence condition is satisfied is provided. Illustrate.
図8は、第2の実施形態にかかる判定システム1aの構成の一例を示すブロック図である。図8に示すように、判定システム1aの学習モデル作成装置10aは、初期化部111、学習モデル更新部112及びパラメータ更新部113を有する学習モデル作成部110としているところが判定システム1と異なっている。
FIG. 8 is a block diagram illustrating an example of the configuration of the
初期化部111は、学習データ格納部102から学習データD1を受け取ると、各ユーザ(任意のユーザID=kをユーザkとする)のユーザモデルwk、学習モデルw0、重みλk、正則化パラメータη(実数)を予め定めておいた値で初期化する。次いで、初期化部111は、ユーザモデルwk、学習モデルw0および学習データD1を学習モデル更新部112に出力し、重みλk、正則化パラメータηをパラメータ更新部113へ出力する。
When the
学習モデル更新部112は、各ユーザのユーザモデルwkと学習モデルw0を更新する。ここで、学習モデル更新部112における更新処理の詳細について説明する。先ず、ユーザID=kのユーザkが与えたi番目の学習データD1を(xki,yki)で表す。ここで、xkiはn次元の特徴ベクトル、ykiはラベルを表し、このラベルは0または1の値をとるものとする。なお、特徴ベクトルxkiは列ベクトルである。
The learning
また、ユーザkの与えた学習データD1の要素の総数をIkとしたとき、Ik個の特徴ベクトルの転置を縦に並べて作ったIk×n行列を次の式(4)のXkで表す。 Also, assuming that the total number of elements of the learning data D1 given by the user k is I k , an I k × n matrix formed by vertically transposing I k feature vectors is expressed as X k in the following equation (4). Represented by
ここで、xT kiはxkiの転置を表す。また、行列Aの逆行列はA−1と表記する。 Here, x T ki represents transposition of x ki . The inverse matrix of the matrix A is denoted as A- 1 .
学習モデル更新部112は、各ユーザのユーザモデルwkと学習モデルw0を次の式(5)に従って更新する。なお、式(5)におけるwkは更新前のユーザモデル、wnew kは更新後のユーザモデルを示す。また、w0は更新前の学習モデル、wnew 0は更新後の学習モデルを示す。
The learning
ここで、βは予め定めておく必要がある正の実数であり、Hとgは次の式(6)で与えられる。 Here, β is a positive real number that needs to be determined in advance, and H and g are given by the following equation (6).
Bkは、(i,i)成分が(1−σ(wT kxki))σ(wT kxki)のIk次対角行列である。また、Dkは、i成分がyki−σ(wT kxki)のIk次列ベクトルである。また、Iはn次単位行列である。ここで、σは次の式(7)で与えられる関数(シグモイド関数)である。 B k is an I k -order diagonal matrix whose (i, i) component is (1−σ (w T k x ki )) σ (w T k x ki ). Further, D k is an I k -th order column vector whose i component is y ki −σ (w T k x ki ). I is an n-th unit matrix. Here, σ is a function (sigmoid function) given by the following equation (7).
学習モデル更新部112における更新は、所定の終了条件(収束条件)が満たされるまで実施される。ここで、終了条件としては、更新の回数が予定の数を超えた場合、更新の前後における学習モデルの変化が所定の値以下である場合などがある。
The update in the learning
パラメータ更新部113は、各ユーザのユーザモデルにおける重みλkと、正則化パラメータηを次の式(8)に従って更新する。この重みλkは、他のユーザとの相違を示す指標値である。
The
ここで、Tr[A]は行列Aのトレースを示す。なお、異常度の定め方としては、例えば重みの逆数を異常度とする方法が考えられるが、この方法以外であってもよく、特に限定しない。 Here, Tr [A] indicates a trace of the matrix A. Note that, as a method of determining the degree of abnormality, for example, a method in which the reciprocal of the weight is used as the degree of abnormality can be considered, but other methods may be used and there is no particular limitation.
上述した、学習モデル更新部112による学習モデル(ユーザごとのユーザモデルおよびそれらを統合した学習モデル)の更新と、パラメータ更新部113によるユーザごとの重みの更新を繰り返すことで得られる学習モデルw0は、式(5)より以下の式(9)となる。
The learning model w 0 obtained by repeating the updating of the learning model (the user model for each user and the learning model integrating them) and the updating of the weight for each user by the
上記の式(9)より、学習モデルw0は、各ユーザモデルwkの重み付き平均の定数倍で与えられることがわかる。なお、第1の実施形態における、所定の閾値未満を切り捨てる場合と同様、ある閾値aを定め、重みが閾値aを下回っているユーザモデルは上記の式で用いずに学習モデルw0を作成してもよい。 From the above equation (9), it can be seen that the learning model w 0 is given by a constant multiple of the weighted average of each user model w k . As in the case of truncating less than a predetermined threshold in the first embodiment, a certain threshold a is defined, and a user model whose weight is lower than the threshold a is not used in the above formula, but a learning model w 0 is created. May be.
図9は、第2の実施形態にかかる学習モデル作成の処理を示すフローチャートである。図9に示すように、学習モデル作成部110における処理が開始されると、初期化部111は、ユーザモデルwk、学習モデルw0、重みλk、正則化パラメータη(実数)を初期化する(S11)。次いで、学習モデル更新部112は、初期化されたユーザモデルwkと学習モデルw0を更新する(S12)。
FIG. 9 is a flowchart illustrating a learning model creation process according to the second embodiment. As shown in FIG. 9, when the process in the learning
次いで、パラメータ更新部113は、ユーザモデルにおける重みλkと、正則化パラメータηを更新する(S13)。次いで、学習モデル更新部112は、S13で更新された重みλkと、正則化パラメータηをもとに、ユーザモデルwkと学習モデルw0を更新する(S14)。次いで、学習モデル作成部110は、更新の回数が予定の数を超えたか否か、更新の前後における学習モデルの変化が所定の値以下であるか否かなど、所定の収束条件を満たすか否かを判定する(S15)。
Next, the
所定の収束条件を満たさない場合(S15:NO)、学習モデル作成部110はS13へ処理を戻す。これにより、所定の収束条件を満たさない間は、ユーザモデルにおける重みλkおよび正則化パラメータηの更新と、ユーザモデルwkおよび学習モデルw0の更新とが交互に繰り返し実施されることとなる。
When the predetermined convergence condition is not satisfied (S15: NO), the learning
所定の収束条件を満たす場合(S15:YES)、学習モデル作成部110は処理を終了し、収束条件を満たすまでに演算された学習モデルw0を判定装置20へ出力する。
If predetermined convergence condition is satisfied (S15: YES), the learning
また、上述した実施形態において説明した学習モデル作成装置10および判定装置20が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上述した実施形態にかかる学習モデル作成装置10および判定装置20における処理と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上述した実施形態と同様の処理を実現してもよい。以下に、上述したプログラムを実行するコンピュータの一例を説明する。
It is also possible to create a program in which the processing executed by the learning
図10は、実施形態にかかる判定システム1の学習モデル作成装置10および判定装置20における処理がコンピュータを用いて具体的に実現されることを示す図である。図10に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
FIG. 10 is a diagram illustrating that the processing in the learning
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブに挿入される。シリアルポートインタフェース1050は、例えばマウス1051、キーボード1052に接続される。ビデオアダプタ1060は、例えばディスプレイ1061に接続される。
The
ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記のプログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、例えばハードディスクドライブ1031に記憶される。例えば、図1に例示した学習モデル作成装置10の機能構成(学習データ変換部101、学習データ格納部102、ユーザモデル作成部103、異常度算出部104、学習モデル作成部105)や判定装置20の機能構成(データ変換部201、判定部202、判定結果出力部204、学習モデル格納部203)と同様の情報処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
The hard disk drive 1031 stores, for example, an
また、上述したプログラムを実行する際の作業領域などは、RAM1012に確保される。処理に必要な設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1031に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
In addition, a work area for executing the above-described program is secured in the RAM 1012. Setting data necessary for processing is stored as
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。また、学習モデル作成装置10および判定装置20を備える判定システム1は、上述した一つのコンピュータで実現されるものであってよいことは言うまでもないことである。
The
1、1a…判定システム
10、10a…学習モデル作成装置
20…判定装置
101…学習データ変換部
102…学習データ格納部
103…ユーザモデル作成部
104…異常度算出部
105、110…学習モデル作成部
111…初期化部
112…学習モデル更新部
113…パラメータ更新部
201…データ変換部
202…判定部
203…学習モデル格納部
204…判定結果出力部
D1、D11、D12、D13…学習データ
D2…データ
M1…学習モデル
U1、U2…ユーザモデル
R1…判定結果
1000…コンピュータ
DESCRIPTION OF
Claims (8)
前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、
前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部と
を備えることを特徴とする学習モデル作成装置。 For a plurality of users, a reception unit that receives learning data including at least a set of input information and a label corresponding to the input information;
Based on the characteristics of the user indicated by the learning data for each user, for each user, a calculation unit that calculates an index value indicating the difference between the characteristics of the user and the characteristics of other users;
When creating a learning model for determining a label corresponding to input data whose label is unknown based on the learning data of the plurality of users, other users are based on the index value calculated for each user. A learning model creation device comprising: a learning model creation unit that creates a learning model by reducing a degree of contribution of learning data of a user having a large feature difference to the learning model.
前記算出部は、前記ユーザごとに作成された前記ユーザモデルのベクトルが示す大きさまたは方向、あるいは大きさと方向の両方を、前記ユーザごとに、他のユーザと比較して前記指標値を算出する
ことを特徴とする請求項1に記載の学習モデル作成装置。 A user model creation unit that creates a user model in which the features of the user are represented by vectors for each user based on the learning data of the plurality of users,
The calculation unit calculates the index value by comparing the size or direction indicated by the user model vector created for each user, or both the size and direction for each user with other users. The learning model creation apparatus according to claim 1.
ことを特徴とする請求項2に記載の学習モデル作成装置。 The said calculation part calculates the said index value by comparing the average user model of the said user model produced for every said user with the user model for every said user. Learning model creation device.
ことを特徴とする請求項1に記載の学習モデル作成装置。 2. The learning model creation according to claim 1, wherein the calculation unit calculates the index value by comparing the number of learning data of the user with the number of learning data of another user for each user. apparatus.
ことを特徴とする請求項1乃至4のいずれか一項に記載の学習モデル作成装置。 The learning model creation unit changes a degree of contribution of the learning data of the user to the learning model based on whether or not an index value calculated for each user exceeds a predetermined threshold value. The learning model creation device according to any one of claims 1 to 4.
ことを特徴とする請求項1に記載の学習モデル作成装置。 The learning model creation unit, for each of the users, a process of updating the degree that the learning data of the user contributes to the learning model, and a process of updating the learning model based on the updated degree. The learning model creation apparatus according to claim 1, wherein the learning model is created repeatedly until a predetermined convergence condition is satisfied.
前記学習モデル作成装置は、
複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、
前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、
前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための前記学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部とを備え、
前記判定装置は、
前記学習モデル作成部が作成した学習モデルを格納する格納部と、
前記格納された学習モデルに基づいて、前記ラベルが未知の入力データに対応したラベルを判定する判定部と
を備えることを特徴とする判定システム。 A determination system having a learning model generation device that generates a learning model and a determination device that determines a label corresponding to input data whose label is unknown based on the learning model,
The learning model creation device includes:
For a plurality of users, a reception unit that receives learning data including at least a set of input information and a label corresponding to the input information;
Based on the characteristics of the user indicated by the learning data for each user, for each user, a calculation unit that calculates an index value indicating the difference between the characteristics of the user and the characteristics of other users;
When creating the learning model for determining the label corresponding to the input data whose label is unknown based on the learning data of the plurality of users, based on the index value calculated for each user, A learning model creating unit that creates the learning model by reducing the degree to which the learning data of the user having a large feature difference from the user contributes to the learning model;
The determination device includes:
A storage unit for storing the learning model created by the learning model creation unit;
And a determination unit configured to determine a label corresponding to input data whose label is unknown based on the stored learning model.
複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付けるステップと、
前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出するステップと、
前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成するステップと
を含むことを特徴とする学習モデル作成方法。 A learning model creation method executed by a learning model creation device,
For a plurality of users, receiving learning data including at least a pair of input information and a label corresponding to the input information;
Calculating an index value indicating a difference between the feature of the user and the feature of another user for each user based on the feature of the user indicated by the learning data for each user;
When creating a learning model for determining a label corresponding to input data whose label is unknown based on the learning data of the plurality of users, other users are based on the index value calculated for each user. And a step of creating the learning model by reducing the degree to which learning data of a user having a large feature difference contributes to the learning model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116280A JP6231944B2 (en) | 2014-06-04 | 2014-06-04 | Learning model creation device, determination system, and learning model creation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116280A JP6231944B2 (en) | 2014-06-04 | 2014-06-04 | Learning model creation device, determination system, and learning model creation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015230570A true JP2015230570A (en) | 2015-12-21 |
JP6231944B2 JP6231944B2 (en) | 2017-11-15 |
Family
ID=54887313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014116280A Active JP6231944B2 (en) | 2014-06-04 | 2014-06-04 | Learning model creation device, determination system, and learning model creation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6231944B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167649A (en) * | 2016-03-14 | 2017-09-21 | 日本電気株式会社 | Data estimation device, data estimation method, and data estimation program |
JP2018045592A (en) * | 2016-09-16 | 2018-03-22 | Kddi株式会社 | Label application device, label application method, and label application program |
JP2018156323A (en) * | 2017-03-16 | 2018-10-04 | ヤフー株式会社 | Extraction device, extraction method, and extraction program |
JP2019040543A (en) * | 2017-08-29 | 2019-03-14 | 京セラドキュメントソリューションズ株式会社 | Information processing system and program |
JP2019046058A (en) * | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | Information processing device, and information processing method and program |
WO2019150813A1 (en) * | 2018-01-30 | 2019-08-08 | 富士フイルム株式会社 | Data processing device and method, recognition device, learning data storage device, machine learning device, and program |
WO2019167556A1 (en) * | 2018-02-27 | 2019-09-06 | 国立大学法人九州工業大学 | Label-collecting device, label collection method, and label-collecting program |
JP2020149693A (en) * | 2019-03-14 | 2020-09-17 | アクタピオ,インコーポレイテッド | Generation device, generation method, and generation program |
JPWO2020240770A1 (en) * | 2019-05-30 | 2020-12-03 | ||
WO2021044459A1 (en) * | 2019-09-02 | 2021-03-11 | 日本電気株式会社 | Learning device, prediction system, method, and program |
JP2021039542A (en) * | 2019-09-03 | 2021-03-11 | トヨタ自動車株式会社 | Information processing method and information processing device |
JPWO2021053776A1 (en) * | 2019-09-18 | 2021-03-25 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7297532B2 (en) | 2019-05-28 | 2023-06-26 | オークマ株式会社 | DATA COLLECTION SYSTEM FOR MACHINE LEARNING AND DATA COLLECTION METHOD |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001273475A (en) * | 2000-03-24 | 2001-10-05 | Denso Corp | Method and device for selecting teacher data, controller with learning function and recording medium |
JP2005181928A (en) * | 2003-12-24 | 2005-07-07 | Fuji Xerox Co Ltd | System and method for machine learning, and computer program |
-
2014
- 2014-06-04 JP JP2014116280A patent/JP6231944B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001273475A (en) * | 2000-03-24 | 2001-10-05 | Denso Corp | Method and device for selecting teacher data, controller with learning function and recording medium |
JP2005181928A (en) * | 2003-12-24 | 2005-07-07 | Fuji Xerox Co Ltd | System and method for machine learning, and computer program |
Non-Patent Citations (2)
Title |
---|
安田 陽介 外1名: "「身体的特徴情報を用いた適応的トレーニングデータ選択による日常行動認識手法」", 電気学会研究会資料 情報システム研究会, vol. IS−13−26, JPN6017038864, 21 June 2013 (2013-06-21), pages 23 - 27, ISSN: 0003659463 * |
木村 周 外2名: "「モバイル端末上における行動認識のための距離関数を用いた分類モデル生成手法の提案と評価」", 電子情報通信学会技術研究報告, vol. 第111巻,第485号, JPN6017038866, March 2012 (2012-03-01), pages 113 - 118, ISSN: 0003659464 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167649A (en) * | 2016-03-14 | 2017-09-21 | 日本電気株式会社 | Data estimation device, data estimation method, and data estimation program |
JP2018045592A (en) * | 2016-09-16 | 2018-03-22 | Kddi株式会社 | Label application device, label application method, and label application program |
JP2018156323A (en) * | 2017-03-16 | 2018-10-04 | ヤフー株式会社 | Extraction device, extraction method, and extraction program |
JP2019040543A (en) * | 2017-08-29 | 2019-03-14 | 京セラドキュメントソリューションズ株式会社 | Information processing system and program |
JP2019046058A (en) * | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | Information processing device, and information processing method and program |
JP7027070B2 (en) | 2017-08-31 | 2022-03-01 | キヤノン株式会社 | Information processing equipment, information processing methods, and programs |
US11636378B2 (en) | 2017-08-31 | 2023-04-25 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and information processing system |
JPWO2019150813A1 (en) * | 2018-01-30 | 2021-01-28 | 富士フイルム株式会社 | Data processing equipment and methods, recognition equipment, learning data storage equipment, machine learning equipment and programs |
US11288550B2 (en) * | 2018-01-30 | 2022-03-29 | Fujifilm Corporation | Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program |
WO2019150813A1 (en) * | 2018-01-30 | 2019-08-08 | 富士フイルム株式会社 | Data processing device and method, recognition device, learning data storage device, machine learning device, and program |
JPWO2019167556A1 (en) * | 2018-02-27 | 2021-02-04 | 国立大学法人九州工業大学 | Label collection device, label collection method and label collection program |
CN111712841A (en) * | 2018-02-27 | 2020-09-25 | 国立大学法人九州工业大学 | Label collecting device, label collecting method, and label collecting program |
JP7320280B2 (en) | 2018-02-27 | 2023-08-03 | 国立大学法人九州工業大学 | Label collection device, label collection method and label collection program |
WO2019167556A1 (en) * | 2018-02-27 | 2019-09-06 | 国立大学法人九州工業大学 | Label-collecting device, label collection method, and label-collecting program |
JP7267964B2 (en) | 2019-03-14 | 2023-05-02 | アクタピオ,インコーポレイテッド | Generation device, generation method and generation program |
JP2020149693A (en) * | 2019-03-14 | 2020-09-17 | アクタピオ,インコーポレイテッド | Generation device, generation method, and generation program |
JPWO2020240770A1 (en) * | 2019-05-30 | 2020-12-03 | ||
JP7359206B2 (en) | 2019-05-30 | 2023-10-11 | 日本電信電話株式会社 | Learning devices, learning methods, and programs |
WO2021044459A1 (en) * | 2019-09-02 | 2021-03-11 | 日本電気株式会社 | Learning device, prediction system, method, and program |
JP7283548B2 (en) | 2019-09-02 | 2023-05-30 | 日本電気株式会社 | LEARNING APPARATUS, PREDICTION SYSTEM, METHOD AND PROGRAM |
JPWO2021044459A1 (en) * | 2019-09-02 | 2021-03-11 | ||
JP7243533B2 (en) | 2019-09-03 | 2023-03-22 | トヨタ自動車株式会社 | Information processing method and information processing device |
JP2021039542A (en) * | 2019-09-03 | 2021-03-11 | トヨタ自動車株式会社 | Information processing method and information processing device |
JP7251643B2 (en) | 2019-09-18 | 2023-04-04 | 日本電信電話株式会社 | LEARNING DEVICE, LEARNING METHOD AND PROGRAM |
JPWO2021053776A1 (en) * | 2019-09-18 | 2021-03-25 |
Also Published As
Publication number | Publication date |
---|---|
JP6231944B2 (en) | 2017-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6231944B2 (en) | Learning model creation device, determination system, and learning model creation method | |
US8990128B2 (en) | Graph-based framework for multi-task multi-view learning | |
US8886515B2 (en) | Systems and methods for enhancing machine translation post edit review processes | |
CN106778878B (en) | Character relation classification method and device | |
JP6772213B2 (en) | Question answering device, question answering method and program | |
JP6462970B1 (en) | Classification device, classification method, generation method, classification program, and generation program | |
US20130204835A1 (en) | Method of extracting named entity | |
WO2014073206A1 (en) | Information-processing device and information-processing method | |
KR20230013793A (en) | Method and Apparatus for Classifying Document Based on Attension Mechanism and Semantic Analysis | |
JP5638503B2 (en) | Text summarization apparatus, method and program | |
JP7163618B2 (en) | LEARNING DEVICE, LEARNING METHOD, PROGRAM AND ESTIMATION DEVICE | |
JP2019160236A (en) | Learning data generation method, learning data generation program and data structure | |
JP2020060970A (en) | Context information generation method, context information generation device and context information generation program | |
JP5623369B2 (en) | Text summarization apparatus, method and program | |
US20230259717A1 (en) | Learning method and information processing apparatus | |
JP5175585B2 (en) | Document processing apparatus, electronic medical chart apparatus, and document processing program | |
JP4405542B2 (en) | Apparatus, method and program for clustering phoneme models | |
JP2022185799A (en) | Information processing program, information processing method and information processing device | |
WO2020241039A1 (en) | Information processing device, information processing method, and program | |
JP6817690B2 (en) | Extraction device, extraction method and its program, support device, display control device | |
JP5824429B2 (en) | Spam account score calculation apparatus, spam account score calculation method, and program | |
JP5462748B2 (en) | Data visualization device, data conversion device, method, and program | |
CN107622129B (en) | Method and device for organizing knowledge base and computer storage medium | |
JP5807966B2 (en) | Document evaluation learning apparatus, document evaluation apparatus, method, and program | |
JP2017102599A (en) | Estimation device, parameter learning device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20151001 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20151005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6231944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |