JP6231944B2 - 学習モデル作成装置、判定システムおよび学習モデル作成方法 - Google Patents

学習モデル作成装置、判定システムおよび学習モデル作成方法 Download PDF

Info

Publication number
JP6231944B2
JP6231944B2 JP2014116280A JP2014116280A JP6231944B2 JP 6231944 B2 JP6231944 B2 JP 6231944B2 JP 2014116280 A JP2014116280 A JP 2014116280A JP 2014116280 A JP2014116280 A JP 2014116280A JP 6231944 B2 JP6231944 B2 JP 6231944B2
Authority
JP
Japan
Prior art keywords
user
learning model
learning
data
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014116280A
Other languages
English (en)
Other versions
JP2015230570A (ja
Inventor
充敏 熊谷
充敏 熊谷
慎吾 折原
慎吾 折原
靖 岡野
靖 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014116280A priority Critical patent/JP6231944B2/ja
Publication of JP2015230570A publication Critical patent/JP2015230570A/ja
Application granted granted Critical
Publication of JP6231944B2 publication Critical patent/JP6231944B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、学習モデル作成装置、判定システムおよび学習モデル作成方法に関する。
従来、機械学習においては、判別対象のデータの入力を受け付け、そのデータの内容の種別(これをラベルとよぶ)を判定して出力する手法として、教師つき学習と呼ばれるものがある。この教師つき学習では、複数のユーザから与えられる学習データを基に学習モデルを作成する。次いで、ラベルが未知であるデータの入力を受け付け、作成した学習モデルに基づいてそのデータのラベルを判定する。なお、学習データは、テキスト、画像、音声等のデータと、そのデータの内容の種別であるラベルとの組を複数のユーザから集めたものである。また、学習モデルは、データに対応するラベルを判定するためのパラメータである。
ラベルが未知であるデータの判定精度は元となる学習モデルによる影響が大きい。このため、学習モデルの作成においては、各ユーザからの学習データを基に、各ユーザ固有の学習モデル(ユーザモデル)を作成し、各ユーザのユーザモデルの単純平均によって、判定に用いる学習モデルを作成するものがある(非特許文献1参照)。また、ラベルの信頼度が所定の基準を満たす学習データ(エキスパートデータ)を基に、非エキスパートデータごとに信頼度を算出し、算出した信頼度を学習データに加味して学習モデルを作成するものがある(特許文献1参照)。
特開2009−282686号公報
Hiroshi Kajino, Yuta Tsuboi, Hisashi Kashima, "A Convex Formulation for Learning from Crowds", Proceedings of the Twenty-Sixth AAAI Conference on Artificial Intelligence
しかしながら、上述した従来技術では、誤ったラベルを付与されたデータ(以後、これを誤った学習データと呼ぶ)を与えるユーザが存在した場合であっても、そのユーザのユーザモデルも単純平均によって、判定に用いる学習モデルの作成に影響を及ぼすことから、判定精度が落ちてしまう場合があった。また、エキスパートデータが少ない場合には、非エキスパートデータの信頼度を算出することが困難となる。このため、高精度な判定が可能な学習モデルの作成が困難となる場合があった。
本発明は、上記に鑑みてなされたものであって、判定精度の高い学習モデルを作成することを可能とする学習モデル作成装置、判定システムおよび学習モデル作成方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、実施形態にかかる学習モデル作成装置は、複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部とを備えることを特徴とする。
本発明によれば、判定精度の高い学習モデルを作成することができる、という効果を奏する。
図1は、第1の実施形態にかかる判定システムの構成の一例を示すブロック図である。 図2は、学習データを説明する説明図である。 図3は、ユーザモデル作成部を説明する説明図である。 図4は、異常度の算出を説明する説明図である。 図5は、異常度の算出を説明する説明図である。 図6は、異常度の算出を説明する説明図である。 図7は、第1の実施形態にかかる判定システムの処理フローを説明する説明図である。 図8は、第2の実施形態にかかる判定システムの構成の一例を示すブロック図である。 図9は、第2の実施形態にかかる学習モデル作成の処理を示すフローチャートである。 図10は、実施形態にかかる判定システムの学習モデル作成装置および判定装置における処理がコンピュータを用いて具体的に実現されることを示す図である。
以下、添付図面を参照して実施形態にかかる学習モデル作成装置、判定システムおよび学習モデル作成方法を詳細に説明する。なお、以下の説明において、同様の構成要素には共通の符号を付与するとともに、重複する説明を省略する。
(第1の実施形態)
図1は、第1の実施形態にかかる判定システムの構成の一例を示すブロック図である。図1に示すように、判定システム1は、複数のユーザの学習データD1を受け付けて学習モデルM1を作成する学習モデル作成装置10と、ラベルが未知であるデータD2の入力を受け付け、学習モデル作成装置10が作成した学習モデルM1に基づいてデータD2のラベルを判定する判定装置20とを有する。
学習モデル作成装置10は、学習データ変換部101と、学習データ格納部102と、ユーザモデル作成部103と、異常度算出部104と、学習モデル作成部105とを有する。
学習データ変換部101は、学習データD1の入力を受け付ける。学習データD1は、複数のユーザから与えられ、教師つき学習における教師データに相当するデータである。具体的には、学習データD1は、ユーザの入力情報であるテキスト、画像、音声等のデータと、そのデータの内容の種別であるラベルとを少なくとも組としたデータである。
図2は、学習データD1を説明する説明図である。図2に示すように、学習データD1は、ユーザの入力情報がテキストである場合、「野球をしたい」などのテキストと、そのテキスト内容の種別を示す「スポーツ」等のラベルと、ユーザを識別するためのユーザIDとを有する。この学習データD1は、例えばコンソールからの入力の他、インターネット上の掲示板、ブログ、SNS(ソーシャル・ネットワーキング・サービス)などへのユーザの書き込みを収集したものであってもよい。
学習データ変換部101は、入力された学習データD1について、データの特徴をn次元のベクトルで表記した特徴ベクトルと、ラベルの内容を数値化した数値ラベルの組に変換する。特徴ベクトルへの変換は、機械学習で一般的に用いられている公知の手法を利用する。例えば、データがテキストの場合には、形態素解析、n−gramまたは区切り文字により特徴ベクトルへ変換する手法がある。一般に、形態素解析は日本語のテキストに、空白区切りは英語のテキストに適用されることが多く、テキストの種別(日本語/英語)によって手法を変更してもよい。
形態素解析の場合は、予め設定された辞書データをもとに、データを品詞に分割し、分割された要素をもとに特徴ベクトルへ変換する。例えば、「今日は、サッカーを、する」というテキストは、「今日/は/、/サッカー/を/、/する」と分割され、分割された要素をもとに特徴ベクトルに変換する。
また、n−gramの場合は、データを先頭から1文字ずつずらしながらn文字の組をつくり、それらを特徴ベクトルに変換する。例えば、「今日は、サッカーを、する」というテキストは、n−gram(n=6)の場合、「今日は、サッ/日は、サッカ/…/カーを、する」という要素が作られ、これらの要素をもとに特徴ベクトルに変換する。
また、区切り文字の場合は、データを予め定めた区切り文字(空白、句読点、カンマ等)によって分割し、分割された要素をもとに特徴ベクトルへ変換する。例えば、「今日は、サッカーを、する」というテキストは、区切り文字(”、”)の場合、「今日は/サッカーを/する」と分割され、分割された要素をもとに特徴ベクトルへ変換する。
特徴ベクトルへの変換には、各要素の出現回数をそのまま特徴ベクトルとする方式、出現回数によらず、ある要素が出現する(1)/出現しない(0)で数値化する方式等がある。ラベルに関しても所定の規則に従って数値化する。例えば、「スポーツ」/「非スポーツ」のラベルがある場合は、「スポーツ」を「1」、「非スポーツ」を「0」のように数値化する。
学習データ格納部102は、学習データ変換部101による変換済の学習データD1と、ユーザIDの組を格納する。学習データ格納部102は、一般のデータベース(MySQLやPostgreSQL等)を用いてもよいし、表形式やテキスト形式での格納などであってもよい。学習データ格納部102における、格納方法の種類は問わない。また、学習データ格納部102は、RAM(Random Access Memory)上に確保された作業領域で代用してもよい。
ユーザモデル作成部103は、学習データ格納部102から変換済の学習データD1とユーザIDの組を取り出し、ユーザID(ユーザ)ごとに固有の学習モデルであるユーザモデルを作成する。
図3は、ユーザモデル作成部103を説明する説明図である。図3に示すように、ユーザモデル作成部103は、ユーザIDごとの学習データD11、D12に対応したユーザモデルU1、U2を作成する。ユーザモデルU1、U2は、ユーザIDが「1」、「2」におけるユーザの特徴ベクトルと数値化ラベルとの組をもとに作成される、ユーザごとの学習モデルである。ユーザモデルU1、U2の作成には、一般の機械学習手法である、ロジスティック回帰、サポートベクターマシン、パーセプトロン等を用いてもよい。作成されたユーザモデルU1、U2は、n次元のベクトルで表記される。
異常度算出部104は、ユーザごとの学習データD1が示す各ユーザの特徴に基づいて、ユーザごとに、ユーザの特徴と、他のユーザの特徴とが、どの程度相違するかを示す指標値である異常度を算出する。具体的には、各ユーザの学習データD1や、ユーザモデルU1、U2を互いに比較することで、あるユーザが他のユーザとどの程度相違するかを示す異常度を算出する。この異常度の算出方法には、大きく分けて、各ユーザの学習データD1の違いにより算出する第1の算出方法、ユーザモデルU1、U2の違いにより算出する第2の算出方法、第1の算出方法と第2の算出方法を組み合わせた第3の算出方法がある。
第1の算出方法では、各ユーザの学習データD1の要素の違いを基に、各ユーザの異常度を算出する。例えば、他のユーザと比べて学習データの要素が極端に少ない、もしくは多いユーザの異常度を高く算出する。
図4は、異常度の算出を説明する説明図であり、より具体的には、第1の算出方法による異常度の算出を説明する図である。図4に示すように、第1の算出方法の具体例としては、全てのユーザの学習データ数の平均(図示例では「40」)を算出し、算出した平均と各ユーザの学習データ数との差を、各ユーザの異常度と定義する方法がある。また、全てのユーザの学習データ数の中央値(図示例では「30」)と、各ユーザの学習データ数の差を、各ユーザの異常度と定義する方法がある。なお、第1の算出方法は、図4の例に限定するものではなく、各ユーザの学習データD1の要素を互いに比較する方法であれば他の方法を用いてもよい。
第2の算出方法では、ユーザモデルU1、U2を表すベクトルの大きさや方向の違いを基に、各ユーザの異常度を算出する。例えば、ユーザモデルU1、U2を表すベクトルの大きさや方向が、他とは異なるユーザの異常度を高く算出する。
図5、図6は、異常度の算出を説明する説明図であり、より具体的には、第2の算出方法による異常度の算出を説明する図である。ここで、図5、図6におけるV、VおよびVはユーザIDが「1」、「2」、「3」のユーザモデルを2次元のベクトルとして表記したものである。また、図5におけるVは、V、VおよびVの平均のベクトルである。また、図6におけるV1n、V2nおよびV3nは、V、VおよびVを正規化したベクトルである。また、図6におけるVanは、V1n、V2nおよびV3nの平均のベクトルである。
図5に示すように、第2の算出方法としては、各ユーザのユーザモデルであるV、VおよびVの平均をとり、平均とV、VおよびVとの距離D、D、Dをユーザごとの異常度と定義する方法がある。この場合、Vと、V、VおよびVとの距離D、D、Dが大きくなるほど、異常度は高くなる。
また、図6に示すように、第2の算出方法としては、各ユーザのユーザモデルであるV、VおよびVについて正規化し、正規化したV1n、V2nおよびV3nの平均をとる。そして、平均したVanと、V、VおよびVとのなす角度をユーザごとの異常度と定義する方法がある。この場合、Vanと、V、VおよびVとのなす角度が大きくなるほど、異常度は高くなる。なお、第2の算出方法は、図5、6の例に限定するものではなく、各ユーザのユーザモデルU1、U2をもとに比較を行う方法であれば他の方法を用いてもよい。
第3の算出方法としては、例えば、(第1の算出方法で算出された異常度)+(第2の算出方法で算出された異常度)と算出する方法がある。なお、第1の算出方法および第2の算出方法の組み合わせは、上述した単純加算以外に乗算を用いてもよく、特に限定しない。
学習モデル作成部105は、入力された学習データD1に基づいて、判定装置20がデータD2に対応したラベルを判定するための学習モデルM1を作成する。具体的には、学習モデル作成部105は、ユーザモデル作成部103が作成した各ユーザのユーザモデルを統合した学習モデルM1を作成し、判定装置20へ出力する。この学習モデルM1の作成に際し、学習モデル作成部105は、異常度算出部104が算出した各ユーザの異常度に基づいて、他のユーザと特徴の相違が大きい、すなわち異常度の大きいユーザのユーザモデルが学習モデルM1に寄与する度合いを小さくして、学習モデルM1を作成する。異常度に応じてユーザの学習データD1の寄与を変更する方法としては、異常度から各ユーザモデルの重みを定義し、その重み付き平均により学習モデルを作成する方法、所定の閾値未満の重みに対応するユーザモデルを排除した上で学習モデルを作成する方法などがある。
重み付き平均により学習モデルを作成する方法において、ユーザモデルの重みの定め方としては、例えば異常度の逆数を重みとする方法がある。異常度の逆数を重みとする場合、異常度が0の時には、逆数の計算ができないため、予め設定しておいた数値を重みとする等の例外処理を行う。なお、重要度から重みを定める方法は上記に限定しない。
例えば、wiをユーザID=iのユーザモデルとし、λをユーザモデルwの重み、Kをユーザの総数としたとき、学習モデルwは以下の式(1)で算出してもよい。
Figure 0006231944
式(1)を用いる方法では、異常度の高いユーザモデルwは、学習モデルwへの寄与が小さくなる。
所定の閾値未満の重みに対応するユーザモデルを排除した上で学習モデルを作成する方法としては、重みλがある所定の閾値を下回っているユーザモデルwは用いずに学習モデルwを作成する方法がある。この閾値の設定方法は、ユーザがコンソール等より予め定める方法、重みλの平均を閾値とする方法があるが、それらに限定しない。
例えば、所定の閾値をaとした場合の学習モデルwは、以下の式(2)で算出してもよい。
Figure 0006231944
また、重みが閾値a以上となるユーザモデルwは、すべて均等に扱って学習モデルwを算出してもよい。この場合、学習モデルwは、以下の式(3)で与えられる。
Figure 0006231944
なお、すべてのユーザモデルの重みλが閾値aを下回った場合は、学習モデルwは0ベクトルとしてもよい。
判定装置20は、データ変換部201と、判定部202と、学習モデル格納部203と、判定結果出力部204とを有する。
データ変換部201は、ラベルが未知であるデータD2を入力として受け付ける。このデータD2は、例えばコンソールからの入力の他、例えば、入力がテキストの場合には、インターネット上の掲示板、ブログ、SNSなどへの任意の書き込みを収集したものであってもよい。データ変換部201は、学習データ変換部101と同様、受け付けたデータD2を特徴ベクトルに変換する。特徴ベクトルに変換されたデータD2は判定部202へ出力される。
判定部202は、特徴ベクトルに変換されたデータD2を受け取ると、学習モデル格納部203に格納されている学習モデルM1を参照し、データD2に対応するラベルを判定する。具体的には、特徴ベクトルと学習モデルM1との内積が0より大きければ数値化ラベル=1、0より小さければ数値化ラベル=0、0であれば数値化ラベル=−1(「−1」は「判定不能」を示す)のように、判定部202は、特徴ベクトルと学習モデルM1との内積の値をもとにラベル判定を行う。
学習モデル格納部203は、学習モデル作成装置10にて作成された学習モデルM1を格納する。学習モデル格納部203は、一般のデータベース(MySQLやPostgreSQL等)を用いてもよいし、表形式やテキスト形式での格納などであってもよい。学習モデル格納部203における、格納方法の種類は問わない。
判定結果出力部204は、判定部202で得られた判定結果(数値化ラベル)を、数値化ラベルとラベル表記との対応テーブルなどを参照し、数値化する前のラベルに変換する。そして、判定結果出力部204は、変換したラベルをユーザに識別可能な判定結果R1として出力する。ただし、判定部202で得られた判定結果が「−1」の場合には、「判定不能」などの文字列を判定結果R1として出力する。ここで、判定結果出力部204が行う判定結果R1の出力は、ディスプレイへの表示出力、HDD(Hard Disk Drive)等の記憶媒体へ書き込み、ネットワーク上の他の情報処理装置(例えばPC(Personal Computer)等)への送信などであってよい。
図7は、第1の実施形態にかかる判定システム1の処理フローを説明する説明図である。図7に示すように、学習モデル作成装置10は、複数のユーザについて、入力情報と、その入力情報に対応したラベルとを少なくとも組とする学習データD11、D12、D13…を受け付ける。そして、学習モデル作成装置10は、学習データ変換部101において、ユーザごとの学習データD11、D12、D13が示す特徴ベクトルへの変換等の学習データ変換の処理を行う(S1)。
次いで、学習モデル作成装置10は、ユーザモデル作成部103において、変換後のデータをもとにユーザモデルを作成し、異常度算出部104において、ユーザごとに、このユーザの特徴と、他のユーザの特徴との相違を示す異常度を算出する。そして、学習モデル作成装置10は、学習モデル作成部105において、算出した異常度と、ユーザモデルとに基づいて学習モデルM1を作成する処理(S2)を行う。このS2では、ユーザごとに算出された異常度に基づいて、他のユーザと特徴の相違が大きいユーザのユーザモデルが学習モデルM1に寄与する度合いを小さくする。
判定装置20は、ラベルが未知のデータD2の入力を受け付ける。そして、判定装置20は、データ変換部201において、受け付けたデータD2の特徴ベクトルへの変換等のデータ変換の処理を行う(S3)。次いで、判定装置20は、判定部202において、データ変換後のデータD2を受け取り、S2で作成された学習モデルM1を参照し、データD2に対応するラベルを判定する(S4)。そして、判定装置20は、判定したラベル(図示例では「スポーツ」)を判定結果R1として出力する。
以上のように、学習モデル作成装置10は、複数のユーザについて、入力情報と、その入力情報に対応したラベルとを少なくとも組とする学習データD1を受け付ける。そして、学習モデル作成装置10は、ユーザごとの学習データD1が示す特徴に基づいて、ユーザごとに、このユーザの特徴と、他のユーザの特徴との相違を示す異常度を算出する。そして、学習モデル作成装置10は、判定装置20がデータD2に対応したラベルを判定するための学習モデルM1を学習データD1に基づいて作成する際に、ユーザごとに算出された異常度に基づいて、他のユーザと特徴の相違が大きいユーザの学習データD1が学習モデルM1に寄与する度合いを小さくする。
このため、学習モデル作成装置10は、誤った学習データD1を与えるユーザが存在した場合であっても、そのユーザの学習データD1が学習モデルM1に寄与する度合いを小さくすることができ、判定精度の高い学習モデルM1を作成することができる。例えば、誤った学習データD1を与えるユーザが少数の場合には、それらのユーザが与える学習データD1やユーザモデルは多数のユーザのものと大きく異なるものとなる。したがって、誤った学習データD1を与えるユーザは異常度が高くなる。異常度の高いユーザの学習データD1は学習モデルM1へ寄与する度合いが小さくなるため、エキスパードデータなどで信頼度を加味することなく、判定精度の高い学習モデルM1の作成が可能となる。また、判定装置20では、学習モデル作成装置10で作成された学習モデルM1を参照してデータD2のラベル判定を行うことから、誤った学習データD1を与えるユーザの影響を抑えた、精度の高い判定を行うことが可能となる。
(第2の実施形態)
次に、第2の実施形態について説明する。上述した第1の実施形態では、各ユーザのユーザモデルを作成した後、ユーザごとの異常度を求め、求めた異常度を重みに変換する。そして、ユーザモデルと重みを用いて学習モデルM1を作成する。すなわち、第1の実施形態では、上述した処理を順次行って学習モデルM1を作成する順次法を例示した。第2の実施形態では、学習モデル(ユーザごとのユーザモデルおよびそれらを統合した学習モデル)と、ユーザごとの重みの更新を繰り返し、所定の収束条件を満たしたところで学習モデルとして出力する繰り返し法を例示する。
図8は、第2の実施形態にかかる判定システム1aの構成の一例を示すブロック図である。図8に示すように、判定システム1aの学習モデル作成装置10aは、初期化部111、学習モデル更新部112及びパラメータ更新部113を有する学習モデル作成部110としているところが判定システム1と異なっている。
初期化部111は、学習データ格納部102から学習データD1を受け取ると、各ユーザ(任意のユーザID=kをユーザkとする)のユーザモデルw、学習モデルw、重みλ、正則化パラメータη(実数)を予め定めておいた値で初期化する。次いで、初期化部111は、ユーザモデルw、学習モデルwおよび学習データD1を学習モデル更新部112に出力し、重みλ、正則化パラメータηをパラメータ更新部113へ出力する。
学習モデル更新部112は、各ユーザのユーザモデルwと学習モデルwを更新する。ここで、学習モデル更新部112における更新処理の詳細について説明する。先ず、ユーザID=kのユーザkが与えたi番目の学習データD1を(xki,yki)で表す。ここで、xkiはn次元の特徴ベクトル、ykiはラベルを表し、このラベルは0または1の値をとるものとする。なお、特徴ベクトルxkiは列ベクトルである。
また、ユーザkの与えた学習データD1の要素の総数をIとしたとき、I個の特徴ベクトルの転置を縦に並べて作ったI×n行列を次の式(4)のXで表す。
Figure 0006231944
ここで、x kiはxkiの転置を表す。また、行列Aの逆行列はA−1と表記する。
学習モデル更新部112は、各ユーザのユーザモデルwと学習モデルwを次の式(5)に従って更新する。なお、式(5)におけるwは更新前のユーザモデル、wnew は更新後のユーザモデルを示す。また、wは更新前の学習モデル、wnew は更新後の学習モデルを示す。
Figure 0006231944
ここで、βは予め定めておく必要がある正の実数であり、Hとgは次の式(6)で与えられる。
Figure 0006231944
は、(i,i)成分が(1−σ(w ki))σ(w ki)のI次対角行列である。また、Dは、i成分がyki−σ(w ki)のI次列ベクトルである。また、Iはn次単位行列である。ここで、σは次の式(7)で与えられる関数(シグモイド関数)である。
Figure 0006231944
学習モデル更新部112における更新は、所定の終了条件(収束条件)が満たされるまで実施される。ここで、終了条件としては、更新の回数が予定の数を超えた場合、更新の前後における学習モデルの変化が所定の値以下である場合などがある。
パラメータ更新部113は、各ユーザのユーザモデルにおける重みλと、正則化パラメータηを次の式(8)に従って更新する。この重みλは、他のユーザとの相違を示す指標値である。
Figure 0006231944
ここで、Tr[A]は行列Aのトレースを示す。なお、異常度の定め方としては、例えば重みの逆数を異常度とする方法が考えられるが、この方法以外であってもよく、特に限定しない。
上述した、学習モデル更新部112による学習モデル(ユーザごとのユーザモデルおよびそれらを統合した学習モデル)の更新と、パラメータ更新部113によるユーザごとの重みの更新を繰り返すことで得られる学習モデルwは、式(5)より以下の式(9)となる。
Figure 0006231944
上記の式(9)より、学習モデルwは、各ユーザモデルwの重み付き平均の定数倍で与えられることがわかる。なお、第1の実施形態における、所定の閾値未満を切り捨てる場合と同様、ある閾値aを定め、重みが閾値aを下回っているユーザモデルは上記の式で用いずに学習モデルwを作成してもよい。
図9は、第2の実施形態にかかる学習モデル作成の処理を示すフローチャートである。図9に示すように、学習モデル作成部110における処理が開始されると、初期化部111は、ユーザモデルw、学習モデルw、重みλ、正則化パラメータη(実数)を初期化する(S11)。次いで、学習モデル更新部112は、初期化されたユーザモデルwと学習モデルwを更新する(S12)。
次いで、パラメータ更新部113は、ユーザモデルにおける重みλと、正則化パラメータηを更新する(S13)。次いで、学習モデル更新部112は、S13で更新された重みλと、正則化パラメータηをもとに、ユーザモデルwと学習モデルwを更新する(S14)。次いで、学習モデル作成部110は、更新の回数が予定の数を超えたか否か、更新の前後における学習モデルの変化が所定の値以下であるか否かなど、所定の収束条件を満たすか否かを判定する(S15)。
所定の収束条件を満たさない場合(S15:NO)、学習モデル作成部110はS13へ処理を戻す。これにより、所定の収束条件を満たさない間は、ユーザモデルにおける重みλおよび正則化パラメータηの更新と、ユーザモデルwおよび学習モデルwの更新とが交互に繰り返し実施されることとなる。
所定の収束条件を満たす場合(S15:YES)、学習モデル作成部110は処理を終了し、収束条件を満たすまでに演算された学習モデルwを判定装置20へ出力する。
また、上述した実施形態において説明した学習モデル作成装置10および判定装置20が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上述した実施形態にかかる学習モデル作成装置10および判定装置20における処理と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上述した実施形態と同様の処理を実現してもよい。以下に、上述したプログラムを実行するコンピュータの一例を説明する。
図10は、実施形態にかかる判定システム1の学習モデル作成装置10および判定装置20における処理がコンピュータを用いて具体的に実現されることを示す図である。図10に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブに挿入される。シリアルポートインタフェース1050は、例えばマウス1051、キーボード1052に接続される。ビデオアダプタ1060は、例えばディスプレイ1061に接続される。
ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記のプログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、例えばハードディスクドライブ1031に記憶される。例えば、図1に例示した学習モデル作成装置10の機能構成(学習データ変換部101、学習データ格納部102、ユーザモデル作成部103、異常度算出部104、学習モデル作成部105)や判定装置20の機能構成(データ変換部201、判定部202、判定結果出力部204、学習モデル格納部203)と同様の情報処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、上述したプログラムを実行する際の作業領域などは、RAM1012に確保される。処理に必要な設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1031に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。また、学習モデル作成装置10および判定装置20を備える判定システム1は、上述した一つのコンピュータで実現されるものであってよいことは言うまでもないことである。
1、1a…判定システム
10、10a…学習モデル作成装置
20…判定装置
101…学習データ変換部
102…学習データ格納部
103…ユーザモデル作成部
104…異常度算出部
105、110…学習モデル作成部
111…初期化部
112…学習モデル更新部
113…パラメータ更新部
201…データ変換部
202…判定部
203…学習モデル格納部
204…判定結果出力部
D1、D11、D12、D13…学習データ
D2…データ
M1…学習モデル
U1、U2…ユーザモデル
R1…判定結果
1000…コンピュータ

Claims (8)

  1. 複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、
    前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、
    前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部と
    を備えることを特徴とする学習モデル作成装置。
  2. 前記複数のユーザの学習データに基づいて、前記ユーザごとに、当該ユーザの特徴をベクトルで示したユーザモデルを作成するユーザモデル作成部を更に備え、
    前記算出部は、前記ユーザごとに作成された前記ユーザモデルのベクトルが示す大きさまたは方向、あるいは大きさと方向の両方を、前記ユーザごとに、他のユーザと比較して前記指標値を算出する
    ことを特徴とする請求項1に記載の学習モデル作成装置。
  3. 前記算出部は、前記ユーザごとに作成された前記ユーザモデルの平均のユーザモデルと、前記ユーザごとのユーザモデルとを比較して前記指標値を算出する
    ことを特徴とする請求項2に記載の学習モデル作成装置。
  4. 前記算出部は、前記ユーザごとに、当該ユーザの学習データ数と、他のユーザの学習データ数とを比較して前記指標値を算出する
    ことを特徴とする請求項1に記載の学習モデル作成装置。
  5. 前記学習モデル作成部は、前記ユーザごとに算出された指標値が所定の閾値を超えるか否かに基づいて、前記ユーザの学習データが前記学習モデルに寄与する度合いを変更する
    ことを特徴とする請求項1乃至4のいずれか一項に記載の学習モデル作成装置。
  6. 前記学習モデル作成部は、前記ユーザごとに、当該ユーザの学習データが前記学習モデルに寄与する度合いを更新する処理と、当該更新された度合いをもとに前記学習モデルを更新する処理とを、所定の収束条件を満たすまで繰り返して前記学習モデルを作成する
    ことを特徴とする請求項1に記載の学習モデル作成装置。
  7. 学習モデルを作成する学習モデル作成装置と、前記学習モデルに基づいてラベルが未知の入力データに対応したラベルを判定する判定装置とを有する判定システムであって、
    前記学習モデル作成装置は、
    複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付ける受付部と、
    前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出する算出部と、
    前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための前記学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成する学習モデル作成部とを備え、
    前記判定装置は、
    前記学習モデル作成部が作成した学習モデルを格納する格納部と、
    前記格納された学習モデルに基づいて、前記ラベルが未知の入力データに対応したラベルを判定する判定部と
    を備えることを特徴とする判定システム。
  8. 学習モデル作成装置によって実行される学習モデル作成方法であって、
    複数のユーザについて、入力情報と、当該入力情報に対応したラベルとを少なくとも組とする学習データを受け付けるステップと、
    前記ユーザごとの学習データが示す当該ユーザの特徴に基づいて、前記ユーザごとに、当該ユーザの特徴と、他のユーザの特徴との相違を示す指標値を算出するステップと、
    前記複数のユーザの学習データに基づいて、ラベルが未知の入力データに対応したラベルを判定するための学習モデルを作成する際に、前記ユーザごとに算出された指標値に基づいて、他のユーザと特徴の相違が大きいユーザの学習データが前記学習モデルに寄与する度合いを小さくして前記学習モデルを作成するステップと
    を含むことを特徴とする学習モデル作成方法。
JP2014116280A 2014-06-04 2014-06-04 学習モデル作成装置、判定システムおよび学習モデル作成方法 Active JP6231944B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014116280A JP6231944B2 (ja) 2014-06-04 2014-06-04 学習モデル作成装置、判定システムおよび学習モデル作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116280A JP6231944B2 (ja) 2014-06-04 2014-06-04 学習モデル作成装置、判定システムおよび学習モデル作成方法

Publications (2)

Publication Number Publication Date
JP2015230570A JP2015230570A (ja) 2015-12-21
JP6231944B2 true JP6231944B2 (ja) 2017-11-15

Family

ID=54887313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116280A Active JP6231944B2 (ja) 2014-06-04 2014-06-04 学習モデル作成装置、判定システムおよび学習モデル作成方法

Country Status (1)

Country Link
JP (1) JP6231944B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11954566B2 (en) 2019-05-28 2024-04-09 Okuma Corporation Data collection system for machine learning and a method for collecting data

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6784039B2 (ja) * 2016-03-14 2020-11-11 日本電気株式会社 データ推定装置、データ推定方法、及び、データ推定プログラム
JP6563882B2 (ja) * 2016-09-16 2019-08-21 Kddi株式会社 ラベル付与装置、ラベル付与システム、ラベル付与方法、及びラベル付与プログラム
JP6736508B2 (ja) * 2017-03-16 2020-08-05 ヤフー株式会社 抽出装置、抽出方法および抽出プログラム
JP6950362B2 (ja) * 2017-08-29 2021-10-13 京セラドキュメントソリューションズ株式会社 情報処理システムおよびプログラム
JP7027070B2 (ja) 2017-08-31 2022-03-01 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019150813A1 (ja) * 2018-01-30 2019-08-08 富士フイルム株式会社 データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム
CN111712841A (zh) * 2018-02-27 2020-09-25 国立大学法人九州工业大学 标签收集装置、标签收集方法以及标签收集程序
JP7267964B2 (ja) * 2019-03-14 2023-05-02 アクタピオ,インコーポレイテッド 生成装置、生成方法および生成プログラム
JP7359206B2 (ja) * 2019-05-30 2023-10-11 日本電信電話株式会社 学習装置、学習方法、及びプログラム
US20220269953A1 (en) * 2019-09-02 2022-08-25 Nec Corporation Learning device, prediction system, method, and program
JP7243533B2 (ja) * 2019-09-03 2023-03-22 トヨタ自動車株式会社 情報処理方法および情報処理装置
US20220222585A1 (en) * 2019-09-18 2022-07-14 Nippon Telegraph And Telephone Corporation Learning apparatus, learning method and program
JP7563695B2 (ja) 2021-04-02 2024-10-08 三菱電機株式会社 類型判別装置、類型判別システム、学習済みモデルの生成方法、類型判別方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273475A (ja) * 2000-03-24 2001-10-05 Denso Corp 教師データ選別方法及び装置,学習機能付き制御装置,記録媒体
JP2005181928A (ja) * 2003-12-24 2005-07-07 Fuji Xerox Co Ltd 機械学習システム及び機械学習方法、並びにコンピュータ・プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11954566B2 (en) 2019-05-28 2024-04-09 Okuma Corporation Data collection system for machine learning and a method for collecting data

Also Published As

Publication number Publication date
JP2015230570A (ja) 2015-12-21

Similar Documents

Publication Publication Date Title
JP6231944B2 (ja) 学習モデル作成装置、判定システムおよび学習モデル作成方法
US8990128B2 (en) Graph-based framework for multi-task multi-view learning
CN106778878B (zh) 一种人物关系分类方法及装置
JP6772213B2 (ja) 質問応答装置、質問応答方法及びプログラム
JP6462970B1 (ja) 分類装置、分類方法、生成方法、分類プログラム及び生成プログラム
KR20230013793A (ko) 어텐션 메카니즘 및 의미분석 기반 문서 분류장치 및 방법
JP5638503B2 (ja) テキスト要約装置、方法及びプログラム
US20130204835A1 (en) Method of extracting named entity
JP5809381B1 (ja) 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム
WO2014073206A1 (ja) 情報処理装置、及び、情報処理方法
JP2020060970A (ja) コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム
JP7163618B2 (ja) 学習装置、学習方法、プログラム及び推定装置
JP2019160236A (ja) 学習データ生成方法、学習データ生成プログラムおよびデータ構造
WO2020179378A1 (ja) 情報処理システム、情報処理方法および記録媒体
JP6817690B2 (ja) 抽出装置、抽出方法とそのプログラム、及び、支援装置、表示制御装置
JP5623369B2 (ja) テキスト要約装置、方法及びプログラム
JP5175585B2 (ja) 文書処理装置、電子カルテ装置および文書処理プログラム
JP4405542B2 (ja) 音素モデルをクラスタリングする装置、方法およびプログラム
JP2020071737A (ja) 学習方法、学習プログラム及び学習装置
JP2022185799A (ja) 情報処理プログラム、情報処理方法および情報処理装置
WO2020241039A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP5824429B2 (ja) スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム
JP5462748B2 (ja) データ可視化装置、データ変換装置、方法、及びプログラム
JP5807966B2 (ja) 文書評価学習装置、文書評価装置、方法、及びプログラム
CN107622129B (zh) 一种知识库的组织方法及装置、计算机存储介质

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171020

R150 Certificate of patent or registration of utility model

Ref document number: 6231944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150