JP2019101789A - モデル学習装置、モデル学習方法、および、予測システム - Google Patents

モデル学習装置、モデル学習方法、および、予測システム Download PDF

Info

Publication number
JP2019101789A
JP2019101789A JP2017232390A JP2017232390A JP2019101789A JP 2019101789 A JP2019101789 A JP 2019101789A JP 2017232390 A JP2017232390 A JP 2017232390A JP 2017232390 A JP2017232390 A JP 2017232390A JP 2019101789 A JP2019101789 A JP 2019101789A
Authority
JP
Japan
Prior art keywords
model
learning
domain
data
conversion rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017232390A
Other languages
English (en)
Other versions
JP6867276B2 (ja
Inventor
充敏 熊谷
Mitsutoshi Kumagai
充敏 熊谷
具治 岩田
Tomoharu Iwata
具治 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017232390A priority Critical patent/JP6867276B2/ja
Publication of JP2019101789A publication Critical patent/JP2019101789A/ja
Application granted granted Critical
Publication of JP6867276B2 publication Critical patent/JP6867276B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】元ドメインと目標ドメインとでサンプルの生成分布が異なる場合であっても、予測精度の高いモデルを学習する。【解決手段】教師あり学習によりモデルを学習する学習装置は、教師あり学習の学習データの属する元ドメインにおけるサンプルの生成分布と、モデルのテストデータの属する目標ドメインにおけるサンプルの生成分布との間のMMDの値を最小化するような元ドメインから目標ドメインへの変換則を学習する。そして、学習装置は、学習した変換則を用いて元ドメインのデータを変換し、変換換した元ドメインのデータを用いた教師あり学習によりモデルを学習する。【選択図】図1

Description

本発明は、モデル学習装置、モデル学習方法、および、予測システムに関する。
機械学習において、モデル(例えば、分類器等)の学習時と、当該モデルのテスト(当該モデルを用いた予測)時とで、サンプルの生成分布が異なる場合がある。このサンプルの生成分布とは、各サンプルに対して、それが起こり得る確率を記述したものである。例えば、あるサンプルの生成確率が、モデルの学習時には0.3であったものが、学習されたモデルを用いたテスト時には0.5に変化している場合がある。
ここでモデルの学習は、データとその属性(ラベル)の組の集合を元手に、データとラベルとの関係を学習する方法(教師あり学習)により行われる。この教師あり学習によれば、ラベルが不明のデータが与えられた時に、そのデータのラベルを予測できる。例えば、データが新聞記事の場合、政治、経済、スポーツ等のラベルを予測できる。
上記のように、モデルの学習時とテスト時とでサンプルの生成分布が異なる場合に、教師あり学習を行うと、学習により得られたモデルによる予測精度が劣化するおそれがあるという問題がある。このような問題を解決するため、以下のような技術がある。
例えば、学習データの属するドメイン(元ドメイン)と、テスト時のデータの属するドメイン(目標ドメイン)との間、両者のサンプルの生成分布の差異が少なくなるような共通の低次元空間に射影する。そして、射影により得られた元ドメインのラベルありデータを用いてモデルを学習する技術がある(非特許文献1参照)。
また、元ドメインおよび目標ドメインのサンプルの生成分布の共分散が一致するよう、元ドメインから目標ドメインへの変換則を学習する。そして、当該変換則により元ドメインのラベルありデータを変換し、変換後の元ドメインのラベルありデータを用いて、モデルを学習する技術もある(非特許文献2参照)。
Baochen Sun,et al., "Return of Frustratingly Easy Domain Adaptation",AAAI-16,2016年 Sinno Jialin Pan,et al., "Domain Adaptation via Transfer Component Analysis",IEEE Transactions on Neural Networks ,2011年2月
しかし、非特許文献1等に記載の技術の場合、元ドメインおよび目標ドメインのデータを低次元空間に射影するため、各データが元々持っていた情報が失われてしまう可能性がある。また、非特許文献2等の記載の技術の場合、元ドメインおよび目標ドメインの生成分布の共分散(2次モーメント)に適合する変換則を学習することができるが、当該変換則は、2次以上のモーメントについては適合しない可能性がある。よって、変換則による変換後の元ドメインのラベルありデータを用いてモデルを学習しても、そのモデルの予測精度は必ずしも高くないという問題がある。
そこで、本発明は、前記した問題を解決し、元ドメインと目標ドメインとでサンプルの生成分布が異なる場合であっても、予測精度の高いモデルを学習することを課題とする。
前記した課題を解決するため、教師あり学習によりモデルを学習するモデル学習装置であって、前記教師あり学習の教師データの属する元ドメインにおけるサンプルの生成分布と、前記モデルのテストデータの属する目標ドメインにおけるサンプルの生成分布との任意の次数以下の全モーメントが適合するような、前記元ドメインから前記目標ドメインへの変換則を学習する変換則学習部と、前記学習した変換則を用いて前記元ドメインのデータを変換する変換部と、前記変換した元ドメインのデータを用いて、前記モデルを学習するモデル学習部と、を備えることを特徴とする。
本発明によれば、元ドメインと目標ドメインとでサンプルの生成分布が異なる場合であっても、予測精度の高いモデルを学習することができる。
図1は、第1の実施形態の予測システムにおけるモデルの学習の概要を説明する図である。 図2は、第1の実施形態の予測システムの構成例を示す図である。 図3は、図2の学習装置の処理手順の一例を示すフローチャートである。 図4は、図2の予測装置の処理手順の一例を示すフローチャートである。 図5は、第2の実施形態の予測システムの構成例を示す図である。 図6は、図2の学習装置の処理手順の一例を示すフローチャートである。 図7は、予測プログラムを実行するコンピュータを示す図である。
[第1の実施形態]
以下、図面を参照しながら、本発明の実施形態を第1の実施形態および第2の実施形態に分けて説明する。まず、図1を用いて、第1の実施形態の予測システム(システム)におけるモデルの学習の概要を説明する。
なお、以下において、モデルは、例えば、予測対象データ(テストデータ)の予測モデルであり、例えば、テストデータのサンプルのラベルを予測する分類器等である。また、モデルの作成(学習)に用いられる学習データは、ラベルありデータ等の教師データである。
また、以下の説明において、目標ドメインとは、解きたいタスクのあるドメインであり、元ドメインとは、目標ドメインと関連するドメインを指す。例えば、目標ドメインの解きたいタスクを新聞記事の内容分類とした場合、目標ドメインは新聞記事の集合、元ドメインはSNS(Social Networking Service)での発言の集合等である。これは、新聞とSNSでは、単語の使われ方等で違いがあるものの、日本語の文章という点で類似し、新聞記事の分類にSNSの発言も有効活用できる可能性が高いからである。また、以下の説明において、ラベルありデータ等の教師データは元ドメインに属するデータであり、テストデータは目標ドメインに属するデータであるものとする。
システムは、元ドメインの各データ(サンプル)の特徴分布と、目標ドメインの各データの特徴分布とができるだけ類似するような、元ドメインから目標ドメインへの変換則を求める。このような変換則を求めるため、例えば、システムは、元ドメインの特徴分布と、目標ドメインの特徴分布との間のMMD(Maximum Mean Discrepancy)等を用い、高次モーメントが適合するマッチングを行う。例えば、システムは、元ドメインおよび目標ドメインそれぞれの特徴分布のMMDを最小化するような変換則を求める。その後、システムは、上記の変換則による変換後の元ドメインのラベルありデータを得る。そして、システムは、変換後の元ドメインのラベルありデータを用いてモデル(例えば、分類器)を学習する。
このようなシステムによれば、モデルの学習にあたり、元ドメインおよび目標ドメインのサンプルを低次元空間へ射影しないので、必要な情報が失われない。また、システムは、元ドメインおよび目標ドメインそれぞれの特徴分布(サンプルの生成分布)間の高次モーメント(任意の次数以下の全モーメント。例えば、3次以下の全モーメント)についても適合するような変換則を求めるので、両ドメインの差異を微小にする変換則を得ることができる。そして、システムは、上記のようにして得た変換則により変換した元ドメインのデータを用いて、モデルの教師あり学習を行うので、目標ドメインのサンプルの生成分布に適合したモデルを得ることができる。
次に、図2を用いて、第1の実施形態のシステム1の構成例を説明する。なお、以下の説明において、学習装置10の用いる教師データは、ラベルありデータであり、予測装置20は、テストデータのサンプルのラベルを予測する場合を例に説明する。システム1は、例えば、図2に示すように、学習装置10と予測装置20とを備える。
学習装置10は、元ドメインのラベルありデータおよび目標ドメインのラベルなしデータを用いて、元ドメインから目標ドメインへの変換則を学習する。そして、学習装置10は、変換則により変換した元ドメインのラベルありデータを用いて、モデルを学習する。予測装置20は、学習装置10により学習されたモデルを参照して、テストデータの予測を行う。例えば、予測装置20は、学習装置10により学習されたモデルを用いて、テストデータのサンプルのラベルを予測する。
学習装置10は、学習データ入力部11と、特徴抽出部12と、変換則学習部13と、変換実行部14と、モデル学習部15と、記憶部16とを備える。
学習データ入力部11は、学習データの入力を受け付ける。例えば、学習データ入力部11は、元ドメインのラベルありデータ、および、目標ドメインのラベルなしデータの入力を受け付ける。
ラベルありデータとは、サンプルおよびそのサンプルの属性情報(ラベル)の対の集合である。例えば、サンプルがテキストの場合、ラベルとしては、そのテキストが表す内容(経済、政治、スポーツ等)が考えられる。一方で、ラベルなしデータとは、ラベルが付与されていないサンプルの集合である。上記の例の場合、テキストのみの集合がラベルなしデータに相当する。
特徴抽出部12は、データの特徴量を抽出する。例えば、特徴抽出部12は、学習データ入力部11により入力された元ドメインのラベルありデータを、特徴ベクトルとラベルの組に変換する。また、特徴抽出部12は、学習データ入力部11により入力された目標ドメインのラベルなしデータを特徴ベクトルに変換する。
ここで、特徴ベクトルとは、必要なデータの特徴をn次元の数ベクトルで表記したものである。特徴ベクトルへの変換については、機械学習で一般的に用いられている手法を利用する。例えば、データがテキストの場合には、形態素解析によるもの、n-gramによるもの、区切り文字によるもの等が考えられる。ラベルは当該ラベルを示すラベル値に変換する。
変換則学習部13は、特徴抽出部12により抽出されたラベルありデータとラベルなしデータの特徴量を用いて、元ドメインから目標ドメインへの変換則を学習する。変換則の学習の基準としては、変換後の元ドメインと目標ドメインとの間でサンプルの生成分布が、高次モーメント(例えば、3次以下の全モーメント)までできるだけ一致するような変換則を学習する。
なお、元ドメインは、目標ドメインと関連するドメインなので、変換則学習部13は、元ドメインから目標ドメインへの変化は少ないと仮定した上で変換則を学習する。このような仮定の下に変換則の学習を行うことで、元ドメインと目標ドメインとの関係に適合した変換則の学習を行うことができる。また、変換により元ドメインにおけるサンプルとラベルとの関係が大きく崩れないような変換則を得ることができる。その結果、モデル学習部15が、変換則による変換後の元ドメインのラベルありデータを用いてモデルの学習(教師あり学習)をする際、安定して精度よくモデルの学習を行うことができる。この変換則の学習の詳細については具体例を交えながら後記する。
変換実行部14は、変換則学習部13で学習した変換則を用いて、元ドメインのラベルありデータを変換する。
モデル学習部15は、変換実行部14により変換された元ドメインのラベルありデータを用いて、モデルの学習を行う。このモデルは、例えば、テストデータのサンプルの特徴量の入力を受け付けると、当該サンプルのラベルを出力する分類器である。
予測装置20は、データ入力部21と、特徴抽出部22と、予測部23と、予測結果出力部24とを備える。
データ入力部21は、目標ドメインにおける予測対象のデータ(テストデータ)の入力を受け付ける。特徴抽出部22は、テストデータの特徴量を抽出する。ここでの特徴量の抽出は、学習装置10の特徴抽出部22と同様の手順により行われる。予測部23は、学習装置10により学習されたモデルを参照して、テストデータのサンプルを予測する。例えば、予測部23は、上記のモデルを参照して、テストデータのサンプルのラベルを予測する。予測結果出力部24は、予測部23による予測結果(例えば、各サンプルのラベル)を出力する。
次に、図3を用いて、学習装置10の処理手順を説明する。まず、学習装置10の学習データ入力部11は、ラベルありデータ(元ドメインのデータ)およびラベルなしデータ(目標ドメインのデータ)の入力を受け付ける(S11)。次に、特徴抽出部12は、S11で受け付けた各データを特徴ベクトルに変換する(S12)。つまり、特徴抽出部12は、S11で受け付けた元ドメインのデータについては、特徴ベクトルとラベルの組に変換し、目標ドメインのデータについては特徴ベクトルに変換する。
S12の後、変換則学習部13は、S12で変換された各データの特徴ベクトル、ラベルの組を用いて、元ドメインから目標ドメインへの変換則を学習する(S13)。そして、変換実行部14は、S13で学習された変換則を用いて元ドメインのデータの変換を実行する(S14)。モデル学習部15は、S14で変換された元ドメインのデータを用いてモデルを学習する(S15)。モデル学習部15は、学習したモデルを記憶部16に記憶する。
次に、図4を用いて、予測装置20の処理手順を説明する。まず、予測装置20のデータ入力部21は、目標ドメインのテストデータの入力を受け付ける(S21)。次に、特徴抽出部22は、S21で受け付けた各データ(テストデータ)を特徴ベクトルに変換する(S22)。そして、予測部23は、学習装置10により学習されたモデルを用いて各データを予測する(S23)。予測結果出力部24は、S23における予測の結果(予測結果)を出力する(S24)。
次に、変換則学習部13による変換則の学習方法の一例を詳細に説明する。ここでは、目標ドメインのタスクとしてサンプルのラベルの分類問題(ラベルの値が離散値(1からJ)の場合の問題)を扱う場合を例に説明するが、本発明は回帰問題、ランキング問題等の任意の教師あり学習に適用可能である。
まず、元ドメインのラベルありデータを以下の数1に示すように定義する。
Figure 2019101789
また、目標ドメインのラベルなしデータを数2に示すよう以下のように定義する。
Figure 2019101789
ここでの目的は、元ドメインのラベルありデータおよび目標ドメインのラベルなしデータを用いて、目標ドメイン(テストデータ)のサンプルのラベルを精度よく予測するモデルを得るための変換則を学習することである。なお、ここでのモデルは、例えば、以下の数3に示す分類器hである。
Figure 2019101789
変換則学習部13は、元ドメインのラベルありデータおよび目標ドメインのラベルなしデータを用いて、元ドメインから目標ドメインへの変換則として、以下の数4に示す変換則Fを学習する。
Figure 2019101789
この変換則Fは、変換後の元ドメインと目標ドメインとでサンプルの生成分布が類似するように学習される。類似度を測る指標としては、例えば、MMDを用いる。MMDは、以下の数5に示す式(1)のように定義される。
Figure 2019101789
このときカーネルkが、例えば、RBF(Radial Basis Function)カーネルのように特性的であるならば、以下の数6に示す関係が成り立つ。
Figure 2019101789
また、カーネルkとしてd次多項式カーネルを用いた場合、以下の数7に示す関係が成り立つ。
Figure 2019101789
なお、MMDの2乗は、サンプル集合X={x,…,x},サンプル集合Z={z,…,z}を用いて、以下の数8に示す式(2)により近似される。
Figure 2019101789
上記のように、変換則学習部13は、変換後の元ドメインと目標ドメインとのサンプルの生成分布の類似度を測る際にMMDを用いることで、両ドメインにおけるサンプルの生成分布の密度の推定等の難しいタスクを介することなく、両ドメインにおけるサンプルの生成分布の類似度を測ることができる。
なお、上記の変換則Fの関数形は以下の数9に示すように定義される。
Figure 2019101789
上記の関数形における行列Aのフロベニウスノルムは小さいと仮定する。つまり、元ドメインから目標ドメインへの変化は少ないと仮定する。変換則Fを上記の関数形と定義することで、変換則Fの学習問題は、元データx(上記の元ドメインのサンプル群)からの残差Axの学習問題に置き換わる。一般に2つの生成分布を一致させるような変換則Fは多数あるので、変換則Fの関数形を制限することなく適切な変換則Fを得ることは困難である。しかし、変換則Fの関数形を上記のように制限し、残差Axの学習問題に置き換えることで、適切な変換則Fを得やすくなる。例えば、特徴ベクトルとラベルの関係を大きく崩すことなく、元ドメインと目標ドメインとの間のサンプルの生成分布を合わせるような変換則Fを得やすくなる。
ここで、上記の行列Aは、以下の数10に示す目的関数(式(3))を最小化することで求められる。
Figure 2019101789
上記の式(3)における第1項は、変換された元ドメインのサンプルの生成分布と、目標ドメインのサンプルの生成分布との間のMMDである。また、式(3)における第2項は、正則化項(行列Aのフロベニウスノルムの2乗)である。式(3)におけるγはMMDと正則化項のトレードオフを調整するパラメータである。このγを大きくすると、学習される行列Aは零ベクトルに近くなるため、元ドメインから大きく変化させることなく(元ドメインの特徴ベクトルとラベルの関係を大きく崩すことなく)、両ドメインのサンプルの生成分布が近くなるような行列Aが得られる。このγの値は、学習装置10の操作者が適宜設定する。
式(3)に示す目的関数は、目標ドメインのサンプル集合{x,…,x}および変換後の元ドメインのサンプル集合{(A+I)x,…,(A+I)x}を用いて、以下の数11に示す式(4)により近似される。
Figure 2019101789
式(4)に示す目的関数の最小化は、一般的な勾配ベースの最適化手法を用いて行われる。勾配ベースの最適化手法を利用するためには、勾配情報が必要となる。式(4)に示す目的関数の勾配は、以下の数12に示す式(5)により求めることができる。
Figure 2019101789
したがって、変換則学習部13は、式(5)に示す勾配を用いて、式(4)に示す目的関数を最小化する行列Aを求めることで、変換則Fを得ることができる。
上記のように変換則学習部13は、元ドメインと目標ドメインとのサンプルの生成分布のMMDを最小化するような変換則Fを求めるので、両ドメインのサンプルの生成分布の多次モーメントについても適合するような変換則Fを得ることができる。そして、モデル学習部15は、上記のようにして得た変換則Fにより変換した元ドメインのラベルありデータを用いてモデルの学習を行うので、目標ドメインのサンプルに適合したモデルを得ることができる。そして、予測装置20は、上記のようにして得られたモデルを用いることで、テストデータの予測を精度よく行うことができる。また、学習装置10は、変換則Fの学習と、モデルの学習とを別々に行うので、例えば、モデルの学習について、公知の教師ありモデル学習の技術を用いることも可能である。
なお、変換則学習部13は、元ドメインと目標ドメインとのサンプルの生成分布の多次モーメントについても適合するような変換則Fを求めるため、MMDを用いることとしたが、テンソル(tensor)等他の方法を用いてもよい。
[第2の実施形態]
次に、図5を用いて、本発明の第2の実施形態を説明する。前記した第1の実施形態と同じ構成は同じ符号を付して説明を省略する。図5に示すように、第2の実施形態のシステム1aは、変換則Fの学習とモデルの学習とを同時に行う学習装置10aを備える。このような学習装置10aによれば、元ドメインのラベルも利用して変換則Fを学習するので、モデル(教師ありモデル)で学習しやすい変換則Fを学習することができる。その結果、学習装置10aは、テストデータの予測を精度よく行うモデルを学習しやすくなる。
このような学習装置10aは、図2に示す変換則学習部13、変換実行部14およびモデル学習部15に代えて、図5に示す変換則およびモデル学習部15aを備える。変換則およびモデル学習部15aは、変換則Fの学習とモデル(教師ありモデル)の学習とを同時に行う。
図2に示す変換則学習部13は、変換則Fを得るための目的関数として、前記した式(3)を用いていたが、学習装置10aにおける、変換則およびモデル学習部15aは、変換則Fの学習と教師ありモデルの学習のため、式(3)に示す目的関数に、以下の数13に示す損失項を加える。
Figure 2019101789
例えば、変換則およびモデル学習部15aは、変換則Fの学習および教師ありモデルの学習のため、以下の数14に示す目的関数(式(6))を用いる。なお、式(6)におけるcは、トレードオフパラメータである。
Figure 2019101789
変換則およびモデル学習部15aは、例えば、式(6)のように、変換後の元ドメインのサンプルに対し、教師ありモデルにより予測されたラベルが実際のラベルに近いほど値が小さくなるよう設計された目的関数を用いて、変換則Fの学習および教師ありモデルの学習を行う。例えば、変換則およびモデル学習部15aは、式(6)に示す目的関数を最小化するような行列Aと、教師ありモデルのパラメータWとを求める。これにより、変換則およびモデル学習部15aは、変換後の元ドメインのサンプルに対するラベルの予測精度の高い変換則Fの学習および教師ありモデルを学習することができる。
次に、図6を用いて、学習装置10aの処理手順を説明する。図6のS31およびS32は、図3のS11およびS12と同じ処理なので、図6のS33を説明する。まず、学習装置10aの変換則およびモデル学習部15aは、例えば、式(6)に示す目的関数を用いて、元ドメインから目標ドメインへの変換則とモデルとを学習する(S33)。その後、変換則およびモデル学習部15aは、S33で学習したモデルを記憶部16に記憶する。
このような学習装置10aによれば、元ドメインのラベルも利用して変換則Fを学習するので、モデル(教師ありモデル)で学習しやすい変換則Fを学習することができる。その結果、学習装置10aは、テストデータの予測を精度よく行うモデルを学習することができる。
[プログラム]
また、上記の各実施形態で述べたシステム1,1aの機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置をシステム1,1aとして機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等がその範疇に含まれる。また、システム1,1aの機能を、クラウドサーバに実装してもよい。
図7を用いて、上記のプログラム(予測プログラム)を実行するコンピュータの一例を説明する。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図7に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記の実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、上記の予測プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU(Central Processing Unit)1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
1,1a システム
10 学習装置
11 学習データ入力部
12,22 特徴抽出部
13 変換則学習部
14 変換実行部
15 モデル学習部
15a 変換則およびモデル学習部
16 記憶部
20 予測装置
21 データ入力部
23 予測部
24 予測結果出力部

Claims (5)

  1. 教師あり学習によりモデルを学習するモデル学習装置であって、
    前記教師あり学習の教師データの属する元ドメインにおけるサンプルの生成分布と、前記モデルのテストデータの属する目標ドメインにおけるサンプルの生成分布との任意の次数以下の全モーメントが適合するような、前記元ドメインから前記目標ドメインへの変換則を学習する変換則学習部と、
    前記学習した変換則を用いて前記元ドメインのデータを変換する変換部と、
    前記変換した元ドメインのデータを用いて、前記モデルを学習するモデル学習部と、
    を備えることを特徴とするモデル学習装置。
  2. 前記変換則学習部は、前記元ドメインにおけるサンプルの生成分布と、前記目標ドメインにおけるサンプルの生成分布との間のMMD(Maximum Mean Discrepancy)の値を最小化するような前記変換則を求めることで、前記元ドメインにおけるサンプルの生成分布と、前記目標ドメインにおけるサンプルの生成分布との任意の次数以下の全モーメントが適合するような前記変換則を学習する
    ことを特徴とする請求項1に記載のモデル学習装置。
  3. 前記変換則学習部は、前記元ドメインから前記目標ドメインへの変換則を学習する際、前記元ドメインから前記目標ドメインへの変化が所定値以下となる変換則の中から、前記変換則を学習する
    ことを特徴とする請求項1または請求項2に記載のモデル学習装置。
  4. 教師あり学習によりモデルを学習するモデル学習装置によるモデル学習方法であって、
    前記教師あり学習の教師データの属する元ドメインにおけるサンプルの生成分布と、前記モデルのテストデータの属する目標ドメインにおけるサンプルの生成分布との任意の次数以下の全モーメントが適合するような、前記元ドメインから前記目標ドメインへの変換則を学習するステップと、
    前記学習した変換則を用いて前記元ドメインのデータを変換するステップと、
    前記変換した元ドメインのデータを用いて、前記モデルを学習するステップと、
    を含んだことを特徴とするモデル学習方法。
  5. 教師あり学習によりモデルを学習するモデル学習装置と、前記モデルを用いてテストデータの予測を行う予測装置とを有する予測システムであって、
    前記モデル学習装置は、
    前記教師あり学習の教師データの属する元ドメインにおけるサンプルの生成分布と、前記モデルのテストデータの属する目標ドメインにおけるサンプルの生成分布との任意の時数以下の全モーメントが適合するような、前記元ドメインから前記目標ドメインへの変換則を学習する変換則学習部と、
    前記学習した変換則を用いて前記元ドメインのデータを変換する変換部と、
    前記変換した元ドメインのデータを用いて、前記モデルを学習するモデル学習部と、
    を備えることを特徴とする予測システム。
JP2017232390A 2017-12-04 2017-12-04 モデル学習装置、モデル学習方法、および、予測システム Active JP6867276B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017232390A JP6867276B2 (ja) 2017-12-04 2017-12-04 モデル学習装置、モデル学習方法、および、予測システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017232390A JP6867276B2 (ja) 2017-12-04 2017-12-04 モデル学習装置、モデル学習方法、および、予測システム

Publications (2)

Publication Number Publication Date
JP2019101789A true JP2019101789A (ja) 2019-06-24
JP6867276B2 JP6867276B2 (ja) 2021-04-28

Family

ID=66976992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232390A Active JP6867276B2 (ja) 2017-12-04 2017-12-04 モデル学習装置、モデル学習方法、および、予測システム

Country Status (1)

Country Link
JP (1) JP6867276B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102166016B1 (ko) * 2019-09-10 2020-10-15 인하대학교 산학협력단 이미지 대 이미지의 변환을 위한 도메인 인식 기반의 변환 기법
CN111982514A (zh) * 2020-08-12 2020-11-24 河北工业大学 一种基于半监督深度信念网络的轴承故障诊断方法
WO2021025217A1 (ko) * 2019-08-08 2021-02-11 엘지전자 주식회사 인공지능 서버
CN113628640A (zh) * 2021-07-15 2021-11-09 河南工业大学 一种基于样本均衡和最大均值差异的跨库语音情感识别方法
KR20220027565A (ko) * 2020-08-27 2022-03-08 연세대학교 산학협력단 참고 이미지의 특성을 고려한 종합적 스타일 변환 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016125500A1 (ja) * 2015-02-06 2016-08-11 日本電気株式会社 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体
WO2017046828A1 (en) * 2015-09-16 2017-03-23 Nec Corporation Pattern recognition apparatus, method, and program using domain adaptation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016125500A1 (ja) * 2015-02-06 2016-08-11 日本電気株式会社 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体
WO2017046828A1 (en) * 2015-09-16 2017-03-23 Nec Corporation Pattern recognition apparatus, method, and program using domain adaptation

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ARTHUR GRETTON, ET AL.: "A Kernel Method for the Two-Sample Problem", ARXIV:0805.2368, JPN6020050317, 15 May 2008 (2008-05-15), pages 1 - 43, ISSN: 0004415857 *
SINNO JIALIN PAN, ET AL.: "Domain Adaptation via Transfer Component Analysis", IEEE TRANSACTIONS ON NEURAL NETWORKS, vol. 22, no. 2, JPN6020050312, February 2011 (2011-02-01), pages 199 - 210, XP011411396, ISSN: 0004415856, DOI: 10.1109/TNN.2010.2091281 *
高道 慎之介、ほか: "Momentmatchingnetworkを用いた音声パラメータのランダム生成の検討", 日本音響学会 2017年 春季研究発表会講演論文集CD−ROM [CD−ROM], JPN6020050319, 1 March 2017 (2017-03-01), pages 265 - 266, ISSN: 0004415858 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021025217A1 (ko) * 2019-08-08 2021-02-11 엘지전자 주식회사 인공지능 서버
KR102166016B1 (ko) * 2019-09-10 2020-10-15 인하대학교 산학협력단 이미지 대 이미지의 변환을 위한 도메인 인식 기반의 변환 기법
CN111982514A (zh) * 2020-08-12 2020-11-24 河北工业大学 一种基于半监督深度信念网络的轴承故障诊断方法
CN111982514B (zh) * 2020-08-12 2023-03-24 河北工业大学 一种基于半监督深度信念网络的轴承故障诊断方法
KR20220027565A (ko) * 2020-08-27 2022-03-08 연세대학교 산학협력단 참고 이미지의 특성을 고려한 종합적 스타일 변환 장치 및 방법
KR102401985B1 (ko) * 2020-08-27 2022-05-24 연세대학교 산학협력단 참고 이미지의 특성을 고려한 종합적 스타일 변환 장치 및 방법
CN113628640A (zh) * 2021-07-15 2021-11-09 河南工业大学 一种基于样本均衡和最大均值差异的跨库语音情感识别方法

Also Published As

Publication number Publication date
JP6867276B2 (ja) 2021-04-28

Similar Documents

Publication Publication Date Title
JP6867276B2 (ja) モデル学習装置、モデル学習方法、および、予測システム
CN110276066B (zh) 实体关联关系的分析方法及相关装置
US10417350B1 (en) Artificial intelligence system for automated adaptation of text-based classification models for multiple languages
US20230351192A1 (en) Robust training in the presence of label noise
US11455527B2 (en) Classification of sparsely labeled text documents while preserving semantics
US10262272B2 (en) Active machine learning
WO2020167490A1 (en) Incremental training of machine learning tools
US20200394511A1 (en) Low-Resource Entity Resolution with Transfer Learning
US11669687B1 (en) Systems and methods for natural language processing (NLP) model robustness determination
CN110209802B (zh) 一种提取摘要文本的方法及装置
US20230325675A1 (en) Data valuation using reinforcement learning
US20180330279A1 (en) Computer-readable recording medium, learning method, and learning apparatus
CN113434683A (zh) 文本分类方法、装置、介质及电子设备
US11164043B2 (en) Creating device, creating program, and creating method
Han et al. SlimML: Removing non-critical input data in large-scale iterative machine learning
US10546246B2 (en) Enhanced kernel representation for processing multimodal data
US20220292393A1 (en) Utilizing machine learning models to generate initiative plans
JP7047664B2 (ja) 学習装置、学習方法および予測システム
WO2019221206A1 (ja) 作成装置、作成方法、および作成プログラム
Kumar et al. Cluster-than-label: Semi-supervised approach for domain adaptation
Wang et al. Domain transfer multi-instance dictionary learning
WO2021063086A1 (zh) 一种三元组抽取方法、装置、设备及存储介质
WO2022219686A1 (ja) 密度比推定装置、密度比推定方法および密度比推定プログラム
JP7017176B2 (ja) 学習装置、識別装置、それらの方法、およびプログラム
Choi et al. Document classification using Word2Vec and Chi-square on apache spark

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210408

R150 Certificate of patent or registration of utility model

Ref document number: 6867276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150