JP7047664B2 - 学習装置、学習方法および予測システム - Google Patents

学習装置、学習方法および予測システム Download PDF

Info

Publication number
JP7047664B2
JP7047664B2 JP2018156667A JP2018156667A JP7047664B2 JP 7047664 B2 JP7047664 B2 JP 7047664B2 JP 2018156667 A JP2018156667 A JP 2018156667A JP 2018156667 A JP2018156667 A JP 2018156667A JP 7047664 B2 JP7047664 B2 JP 7047664B2
Authority
JP
Japan
Prior art keywords
learning
data
domain
model
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018156667A
Other languages
English (en)
Other versions
JP2020030698A (ja
Inventor
充敏 熊谷
具治 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018156667A priority Critical patent/JP7047664B2/ja
Priority to PCT/JP2019/033186 priority patent/WO2020040312A1/ja
Priority to US17/270,054 priority patent/US20210326760A1/en
Publication of JP2020030698A publication Critical patent/JP2020030698A/ja
Application granted granted Critical
Publication of JP7047664B2 publication Critical patent/JP7047664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

特許法第30条第2項適用 https://arxiv.org/abs/1807.02927 https://arxiv.org/pdf/1807.02927.pdf ウェブサイトの掲載日 2018年7月9日
本発明は、学習装置、学習方法および予測システムに関する。
機械学習において、モデル(例えば、分類器等)の学習時と、当該モデルのテスト(当該モデルを用いた予測)時とで、サンプルの生成分布が異なる場合がある。このサンプルの生成分布とは、各サンプルに対して、それが起こり得る確率を記述したものである。例えば、あるサンプルの生成確率が、モデルの学習時には0.3であったものが、テスト時には0.5に変化している場合がある。
例えば、スパムメール分類の場合、スパムメール作成者は分類システムをすり抜けようと日々新しい特徴を有するスパムメールを作成するため、スパムメールの生成分布は時間と伴に変化する。また、画像分類の場合、同じ物体を映していても、撮影機器(デジタル一眼レフ、ガラケー等)や、撮影環境(光源の強さ、背景等)の違いによって、画像の生成分布は大きく異なる。
このような場合、通常の教師あり学習手法を用いると、その性能が大きく劣化してしまうという問題が生じる。ここで通常の教師あり学習手法とは、「サンプルとその属性(ラベル)の組」の集合(これをラベルありデータと呼ぶ)を基に、サンプルとラベルの関係を学習する手法のことである。サンプルとラベルの関係を学習することで、ラベルが不明のサンプルが与えられた時に、そのサンプルのラベルを予測できる。例えば、サンプルが新聞記事の場合、ラベルとしては、「政治」、「経済」、「スポーツ」などが考えられる。なお、ラベルが付与されていないサンプルの集合は、ラベルなしデータとよぶ。
以下では、解きたいタスクのあるドメインを目標ドメイン、目標ドメインに関連したドメインを元ドメインと呼ぶ。前述の記載に合せると、テスト時のデータの属するドメインが目標ドメイン、学習時のデータが属するドメインが元ドメインである。
目標ドメインのラベルありデータが大量に手に入れば、それを用いてモデルを学習することが最善である。しかし、多くのアプリケーションでは、目標ドメインのラベルありデータを十分に確保することは難しい。そのため、元ドメインのラベルありデータに加えて、比較的収集コストの低い目標ドメインのラベルなしデータを学習に用いることで、学習およびテスト時のデータの生成分布が異なる場合であっても、テストデータを精度よく予測可能な手法が数多く提案されている。
しかしながら、いくつかの実問題では、目標ドメインのデータを学習に利用し辛いケースがある。例えば、近年のIoT(Internet of Things)の普及に伴い、IoTデバイス上で音声認識や画像認識といった複雑な処理(予測)を行う事例が増えている。IoTデバイスは十分な計算リソースを持たないため、目標ドメインのデータが取得できた場合であっても、これらの端末上で負担のかかる学習を行うことは難しい。
また、IoTデバイスへのサイバー攻撃も急増しているが、IoTデバイスは多種多様(例えば、車、テレビ、スマホなど。車によっても車種によってデータの特徴は異なる)であり、続々と新たなIoTデバイスが世に放たれるため、新たなIoTデバイス(目標ドメイン)が現れる度に高コストの学習を行っていてはサイバー攻撃に即座に対応することはできない。
また、eメールシステムなどのパーソナライズドサービスでは、ユーザの個人情報を守るために、ユーザの許可なく、当該ユーザ(目標ドメイン)のデータを学習に使うことは出来ない。
複数の元ドメインのラベルありデータ“のみ”を用いて、目標ドメインに適する教師ありモデルを学習する手法が提案されている(Zero-shot domain adaptationと呼ばれる)。Zero-shot domain adaptationでは、目標ドメインのデータは学習時には利用しないため、前述のようなケースであっても適用することが出来る。従来のZero-shot domain adaptationには、主に以下の2つのアプローチがある。
一つは、複数の元ドメインで共通する情報(例えば、特徴表現など)であれば、目標ドメインでも共通して利用できるであろうと仮定し、複数の元ドメインで共通して使える情報のみを用いてドメイン不変な教師ありモデルを学習する。目標ドメインでは、その教師ありモデルを用いて予測を行う(非特許文献1参照)。
もう一つは、ドメイン不変な教師ありモデルではなく、目標ドメインに固有な教師ありモデルを予測するために、各ドメインの特徴を表す何らかの補助情報(時間情報、機器情報など)を用いる。補助情報を入力とし、教師ありモデルを出力とする関数を複数の元ドメインから学習することで、目標ドメインの補助情報が与えられた際に、目標ドメインに適した固有の教師ありモデルを予測できる(非特許文献2参照)。
Muhammad Ghifary, W. Bastiaan Kleijn, Mengjie Zhang, David Balduzzi, "Domain Generalization for Object Recognition with Multi-task Autoencoders", ICCV, 2015 Yongxin Yang & Timothy M. Hospedales,"A UNIFIED PERSPECTIVE ON MULTI-DOMAIN AND MULTI-TASK LEARNING"、ICLR, 385 2015.
しかしながら、従来の技術では、目標ドメインに適した高精度な教師ありモデルを得ることができない場合があるという問題があった。例えば、非特許文献1等に記載の技術の場合、各ドメインに共通の情報は用いるものの、各ドメイン固有の情報を無視してしまう。そのため、情報損失が起こり、目標ドメインのデータを精度よく予測できる教師あり学習モデルは学習できない可能性がある。
また、例えば、非特許文献2等に記載の技術の場合、ドメインの特徴を表す補助情報を用いて、各ドメイン固有の教師ありモデルを予測するため、情報損失は起こらないことが期待できる。しかしながら、すべての実問題で補助情報が得られるわけではない。このような補助情報が得られなければ、そもそも適用できないという問題がある。
上述した課題を解決し、目的を達成するために、本発明の学習装置は、教師あり学習によりモデル予測器を学習するモデル学習装置であって、前記教師あり学習の教師データの属する元ドメインであって、前記モデル予測器の予測対象データの属する目標ドメインと関連する複数の元ドメインのラベルありデータの入力を受け付ける学習データ入力部と、前記学習データ入力部によって入力された複数の元ドメインのラベルありデータにおける各ドメイン固有の情報を用いて、前記モデル予測器を学習する学習部とを備えることを特徴とする。
また、本発明の学習方法は、教師あり学習によりモデル予測器を学習するモデル学習装置によって実行される学習方法であって、前記教師あり学習の教師データの属する元ドメインであって、前記モデル予測器の予測対象データの属する目標ドメインと関連する複数の元ドメインのラベルありデータの入力を受け付ける学習データ入力工程と、前記学習データ入力工程によって入力された複数の元ドメインのラベルありデータにおける各ドメイン固有の情報を用いて、前記モデル予測器を学習する学習工程とを含むことを特徴とする。
また、本発明の予測システムは、教師あり学習によりモデル予測器を学習するモデル学習装置と、前記モデル予測器を用いて予測対象データの予測を行う予測装置とを有する予測システムであって、前記モデル学習装置は、前記教師あり学習の教師データの属する元ドメインであって、前記モデル予測器の予測対象データの属する目標ドメインと関連する複数の元ドメインのラベルありデータの入力を受け付ける学習データ入力部と、前記学習データ入力部によって入力された複数の元ドメインのラベルありデータにおける各ドメイン固有の情報を用いて、前記モデル予測器を学習する学習部と、を備え、前記予測装置は、前記目標ドメインのラベルなしデータの入力を受け付けるデータ入力部と、前記学習部によって学習されたモデル予測器を用いて、前記目標ドメインに適した教師ありモデルを出力し、該教師ありモデルを用いて、前記データ入力部によって入力された目標ドメインのラベルなしデータの予測を行う予測部と、前記予測部によって予測された予測結果を出力する出力部とを備えることを特徴とする。
本発明によれば、情報損失を防ぎ、補助情報を利用できないような場合であっても、目標ドメインに適した高精度な教師ありモデルを得ることができるという効果を奏する。
図1は、第1の実施形態の予測システムにおけるモデルの学習の概要を説明する図である。 図2は、第1の実施形態の予測システムの構成例を示す図である。 図3は、図2の学習装置の処理手順の一例を示すフローチャートである。 図4は、図2の予測装置の処理手順の一例を示すフローチャートである。 図5は、予測プログラムを実行するコンピュータを示す図である。
以下に、本願に係る学習装置、学習方法および予測システムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る学習装置、学習方法および予測システムが限定されるものではない。
[第1の実施形態]
以下、図面を参照しながら、本発明の実施形態を第1の実施形態について説明する。まず、図1を用いて、第1の実施形態の予測システム(システム)におけるモデルの学習の概要を説明する。
なお、以下において、モデルは、例えば、予測対象データ(テストデータ)の予測モデルであり、例えば、テストデータのサンプルのラベルを予測する分類器等である。また、モデルの作成(学習)に用いられる学習データは、ラベルありデータ等の教師データである。
また、以下の説明において、目標ドメインとは、解きたいタスクのあるドメインであり、元ドメインとは、目標ドメインとは異なるものの、関連するドメインを指す。例えば、目標ドメインの解きたいタスクを新聞記事の内容分類とした場合、目標ドメインは新聞記事の集合、元ドメインはSNS(Social Networking Service)での発言の集合等である。これは、新聞とSNSでは、単語の使われ方等で違いがあるものの、日本語の文章という点で類似し、新聞記事の分類にSNSの発言も有効活用できる可能性が高いからである。また、以下の説明において、ラベルありデータ等の教師データは元ドメインに属するデータであり、テストデータは目標ドメインに属するデータであるものとする。
第1の実施形態の予測システムでは、各ドメインのサンプル集合(図1の左図)から、ドメインの特徴を表す潜在ドメインベクトル(図1の中央図)を推測し、潜在ドメインベクトルから分類器を出力する(図1の右図)。第1の実施形態の予測システムでは、上記の関係を複数の元ドメインのラベルありデータを用いて学習しておくことで、目標ドメインのサンプル集合が与えられた際に、学習を行うことなく、即座に目標ドメインに適した分類器を出力できる。
次に、図2を用いて、第1の実施形態の予測システム1の構成例を説明する。なお、以下の説明において、学習装置10の用いる教師データは、ラベルありデータであり、予測装置20は、テストデータのサンプルのラベルを予測する場合を例に説明する。
予測システム1は、学習時に与えられる複数の元ドメインのラベルありデータと、予測時に与えられる目標ドメインのラベルなしデータのみを用いて、目標ドメインの補助情報を利用することなく、目標ドメインに適した教師ありモデルを予測する。予測システム1は、例えば、図2に示すように、学習装置10と予測装置20とを備える。なお、学習装置10と予測装置20とは別々の装置ではなく、両方の機能を有する一つの装置で実現されてもよい。
学習装置10は、複数の元ドメインのラベルありデータを用いて、各ドメインのサンプル集合から、ドメイン固有の教師ありモデルを出力する教師ありモデル予測器(関数)を学習する。
学習装置10は、学習データ入力部11と、特徴抽出部12と、教師ありモデル予測器学習部13と、記憶部14とを備える。
学習データ入力部11は、学習データの入力を受け付ける。具体的には、学習データ入力部11は、教師あり学習の教師データの属する元ドメインであって、モデル予測器の予測対象データの属する目標ドメインと関連する複数の元ドメインのラベルありデータの入力を受け付ける。
ラベルありデータとは、サンプルおよびそのサンプルの属性情報(ラベル)の対の集合である。例えば、サンプルがテキストの場合、ラベルとしては、そのテキストが表す内容(経済、政治、スポーツ等)が考えられる。一方で、ラベルなしデータとは、ラベルが付与されていないサンプルの集合である。上記の例の場合、テキストのみの集合がラベルなしデータに相当する。
特徴抽出部12は、データの特徴量を抽出する。例えば、特徴抽出部12は、学習データ入力部11により入力された元ドメインのラベルありデータを、特徴ベクトルとラベルの組に変換する。
ここで、特徴ベクトルとは、必要なデータの特徴をn次元の数ベクトルで表記したものである。特徴ベクトルへの変換については、機械学習で一般的に用いられている手法を利用する。例えば、データがテキストの場合には、形態素解析によるもの、n-gramによるもの、区切り文字によるもの等が考えられる。ラベルは当該ラベルを示すラベル値に変換する。
教師ありモデル予測器学習部13は、特徴抽出後の複数の元ドメインのラベルありデータを用いて、各ドメインのサンプル集合から、当該ドメインに適した教師ありモデルを出力する「教師ありモデル予測器」を学習する。教師ありモデルとしては、任意のモデルを用いればよい。すなわち、例えば、ラベルが離散値の場合には分類モデル、連続値の場合には回帰モデルが用いられる。
記憶部14は、教師ありモデル予測器学習部13によって学習された教師ありモデル予測器を記憶する。
予測装置20は、学習したモデルを用いることで、目標ドメインのサンプル集合が与えられた際に、目標ドメインに適した教師あり学習モデルを予測する。予測装置20は、データ入力部21と、特徴抽出部22と、予測部23と、予測結果出力部24とを備える。
データ入力部21は、目標ドメインのラベルなしデータの入力を受け付ける。具体的には、データ入力部21は、予測対象の目標ドメインのラベルなしデータ(サンプル集合)の入力を受け付ける。
特徴抽出部22は、目標ドメインのラベルなしデータの特徴量を抽出する。つまり、特徴抽出部22は、予測対象のサンプルを特徴ベクトルに変換する。ここでの特徴量の抽出は、学習装置10の特徴抽出部12と同様の手順により行われる。
予測部23は、学習装置10によって学習された教師ありモデル予測器を用いて、目標ドメインに適した教師ありモデルを出力し、該教師ありモデルを用いて、目標ドメインのラベルなしデータの予測を行う。具体的には、予測部23は、学習装置10により学習された教師ありモデル予測器を用いて、サンプル集合から教師ありモデルを出力する。そして、予測部23は、得られた教師ありモデルを用いて、各サンプルの予測を行う。予測結果出力部24は、予測部23による予測結果(例えば、各サンプルのラベル)を出力する。
次に、図3を用いて、学習装置10の処理手順を説明する。まず、学習装置10の学習データ入力部11は、複数ドメインのラベルありデータ(元ドメインのデータ)を入力として受け取る(S11)。次に、特徴抽出部12は、S11で受け付けた各ドメインのデータを特徴ベクトル、ラベルの組に変換する(S12)。
S12の後、教師ありモデル予測器学習部13は、各ドメインのサンプル集合から、ドメイン固有の教師ありモデルを出力する「教師ありモデル予測器」を学習する(S13)。
次に、図4を用いて、予測装置20の処理手順を説明する。まず、予測装置20のデータ入力部21は、目標ドメインのラベルなしデータ(サンプル集合)を入力として受領する(S21)。次に、特徴抽出部22は、S21で受け付けた各データ(テストデータ)を特徴ベクトルに変換する(S22)。そして、予測部23は、学習装置10により学習された教師ありモデル予測器を用いて、教師ありモデルを予測し、それを用いて各データを予測する(S23)。予測結果出力部24は、S23における予測の結果(予測結果)を出力する(S24)。
次に、教師ありモデル予測器学習部13による学習方法の一例を詳細に説明する。ここでは、目標ドメインのタスクとしてサンプルのラベルの分類問題(ラベルの値が離散値の場合の問題)を扱う場合を例に説明するが、本発明は回帰問題、ランキング問題等の任意の教師あり学習に適用可能である。
まず、d番目の元ドメインのラベルありデータを以下の数1に示すように定義する。ここで、xdnは、d番目の元ドメインのn番目のサンプルのM次元特徴ベクトルと定義する。
Figure 0007047664000001
また、n番目のサンプルのラベルを以下の数2に示すように定義する。
Figure 0007047664000002
また、d番目の元ドメインのラベルなしデータ(サンプル)集合を以下の数3に示すように定義する。
Figure 0007047664000003
ここでの目的は、D種類の元ドメインのラベルありデータが学習時に与えられたときに、任意のドメインに対する、ドメイン固有の分類器を予測する予測器を構築することである。D種類の元ドメインのラベルありデータについては、以下の数4に示すように定義する。
Figure 0007047664000004
本発明では、確率モデルを用いて予測器を構築する。まず、各ドメインdはk次元の潜在変数zを有すると仮定する。この潜在変数を以降では潜在ドメインベクトルと呼ぶ。この潜在ドメインベクトルは標準ガウス分布p(z)=N(z|0,1)から生成されるとする。各ドメインのサンプルxdnのラベルydnは、潜在ドメインベクトルzを用いて、pθ(ydn|xdn, z)で生成されるとする。ここで、θはパラメータである。具体的には、pθ(ydn|xdn, z)の正規化前のc番目の要素は、以下の(1)式で表される。
Figure 0007047664000005
ここで、hとgは、任意のニューラルネットワークである。潜在ベクトルzを変えることで上式は様々な分類器(決定境界)を表現することが出来る。すなわち、ドメインごとに適切にzを推定することで、各ドメインに適した分類器を得ることが出来る。
本発明の、対数周辺尤度は下記(2)式となる。
Figure 0007047664000006
この対数周辺尤度を解析的に計算出来れば、潜在ドメインベクトルの事後分布も得られるが、この計算は不可能である。従って、潜在ドメインベクトルの事後分布を以下の(3)式で近似する。
Figure 0007047664000007
ここで、平均関数と共分散関数はそれぞれ任意のニューラルネットワークであり、φはそれらのパラメータである。事後分布を上記でモデル化することで、ドメインのサンプル集合さえ与えられれば、当該ドメインに適した潜在ドメインベクトルを出力できることが期待できる。平均関数及び共分散関数は具体的には以下の(4)式の形のアーキテクチャで表現される。
Figure 0007047664000008
ここで、ρおよびηは任意のニューラルネットワークである。このようにアーキテクチャを定めることで、この出力はサンプル集合の順番に依らず常に一定の出力を返すことが出来る(すなわち、集合を入力としてとれる)。また、ηの出力は平均をとることによって、各ドメインでサンプルの数が異なる場合でも、安定して結果を出力できる。
対数周辺尤度の下限は、前述の近似事後分布を用いることで、以下の(5)式で表される。
Figure 0007047664000009
この下限はreparametrization trickを用いることで、下記(6)式のように、計算可能な形で近似できる。この下限Lをパラメータθ、φに関して最大化することで、所望の予測器が得られる。この最大化はstochastic gradient descent(SGD)を用いて通常の方法で実行可能である。
Figure 0007047664000010
また、以下では、上記の学習フェーズの説明で取り扱った具体例を用いて予測フェーズを説明する。目標ドメインd´のサンプル集合を以下の数11に示すように定義する。
Figure 0007047664000011
目標ドメインd´のサンプル集合が与えられた時、各サンプルのラベルは下記(7)式で予測される。
Figure 0007047664000012
[第1の実施形態の効果]
このように、第1の実施形態に係る予測システム1の学習装置10は、目標ドメインと関連する複数の元ドメインのラベルありデータの入力を受け付け、複数の元ドメインのラベルありデータにおける各ドメイン固有の情報を用いて、教師ありモデル予測器を学習する。また、予測装置20は、目標ドメインのラベルなしデータの入力を受け付け、学習された教師ありモデル予測器を用いて、目標ドメインに適した教師ありモデルを出力し、該教師ありモデルを用いて、目標ドメインのラベルなしデータの予測を行い、予測結果を出力する。このため、情報損失を防ぎ、補助情報を利用できないような場合であっても、目標ドメインに適した高精度な教師ありモデルを得ることが可能である。
つまり、予測システム1では、各ドメイン固有の情報を用いて各ドメイン固有の教師ありモデルを予測する。そのため、必要な情報を損失することなく、目標ドメインに適した教師ありモデルを予測できる。また、補助情報を利用せずとも、目標ドメインに固有の教師ありモデルを予測できるため、補助情報が利用できない環境であっても精度良い教師ありモデルを予測できる。
このため、予測システム1では、各ドメイン固有の情報も用いることで情報損失を防ぎ、補助情報の存在を仮定しないため、補助情報を利用できないようなケースを含む広範囲の実問題に対して、目標ドメインに適した高精度な教師ありモデルを得ることが出来る。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
また、上記の各実施形態で述べた予測システム1の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置を予測システム1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等がその範疇に含まれる。また、予測システム1の機能を、クラウドサーバに実装してもよい。
図5を用いて、上記のプログラム(予測プログラム)を実行するコンピュータの一例を説明する。図5に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図5に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記の実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、上記の予測プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU(Central Processing Unit)1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
1 予測システム
10 学習装置
11 学習データ入力部
12、22 特徴抽出部
13 教師ありモデル予測器学習部
14 記憶部
20 予測装置
21 データ入力部
23 予測部
24 予測結果出力部

Claims (4)

  1. 教師あり学習によりモデル予測器を学習するモデル学習装置であって、
    前記教師あり学習の教師データの属する元ドメインであって、前記モデル予測器の予測対象データの属する目標ドメインとはカテゴリが異なるが関連するカテゴリの複数の元ドメインのラベルありデータの入力を受け付ける学習データ入力部と、
    前記学習データ入力部によって入力された複数の元ドメインのラベルありデータにおける各ドメイン固有の情報を用いて、前記モデル予測器を学習する学習部と
    を備えることを特徴とする学習装置。
  2. 前記学習データ入力部によって入力された元ドメインのラベルありデータの特徴量を抽出する特徴抽出部をさらに備え、
    前記学習部は、前記特徴抽出部によって抽出された特徴量を用いて、前記モデル予測器を学習することを特徴とする請求項1に記載の学習装置。
  3. 教師あり学習によりモデル予測器を学習するモデル学習装置によって実行される学習方法であって、
    前記教師あり学習の教師データの属する元ドメインであって、前記モデル予測器の予測対象データの属する目標ドメインとはカテゴリが異なるが関連するカテゴリの複数の元ドメインのラベルありデータの入力を受け付ける学習データ入力工程と、
    前記学習データ入力工程によって入力された複数の元ドメインのラベルありデータにおける各ドメイン固有の情報を用いて、前記モデル予測器を学習する学習工程と
    を含むことを特徴とする学習方法。
  4. 教師あり学習によりモデル予測器を学習するモデル学習装置と、前記モデル予測器を用いて予測対象データの予測を行う予測装置とを有する予測システムであって、
    前記モデル学習装置は、
    前記教師あり学習の教師データの属する元ドメインであって、前記モデル予測器の予測対象データの属する目標ドメインとはカテゴリが異なるが関連するカテゴリの複数の元ドメインのラベルありデータの入力を受け付ける学習データ入力部と、
    前記学習データ入力部によって入力された複数の元ドメインのラベルありデータにおける各ドメイン固有の情報を用いて、前記モデル予測器を学習する学習部と、
    を備え、
    前記予測装置は、
    前記目標ドメインのラベルなしデータの入力を受け付けるデータ入力部と、
    前記学習部によって学習されたモデル予測器を用いて、前記目標ドメインに適した教師ありモデルを出力し、該教師ありモデルを用いて、前記データ入力部によって受け付けられた目標ドメインのラベルなしデータの予測を行う予測部と、
    前記予測部によって予測された予測結果を出力する出力部と
    を備えることを特徴とする予測システム。
JP2018156667A 2018-08-23 2018-08-23 学習装置、学習方法および予測システム Active JP7047664B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018156667A JP7047664B2 (ja) 2018-08-23 2018-08-23 学習装置、学習方法および予測システム
PCT/JP2019/033186 WO2020040312A1 (ja) 2018-08-23 2019-08-23 学習装置、学習方法および予測システム
US17/270,054 US20210326760A1 (en) 2018-08-23 2019-08-23 Learning device, learning method, and prediction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156667A JP7047664B2 (ja) 2018-08-23 2018-08-23 学習装置、学習方法および予測システム

Publications (2)

Publication Number Publication Date
JP2020030698A JP2020030698A (ja) 2020-02-27
JP7047664B2 true JP7047664B2 (ja) 2022-04-05

Family

ID=69592705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156667A Active JP7047664B2 (ja) 2018-08-23 2018-08-23 学習装置、学習方法および予測システム

Country Status (3)

Country Link
US (1) US20210326760A1 (ja)
JP (1) JP7047664B2 (ja)
WO (1) WO2020040312A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201718756D0 (en) * 2017-11-13 2017-12-27 Cambridge Bio-Augmentation Systems Ltd Neural interface
CN114462487A (zh) * 2021-12-28 2022-05-10 浙江大华技术股份有限公司 目标检测网络训练及检测方法、装置、终端及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7223234B2 (en) * 2004-07-10 2007-05-29 Monitrix, Inc. Apparatus for determining association variables

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
熊谷充敏 ほか,追加データを用いない未来の分類器学習法,人工知能学会論文誌,Vol. 33, No. 2,2018年03月01日,pp.1-9,インターネット: <URL: https://www.jstage.jst.go.jp/article/tjsai/33/2/33_D-H92/_pdf/-char/ja>

Also Published As

Publication number Publication date
JP2020030698A (ja) 2020-02-27
US20210326760A1 (en) 2021-10-21
WO2020040312A1 (ja) 2020-02-27

Similar Documents

Publication Publication Date Title
Ponmalar et al. An intrusion detection approach using ensemble support vector machine based chaos game optimization algorithm in big data platform
US10637826B1 (en) Policy compliance verification using semantic distance and nearest neighbor search of labeled content
US20210334706A1 (en) Augmentation device, augmentation method, and augmentation program
JP7517776B2 (ja) 転移学習を用いた低リソース・エンティティ解決
US11334773B2 (en) Task-based image masking
CN111831826B (zh) 跨领域的文本分类模型的训练方法、分类方法以及装置
JP6867276B2 (ja) モデル学習装置、モデル学習方法、および、予測システム
US20220036178A1 (en) Dynamic gradient aggregation for training neural networks
JP6450032B2 (ja) 作成装置、作成方法、および作成プログラム
JP6535134B2 (ja) 作成装置、作成プログラム、および作成方法
WO2014176056A2 (en) Data classification
JP7047664B2 (ja) 学習装置、学習方法および予測システム
Kehrenberg et al. Tuning fairness by balancing target labels
US11514318B2 (en) Multi-source transfer learning from pre-trained networks
CN111190967B (zh) 用户多维度数据处理方法、装置及电子设备
JP6230987B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
JP7298769B2 (ja) 機械学習プログラム、機械学習方法及び機械学習装置
US10990762B2 (en) Chat analysis using machine learning
WO2020170803A1 (ja) 拡張装置、拡張方法及び拡張プログラム
La et al. Transfer learning with reasonable boosting strategy
WO2019221206A1 (ja) 作成装置、作成方法、および作成プログラム
US20220405585A1 (en) Training device, estimation device, training method, and training program
US20210192133A1 (en) Auto-suggestion of expanded terms for concepts
JP7207532B2 (ja) 学習装置、学習方法及び予測システム
CN114781554B (zh) 一种基于小样本条件的开集识别方法及系统

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150