JP6814981B2 - 学習装置、識別装置、学習識別システム、及び、プログラム - Google Patents
学習装置、識別装置、学習識別システム、及び、プログラム Download PDFInfo
- Publication number
- JP6814981B2 JP6814981B2 JP2017098161A JP2017098161A JP6814981B2 JP 6814981 B2 JP6814981 B2 JP 6814981B2 JP 2017098161 A JP2017098161 A JP 2017098161A JP 2017098161 A JP2017098161 A JP 2017098161A JP 6814981 B2 JP6814981 B2 JP 6814981B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- vector
- neural network
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Description
上記非特許文献1に開示される転移学習では、深層学習後の多層ニューラルネットワークの入力層から、ある隠れ層までの下位層を、汎用の特徴抽出器としてそのまま利用する。そして、多層ニューラルネットワークにおいて、当該隠れ層の出力を受ける隠れ層から出力層までの上位層を、新たに構成した適応層(つまり、新たな隠れ層及び出力層)で置き換え、転移先学習用データを用いて当該適応層の学習を行う。
まず、図1及び図2を用いて、ニューラルネットワークが行う演算の計算モデルを説明する。
って、荷重値を隠れ層ごとに個別に調整してもよい。これにより、その後の教師付き学習によって、より正確な分類ができる荷重Wが得られる。
[学習識別システム1の構成]
図3は、実施の形態1に係る学習識別システム1の機能的な構成の一例を示すブロック図である。
図4は、実施の形態1に係る転移元ニューラルネットワーク学習装置2の機能的な構成の一例を示すブロック図である。
転移先学習用データ保持部30は、例えばメモリであり、正解ラベル付き学習用データである転移先学習用データを保持する。転移先学習用データは、例えば、敗血症または非敗血を正解ラベルとして付与されたたんぱく質の2次元電気泳動像などである。たんぱく質の2次元電気泳動像は、等電点と分子量とによって分離された像である。転移先学習用データは、転移元学習用データより小規模なデータである。
図5は、実施の形態1に係る転移学習装置10の機能的な構成の一例を示すブロック図である。
図6は、実施の形態1に係る識別装置20の機能的な構成の一例を示すブロック図である。
次に、上述のように構成された学習識別システム1の動作の一例について説明する。
図8は、実施の形態1に係る学習識別システム1において実行される転移学習の一例を示すフローチャートである。
出力ベクトルY701=[y11,y21,y31,y41,y51]=[0.01,−0.3,0.1,0.4,0.2]、
出力ベクトルY702=[y12,y22,y32,y42,y52]=[−0.01,−0.15,0.15,0.55,0.3]、
出力ベクトルY703=[y13,y23,y33,y43,y53]=[0.03,−0.2,0.1,0.35,0.25]
を用いて、正解ラベル=「敗血症」に対応する関連度ベクトルR1=[(y11+y12+y13)/3,(y21+y22+y23)/3,(y31+y32+y33)/3,(y41+y42+y43)/3,(y51+y52+y53)/3]=[0.01,−0.22,0.12,0.43,0.25]を算出する。
出力ベクトルY704=[y14,y24,y34,y44,y54]=[0.22,−0.1,0.14,0.2,0.25]、
出力ベクトルY705=[y15,y25,y35,y45,y55]=[−0.03,−0.1,0.1,0.3,0.35]、
出力ベクトルY706=[y16,y26,y36,y46,y56]=[0.1,−0.14,0.12,0.5,0.4]
を用いて、正解ラベル=「非敗血症」に対応する関連度ベクトルR2=[(y14+y15+y16)/3,(y24+y25+y26)/3,(y34+y35+y36)/3,(y44+y45+y46)/3,(y54+y55+y56)/3]=[0.03,−0.11,0.12,0.33,0.33]を算出する。
図12は、実施の形態1に係る識別装置20において実行される識別処理S3の一例を示すフローチャートである。
以上のように、実施の形態1に係る学習装置及び学習認識システムによれば、転移元学習用データでの学習によって生成された転移元ニューラルネットワークの構成情報及び荷重値をそのまま転移先ニューラルネットワークとして使用する。そして、転移先ニューラルネットワークに転移先学習用データそれぞれを入力したときの出力ベクトルを、当該転移先学習用データそれぞれの正解ラベルと1対1対応させることができる関連度ベクトルを計算する。このようにして、転移元ニューラルネットワークの構成情報及び荷重値をそのまま使用した転移先ニューラルネットワークに、転移先学習用データに適応させるための転移学習を行うことができる学習装置及び学習認識システムを実現することができる。
実施の形態1では、転移元学習用データで学習済みの転移元ニューラルネットワークの構成情報及び荷重Wをそのまま使用した転移先ニューラルネットワークの転移学習と識別処理について説明したが、それに限らない。そのまま使用した転移先ニューラルネットワークにおいて、さらに荷重Wを更新させてもよい。以下、この場合について実施の形態2として説明する。なお、以下では、実施の形態1と異なるところを中心に説明する。
図13は、実施の形態2に係る転移学習装置10Bの機能的な構成の一例を示すブロック図である。図5と同様の要素には同一の符号を付しており、詳細な説明は省略する。
次に、以上のように構成された転移学習装置10Bの動作について説明する。
以上のように、実施の形態2に係る学習装置及び学習認識システムによれば、転移先学習用データを用いた教師付き学習によって、転移先ニューラルネットワークの荷重値を、転移元学習用データで学習済みの転移元ニューラルネットワークの荷重値を初期値として更新する。これにより、学習済みの転移元ニューラルネットワークの荷重値をそのまま用いず、かつ、少量の転移先学習用データで学習する場合に起こり得る過学習を抑制することができる。
実施の形態1では、転移先学習用データに対応する出力ベクトルを用いて、転移先学習用データの正解ラベルに1対1対応する関連度ベクトルを生成することについて説明した。しかし、生成した関連度ベクトル同士の値が近い(距離が近い)場合には、認識精度が落ちてしまう場合がある。そこで、関連度ベクトルの値を調整し、関連度ベクトル間の差分が大きくなるようにしてもよい。以下、この場合について実施の形態3として説明する。なお、以下では、実施の形態1と異なるところを中心に説明する。
図15は、実施の形態3に係る転移学習装置10Cの機能的な構成の一例を示すブロック図である。図5と同様の要素には同一の符号を付しており、詳細な説明は省略する。
次に、以上のように構成された転移学習装置10Cの動作について説明する。
例えば、「敗血症」の関連度ベクトルR1がR1=[0.21、0.03、−0.54、1.08、―0.04,0.08,0.03,0.13,0.13,0.01]であるとする。また、ステップS251で生成した乱数を△1=0.02、△2=0.1、△3=―0.01、△4=―0.05、△5=0.01、△6=0.04、△7=0.02、△8=0.02、及び△9=0.02であるとする。この場合、ステップS252において、関連度ベクトル調整部107は、関連度ベクトルR1の各値に生成した上記の乱数を加算して、新たな関連度ベクトルR1’=[0.23、0.13、−0.55、1.03、−0.03、0.12、0.05、0.15、0.03]を生成する。
.20、0.10]を生成する。
が、それぞれの出力ベクトルから計算される標準偏差の5倍以内に収まっているかどうかを判定し、収まっていれば、新たな関連度ベクトルR1‘及びR2’を識別装置20に出力する。
以上のように、実施の形態3に係る学習装置及び学習認識システムによれば、関連度ベクトル生成部101で生成した各関連度ベクトルの値を乱数に基づいて調整することができる。関連度ベクトル生成部101で生成した各関連度ベクトルの値が近い場合、認識精度が低下しうるが、本実施の形態のように生成した各関連度ベクトルの値を乱数に基づいて調整することで、認識精度の低下を抑制することができる。
する。これにより、少しずつ荷重値が変更されていくため、無理なく関連度ベクトルを引き離していくことができる。
実施の形態4では、学習識別システム1Dが、転移先学習用データに基づき、転移元ニューラルネットワーク学習装置に学習させる転移元学習用データを選択できる場合について説明する。以下では、実施の形態1と異なるところを中心に説明する。
図17は、実施の形態4に係る学習識別システム1Dの機能的な構成の一例を示すブロック図である。図3及び図7と同様の要素には同一の符号を付しており、詳細な説明は省略する。
転移元学習用データセット保持部22Dは、例えばメモリからなり、正解ラベル付き学習用データである転移元学習用データを複数セット(以下、複数の転移元学習用データセットと記載)を保持する。ここで、転移元学習用データセットは、例えば、数字画像セットや一般画像セット、2次元電気泳動像セットやCT画像セットである。
系統樹保持部31は、例えばメモリからなり、正解ラベルそれぞれの類似度を計算するための距離情報を保持する。本実施の形態では、系統樹保持部31は、複数の転移元学習用データセット及び転移先学習用データに関連する系統樹を保持している。ここで、系統樹とは、対象物体の類縁関係を樹枝状の線でグラフ化したものである。以下では、説明を簡単のために、一般的な生物に関する系統樹を基に説明するが、系統樹はこれに限定されるものではない。例えば、「敗血症」か否かを判定するために、病気に応じて変化するたんぱく質に基づいて作成された系統樹を利用して、2次元電気泳動像を用いた「敗血症」及び「非敗血症」の識別を実施することも可能である。
転移元ニューラルネットワーク学習装置2Dは、図17に示されるように、転移元ニューラルネットワーク生成部21Dと、転移元学習用データセット選択部23とを備える。
次に、以上のように構成された学習識別システム1Dの動作について説明する。
本実施例では、系統樹保持部31が図18に示す系統樹801を保持しており、転移元学習用データセット選択部23が系統樹801に基づき算出した距離情報から、複数の転移元学習用データセットの中から転移元学習用データを選択する場合について説明する。
以上のように、実施の形態4に係る学習装置及び学習認識システムによれば、転移先学習用データと系統樹上の距離が最も近しい転移元学習用データを含む転移元学習用データセットを用いて転移元ニューラルネットワークを生成することができる。つまり、転移先学習用データにより類似する転移元学習用データを含む転移元学習用データセットを用いて転移元ニューラルネットワークを生成する。これにより、転移学習に最適な転移元学習用データセットを選択することができるので、認識精度の向上が期待できる。
Processing Unit)1002を含んでもよい。
2、2A、2D 転移元ニューラルネットワーク学習装置
10、10C 転移学習装置
20、20A 識別装置
21、21D 転移元ニューラルネットワーク生成部
22、22A 転移元学習用データ保持部
22D 転移元学習用データセット保持部
23 転移元学習用データセット選択部
30 転移先学習用データ保持部
31 系統樹保持部
40 データ入力部
102 転移先ニューラルネットワーク
103 データ演算部
104 構成情報保持部
105 荷重保持部
106 荷重調整部
107 関連度ベクトル調整部
200 ニューラルネットワーク
201 入力層 202、202a、202b 隠れ層
203 出力層
205 入力ユニット
206 隠れユニット
207 出力ユニット
220 出力ユニット比較部
801 系統樹
Claims (13)
- 少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置であって、
前記回路は、
(a)元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
(b)第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルとを取得し、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、
(c)前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する、
学習装置。 - (i)前記第2ニューラルネットワークに、前記第1ラベルが付与された第1データが入力したときの出力ベクトルは、前記第2関連度ベクトルより前記第1関連度ベクトルに近く、
(ii)前記第2ニューラルネットワークに、前記第2ラベルが付与された第2データを入力したときの出力ベクトルは、前記第1関連度ベクトルより前記第2関連度ベクトルに近い、
請求項1に記載の学習装置。 - 前記回路は、さらに、
(d)前記第1関連度ベクトル及び前記第2関連度ベクトルを用いて、前記第2ニューラルネットワークの荷重情報を更新し、
前記回路は、前記(d)において、
前記複数の第1データに対する出力である複数の第1出力ベクトルが、前記第1関連度ベクトルを正解とし、前記複数の第2データに対する出力である複数の第2出力ベクトルが、前記第2関連度ベクトルを正解とする学習を行うことによって、前記荷重情報を更新する、
請求項1または2に記載の学習装置。 - 前記回路は、前記(c)において、
前記複数の第1出力ベクトルの平均ベクトルを前記第1関連度ベクトルとし、前記複数の第2出力ベクトルの平均ベクトルを前記第2関連度ベクトルとして生成する、
請求項1〜3のいずれか1項に記載の学習装置。 - 前記回路は、前記(c)において、
前記第1関連度ベクトルの値が、前記複数の第1出力ベクトルから計算される第1標準偏差の定数倍の範囲内であり、
前記第2関連度ベクトルの値が前記複数の第2出力ベクトルから計算される第2標準偏差の定数倍の範囲内であり、かつ、
前記第1関連度ベクトル及び前記第2関連度ベクトルの間の差分値が大きくなるように、
前記第1関連度ベクトルの値及び第2関連度ベクトルの値を調整する、
請求項3に記載の学習装置。 - 前記学習装置は、さらに、
正解ラベル付き学習用データである転移元学習用データを複数セットと、正解ラベルそれぞれの類似度を計算するための距離情報とを保持しており、
前記回路は、さらに、
前記複数セットの転移元学習用データそれぞれに付与されたすべての正解ラベルと、前記転移先学習用データに付与されたすべての正解ラベルとの距離を計算し、その中で最も小さい距離を有する転移元学習用データのセットを選択し、
選択した前記転移元学習用データのセットを用いて学習させることで前記第1ニューラルネットワークを生成し、
生成した前記第1ニューラルネットワークの構成情報及び荷重値を、前記メモリに保存する、
請求項1〜5のいずれか1項に記載の学習装置。 - 前記転移先学習用データは、等電点と分子量によって分離されたたんぱく質の2次元電気泳動像であり、
前記第1ラベルは、敗血症であり、
前記第2ラベルは、非敗血症である、
請求項1〜6のいずれか1項に記載の学習装置。 - 前記転移元学習用データは、健常者における、等電点と分子量によって分離されたたんぱく質の2次元電気泳動像であり、
前記転移元学習用データの正解ラベルは、健常者である、
請求項7に記載の学習装置。 - 少なくとも1つの回路とを備える識別装置であって、
前記回路は、
請求項1〜7のいずれか1項に記載の学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得し、
前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得し、
前記第2ニューラルネットワークに、取得した前記テストデータを入力して、前記テストデータに対する出力ベクトルを取得し、
取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算し、
前記第1関連度ベクトル及び前記第2関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力する、
識別装置。 - 少なくとも1つのメモリと、少なくとも1つの第1回路とを有する学習装置と、少なくとも1つの第2回路を有する識別装置とを備える学習識別システムであって、
前記学習装置では、前記第1回路は、
元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルを取得し、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、
前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成し、
前記識別装置では、前記第2回路は、
前記学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得し、
前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得し、
前記第2ニューラルネットワークに、取得した前記テストデータを入力して、前記テストデータに対する出力ベクトルを取得し、
取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算し、
前記第1関連度ベクトル及び前記第1関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力する、
学習識別システム。 - 少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置の学習方法をコンピュータに実行させるためのプログラムであって、
前記回路に、
元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習された第1ニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得させ、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
第2ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記第2ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルとを取得させ、前記第1ニューラルネットワークと前記第2ニューラルネットワークは、同じ荷重値、同じ隠れ層の数、各隠れ層に含まれるニューロン数が同じ、入力層のニューロン数が同じ、出力層のニューロン数が同じであり、
前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成させる、
プログラム。 - 少なくとも1つの回路とを備える識別装置の識別方法をコンピュータに実行させるためのプログラムであって、
前記回路に、
請求項1〜7のいずれか1項に記載の学習装置から、前記第1関連度ベクトル及び前記第2関連度ベクトルを取得させ、
前記転移先学習用データと同種かつラベルなしデータであるテストデータを取得させ、
前記第2ニューラルネットワークに、取得した前記テストデータを入力させて、前記テストデータに対する出力である出力ベクトルを取得させ、
取得した前記出力ベクトル及び前記第1関連度ベクトルの距離と、取得した前記出力ベクトル及び前記第2関連度ベクトルの距離とを計算させ、
前記第1関連度ベクトル及び前記第2関連度ベクトルのうち、前記出力ベクトルとの距離が近い方に対応する、前記第1ラベルまたは前記第2ラベルを、前記テストデータに対する正解ラベルとして出力させる、
プログラム。 - 少なくとも1つのメモリと、少なくとも1つの回路とを備える学習装置であって、
前記回路は、
(a)元ドメインにおける正解ラベル付き学習用データである転移元学習用データにより学習されたニューラルネットワークと、目標ドメインにおける正解ラベル付き学習用データである転移先学習用データとを取得し、前記転移先学習用データは、それぞれ第1ラベルが付与された複数の第1データと、それぞれ第2ラベルが付与された複数の第2データとを含み、
(b)前記ニューラルネットワークに、前記複数の第1データを入力して、複数の第1出力ベクトルを取得し、かつ、前記ニューラルネットワークに、複数の第2データを入力して、複数の第2出力ベクトルを取得し、
(c)前記複数の第1出力ベクトルを用いて、前記第1ラベルに対応させた第1関連度ベクトルを生成し、かつ、前記複数の第2出力ベクトルを用いて、前記第2ラベルに対応させた第2関連度ベクトルを生成する、
学習装置。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016143631 | 2016-07-21 | ||
| JP2016143631 | 2016-07-21 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018022473A JP2018022473A (ja) | 2018-02-08 |
| JP6814981B2 true JP6814981B2 (ja) | 2021-01-20 |
Family
ID=60988568
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017098161A Active JP6814981B2 (ja) | 2016-07-21 | 2017-05-17 | 学習装置、識別装置、学習識別システム、及び、プログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11023806B2 (ja) |
| JP (1) | JP6814981B2 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220026861A1 (en) * | 2020-07-23 | 2022-01-27 | National Cheng Kung University | Virtual metrology method using convolutional neural network and computer program product thereof |
Families Citing this family (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180060728A1 (en) * | 2016-08-31 | 2018-03-01 | Microsoft Technology Licensing, Llc | Deep Embedding Forest: Forest-based Serving with Deep Embedding Features |
| US11068781B2 (en) * | 2016-10-07 | 2021-07-20 | Nvidia Corporation | Temporal ensembling for semi-supervised learning |
| US11392827B1 (en) * | 2017-07-19 | 2022-07-19 | United States Of America As Represented By The Secretary Of The Navy | Deeper learning from the real-time transformative correction of and reasoning from neural network outputs |
| JP6618661B2 (ja) * | 2017-08-10 | 2019-12-11 | 三菱電機株式会社 | 識別分類装置および識別分類方法 |
| CN108416755B (zh) * | 2018-03-20 | 2020-06-30 | 南昌航空大学 | 一种基于深度学习的图像去噪方法及系统 |
| JP6964044B2 (ja) * | 2018-05-21 | 2021-11-10 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習方法、プログラム、学習済みモデルおよびリップリーディング装置 |
| US20200104710A1 (en) * | 2018-09-27 | 2020-04-02 | Google Llc | Training machine learning models using adaptive transfer learning |
| JP7205154B2 (ja) * | 2018-10-16 | 2023-01-17 | トヨタ自動車株式会社 | 表示装置 |
| US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
| JP2021089446A (ja) * | 2019-03-13 | 2021-06-10 | ダイキン工業株式会社 | モデルの選定方法および深層強化学習方法 |
| US11494616B2 (en) * | 2019-05-09 | 2022-11-08 | Shenzhen Malong Technologies Co., Ltd. | Decoupling category-wise independence and relevance with self-attention for multi-label image classification |
| DE102019007340A1 (de) * | 2019-10-22 | 2021-04-22 | e.solutions GmbH | Technik zum Einrichten und Betreiben eines neuronalen Netzwerks |
| US11804050B1 (en) * | 2019-10-31 | 2023-10-31 | Nvidia Corporation | Processor and system to train machine learning models based on comparing accuracy of model parameters |
| KR102144975B1 (ko) * | 2019-11-08 | 2020-08-14 | 주식회사 알체라 | 머신 러닝 시스템 및 머신 러닝 시스템의 동작 방법 |
| US11922303B2 (en) * | 2019-11-18 | 2024-03-05 | Salesforce, Inc. | Systems and methods for distilled BERT-based training model for text classification |
| US11468294B2 (en) * | 2020-02-21 | 2022-10-11 | Adobe Inc. | Projecting images to a generative model based on gradient-free latent vector determination |
| EP4100876A4 (en) * | 2020-03-10 | 2024-02-28 | AI:ON Innovations, Inc. | SYSTEM AND METHOD FOR LEARNING TRANSMISSION PROCESSES IN MAMMALS |
| JP7424909B2 (ja) * | 2020-05-18 | 2024-01-30 | 株式会社日立製作所 | 処理条件探索装置および処理条件探索方法 |
| JP7487556B2 (ja) * | 2020-05-22 | 2024-05-21 | 富士通株式会社 | モデル生成プログラム、モデル生成装置、及びモデル生成方法 |
| US11195084B1 (en) * | 2020-10-09 | 2021-12-07 | Sas Institute Inc. | Neural network training system |
| CN112949904B (zh) * | 2021-01-28 | 2022-06-07 | 华中科技大学 | 一种基于特征选择与多层级深度迁移学习的风电场短期功率预测方法 |
| JP7661073B2 (ja) | 2021-03-15 | 2025-04-14 | 株式会社Screenホールディングス | ベクトル取得方法、ベクトル取得装置、および、ベクトル取得プログラム |
| JP7785747B2 (ja) * | 2021-03-18 | 2025-12-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理システム、および、プログラム |
| JP7617811B2 (ja) * | 2021-05-21 | 2025-01-20 | 株式会社日立ハイテク | 機械学習システム |
| CN113688809B (zh) * | 2021-10-26 | 2022-02-18 | 北京世纪好未来教育科技有限公司 | 一种模型训练方法、文本去除方法及相关装置 |
| CN114764874B (zh) * | 2022-04-06 | 2023-04-07 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、对象识别方法和装置 |
| US12374099B2 (en) * | 2022-06-24 | 2025-07-29 | Salesforce, Inc. | Systems and methods for visual question answering |
| US20240169611A1 (en) * | 2022-11-18 | 2024-05-23 | Ohio State Innovation Foundation | CONDITIONAL GENERATIVE ADVERSARIAL NETWORK (cGAN) FOR POSTERIOR SAMPLING AND RELATED METHODS |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0535710A (ja) * | 1991-08-01 | 1993-02-12 | Ricoh Co Ltd | ニユーラルネツトワークの学習方法および学習装置 |
| JPH06139410A (ja) * | 1992-10-23 | 1994-05-20 | Fujitsu Ltd | ニューラル・ネットワークによるテンプレート・マッチング型文字認識方式 |
| US5835901A (en) * | 1994-01-25 | 1998-11-10 | Martin Marietta Corporation | Perceptive system including a neural network |
| US5689621A (en) * | 1995-04-28 | 1997-11-18 | Michigan State University | Modular feedforward neural network architecture with learning |
| JP4639784B2 (ja) * | 2004-12-06 | 2011-02-23 | ソニー株式会社 | 学習装置および学習方法、並びにプログラム |
| JP2006285899A (ja) * | 2005-04-05 | 2006-10-19 | Sony Corp | 学習装置および学習方法、生成装置および生成方法、並びにプログラム |
| US8345962B2 (en) * | 2007-11-29 | 2013-01-01 | Nec Laboratories America, Inc. | Transfer learning methods and systems for feed-forward visual recognition systems |
| CN102356393B (zh) * | 2010-01-29 | 2014-04-09 | 松下电器产业株式会社 | 数据处理装置 |
| US9412064B2 (en) * | 2011-08-17 | 2016-08-09 | Qualcomm Technologies Inc. | Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update |
| US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
| US10793906B2 (en) * | 2018-07-30 | 2020-10-06 | Cna Diagnostics Inc. | Methods for treating and detecting sepsis in humans |
-
2017
- 2017-05-17 JP JP2017098161A patent/JP6814981B2/ja active Active
- 2017-07-03 US US15/641,063 patent/US11023806B2/en active Active
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220026861A1 (en) * | 2020-07-23 | 2022-01-27 | National Cheng Kung University | Virtual metrology method using convolutional neural network and computer program product thereof |
| US11921474B2 (en) * | 2020-07-23 | 2024-03-05 | National Cheng Kung University | Virtual metrology method using convolutional neural network and computer program product thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180025271A1 (en) | 2018-01-25 |
| US11023806B2 (en) | 2021-06-01 |
| JP2018022473A (ja) | 2018-02-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6814981B2 (ja) | 学習装置、識別装置、学習識別システム、及び、プログラム | |
| Jones et al. | Computational biology: deep learning | |
| Pritom et al. | Predicting breast cancer recurrence using effective classification and feature selection technique | |
| JP7522936B2 (ja) | グラフニューラルネットワークに基づく遺伝子表現型予測 | |
| Nakane et al. | Application of evolutionary and swarm optimization in computer vision: a literature survey | |
| Alkım et al. | A fast and adaptive automated disease diagnosis method with an innovative neural network model | |
| CN109543727B (zh) | 一种基于竞争重构学习的半监督异常检测方法 | |
| CN116635866A (zh) | 用于挖掘少数类数据样本以训练神经网络的方法和系统 | |
| WO2020170052A1 (en) | Disease-gene prioritization method and system | |
| WO2021084623A1 (ja) | 劣化抑制プログラム、劣化抑制方法および情報処理装置 | |
| Sekaran et al. | RETRACTED ARTICLE: Predicting autism spectrum disorder from associative genetic markers of phenotypic groups using machine learning | |
| EP3828772A1 (en) | Solving multiple tasks simultaneously using capsule neural networks | |
| Karayiannis et al. | Training reformulated radial basis function neural networks capable of identifying uncertainty in data classification | |
| Lopez-Rubio et al. | Bregman divergences for growing hierarchical self-organizing networks | |
| Bhardwaj et al. | Computational biology in the lens of CNN | |
| CN116602688A (zh) | 一种高原地区儿童心电图预测方法 | |
| Rashid et al. | A hybrid deep learning approach to classify the plant leaf species | |
| Sachnev et al. | Parkinson disease classification based on binary coded genetic algorithm and extreme learning machine | |
| Yousif | Classification of mental disorders figures based on soft computing methods | |
| Babatunde et al. | Comparative analysis of genetic algorithm and particle swam optimization: An application in precision agriculture | |
| CN116342928B (zh) | 基于改进神经原型树的可解释细粒度图像分类方法及系统 | |
| Sharma et al. | Prediction of cardiovascular diseases using genetic algorithm and deep learning techniques | |
| Zheng et al. | A winner-take-all strategy for improved object tracking | |
| Ramachandran et al. | Deep learning for better variant calling for cancer diagnosis and treatment | |
| CN115221952A (zh) | 图数据识别方法、装置、计算机设备及可读存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191210 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201014 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201117 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201204 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6814981 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |