JP2022062362A - 情報処理プログラム,情報処理装置および情報処理方法 - Google Patents

情報処理プログラム,情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2022062362A
JP2022062362A JP2020170322A JP2020170322A JP2022062362A JP 2022062362 A JP2022062362 A JP 2022062362A JP 2020170322 A JP2020170322 A JP 2020170322A JP 2020170322 A JP2020170322 A JP 2020170322A JP 2022062362 A JP2022062362 A JP 2022062362A
Authority
JP
Japan
Prior art keywords
data set
class
transfer source
transfer
classes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020170322A
Other languages
English (en)
Inventor
智尊 江田
Satoru Koda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020170322A priority Critical patent/JP2022062362A/ja
Priority to EP21183954.3A priority patent/EP3992860A1/en
Priority to US17/372,730 priority patent/US20220114443A1/en
Priority to CN202110853825.8A priority patent/CN114298266A/zh
Publication of JP2022062362A publication Critical patent/JP2022062362A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】転移学習を効率よく行なう。【解決手段】転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、各スペクトル強度の平均を算出し、転移先データセットの各クラスに含まれるデータのスペクトル強度と、複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、特定した類似度に基づいて、複数の転移元データセット候補の中から、転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する。【選択図】図1

Description

本発明は、情報処理プログラム,情報処理装置および情報処理方法に関する。
ニューラルネットワークにおける機械学習モデルの学習手法として、転移学習が知られている。
転移学習においては、ある領域(ドメイン)のデータセット(転移元データセット)で学習した機械学習モデルを、別の領域のデータセット(転移先データセット)上の学習に利用する。
以下、転移前の機械学習モデルの学習に用いるデータセットを転移元データセットといい、転移後の機械学習モデルの学習に用いるデータセットを転移先データセットという場合がある。
転移元データセットで機械学習モデルを学習し、この機械学習モデルを転移し、転移先データセットで機械学習モデルの再学習を行なうことで転移学習を実現する。
このような転移学習を行なうことで、限られたデータしかない領域においても高精度な機械学習モデルを作成することができ、また、短時間で機械学習モデルの学習を実現できる。
従来の転移学習においては、DTW(Dynamic Time Warping)およびDBA(Dynamic Time Warping Barycenter Averaging)を用いて、複数の転移元データセット候補の中から転移元データセットを選択する。
DTWは2系列間の距離を測るアルゴリズムであり、DBAは複数系列の平均系列を求めるアルゴリズムである。
転移学習における従来の転移元データセットの選択手法においては、転移先および転移元候補の各クラスの平均系列をDBAで算出し、DBA平均系列間の最小のDTW距離を転移元候補のデータと転移先データとの間の距離(データ間距離)として定義する。
そして、転移先データセットとのデータ間距離が最小となる転移元候補データセットを転移元データセットとして選択し、この選択した転移元データセットを用いて、CNNで転移学習を開始する。
転移学習を行なうに際して、転移の効果がある転移元データセットを選択することが望ましい。転移元データセットとして適切でないデータセットを選択することで、転移学習のパフォーマンスが低下するからである。
米国特許出願公開第2010/0318482号明細書 特開2020-13547号公報 特開2016-191975号公報
しかしながら、上述した従来の転移学習における転移元データセットの選択手法においては、DTWおよびDBAの各計算コストが高いので、転移元データセットの選択にかかる計算コストが高いという課題がある。例えば、転移元データセットの選択に時間がかかる。
また、上述した従来の転移元データセットの選択手法においては、転移先データセットとのデータ間距離が最小となる転移元候補データセットを転移元データセットとして選択しているが、選択された転移元データセットが転移先データセットのクラスによっては距離が近くない場合が生じる。これは、データセット間距離を全クラス間距離の最小とすることが原因である。
また、ニューラルネットワークにおいては、入力データの畳み込みを繰り返すことでデータの特徴を抽出する畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)が知られている。CNNは、時系列データの分析や転移学習によく用いられる。
CNNにおいては、畳み込み層においてデータの部分的な特徴をフィルタ(畳み込みフィルタ)を用いて抽出する。CNNにおいて、畳み込みフィルタのフィルタサイズは事前に指定されるパラメータである。フィルタサイズは分析精度に強く影響するため、適切に指定する必要がある。
従来手法においては、畳み込みフィルタとして、3~15の間の固定サイズのフィルタが多く用いられる。また、CNNにおいては、例えば、サイズ “3 ”のフィルタとサイズ“15”のフィルタとを64個ずつ用いるなど、複数サイズのフィルタを用いることもある。
時系列においてピークが発生する時点数(peak length)をフィルタサイズとする手法や、フーリエ変換でデータセットのスペクトル強度を算出し、強度が最大の周波数の波長を包含するフィルタサイズを選択することも知られている。
しかしながら、フィルタサイズによって、捉え易いもしくは捉え難い周波数の波が存在する。そのため、上述の如く選択されたスペクトル強度が最大の周波数の波長を包含するフィルタサイズは、例えば、複数の異なる周波数でピークが発生するようなデータに対して有効でない。
大きなフィルタサイズは、周波数が小さい波は捉え易い一方で、周波数が大きい波を捉え難いという傾向を有する。一方、小さなフィルタサイズは、周波数が小さい波は捉え難い一方で、周波数が大きい波を捉え易いという傾向を有する。時系列で強度が変化する系列データを系列という場合がある。
図9は入力系列をFFT(Fast Fourier Transform)で周波数スペクトルに変換した例を示す図である。
この図9に例示する系列においては、変換後の周波数スペクトルにおいて、2つの周波数“2”,“10”において強度のピークを有する。
ここで、周波数“2”の波を捉えるフィルタサイズでは、周波数“10”の波を捉え難い。一方で、周波数“10”の波を捉えるフィルタサイズでは、周波数“2”の波を捉え難い。
1つの側面では、本発明は、転移学習を効率よく行なうことを目的とする。
このため、この情報処理プログラムは、転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する処理をコンピュータに実行させる。
一実施形態によれば、転移学習を効率よく行なうことができる。
実施形態の一例としての情報処理装置の機能構成を例示する図である。 転移先データセットのクラスと転移元データセットのクラスとのクラス間距離を例示する図である。 実施形態の一例としての情報処理装置のハードウェア構成を例示する図である。 実施形態の一例としての情報処理装置における転移学習を説明するための図である。 実施形態の一例としての情報処理装置における転移元データセット選択部の処理を説明するためのフローチャートである。 実施形態の一例としての情報処理装置におけるフィルタ設定部の処理を説明するためのフローチャートである。 実施形態の一例としての情報処理装置における転移学習の効果を例示する図である。 実施形態の一例としての情報処理装置における転移学習の効果を例示する図である。 入力系列をFFTで周波数スペクトルに変換した例を示す図である。
以下、図面を参照して本情報処理プログラム,情報処理装置および情報処理方法にかかる実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
(A)構成
図1は実施形態の一例としての情報処理装置1の機能構成を例示する図である。
情報処理装置1は、図1に示すように、転移元データセット選択部100およびフィルタ設定部200を備える。
転移元データセット選択部100は、ニューラルネットワークの転移学習において、転移元データレポジトリに格納された複数のデータセット(転移元データセット候補)の中から転移元データセットを選択する転移元データセット選択処理を実現する。以下、転移元データセットを符号Dsrcを用いて表す場合がある。
選択された転移元データセットDsrcは、機械学習モデルの学習に用いられる。このように学習された機械学習モデルは転移され、転移先データセットを用いて再学習される。以下、転移先データセットを符号Dtarを用いて表す場合がある。
転移元データセットおよび転移先データセットは、それぞれ学習用データおよび正解データを備えてもよい。転移元データセットにおける学習用データを転移元データという場合がある。また、転移先データセットにおける学習用データを転移先データという場合がある。また、以下、転移元データセットと転移先データセットとを特に区別しない場合には、単にデータセットと表記する場合がある。
本実施形態においては、転移元データおよび転移先データが、時系列で強度が変化する系列データである例について示す。以下、転移元データや転移先データを系列という場合がある。系列は、例えば、発話信号や通信信号であり、波形として表すことができる。
また、本実施形態においては、転移元データセットおよび転移先データセットがそれぞれ複数のクラスを有する例について示す。
転移元データセット選択部100は、図1に示すように、第1フーリエ変換処理部101,クラス平均系列算出部102,クラス間距離算出部103および転移元データセット設定部104としての機能を備える。
第1フーリエ変換処理部101は、全データセットの全ての系列を、FFTにより周波数スペクトルにフーリエ変換する。すなわち、第1フーリエ変換処理部101は、転移先データセットDtarおよび、転移元データレポジトリに格納された全ての転移先データセット{Dsrc,i }iの全ての系列を、FFTにより周波数スペクトルにフーリエ変換する。iは複数の転移元データセットのうちの任意の転移元データセットを表す変数である。
第1フーリエ変換処理部101は、例えば、系列hに対して以下の処理を行なう
Figure 2022062362000002
なお、Tは系列長であり、データ依存である。
また、第1フーリエ変換処理部101は、系列長を2nにする場合は、ゼロパディングや線形補間などでリサイズする。
なお、nは以下のように表される。
Figure 2022062362000003
また、系列hに関して、窓関数を掛けて周期関数にすることが望ましい。
クラス平均系列算出部102は、全データセットに含まれる各クラスのそれぞれの平均系列を、周波数スペクトル強度の平均で求める。
クラス平均系列算出部102は、クラスに属する全系列をフーリエ変換で固定長スペクトルに変換し、スペクトル強度の平均によってクラスの平均系列を定義する。
例えば、クラス平均系列算出部102は、第1フーリエ変換処理部101によって算出された周波数スペクトル強度に基づき、周波数スペクトル強度の低周波成分から上位N個を抽出する。
なお、抽出する周波数スペクトルの個数Nは、以下のように表される。
Figure 2022062362000004
系列hは、以下の式(1)で表す固定長ベクトルuで表現される。
Figure 2022062362000005
なお、|ci|はノルムである。
系列長が [T/2]<Nとなる系列については、uの第[T/2]成分以降をゼロパディングすることが望ましい。
クラス平均系列算出部102は、各データセットの各クラスに対してクラス平均系列を算出する。
転移元データセットDsrcのクラスのデータを以下の符号で表す場合がある。
Figure 2022062362000006
lは転移元データセットにおける複数のクラスのうちの任意のクラスを表す変数である。
また、転移先データセットDtarのクラスのデータを以下の符号で表す場合がある。
Figure 2022062362000007
kは転移元データセットにおける複数のクラスのうちの任意のクラスを表す変数である。
また、クラス平均系列を以下のフォーマットで表す場合がある。
Figure 2022062362000008
クラス平均系列算出部102は、クラスに属するサンプルでuの平均をとる(+ノルム正規化)ことで、クラス平均系列を算出する。
クラス間距離算出部103は、クラス平均系列算出部102によって算出された平均系列間の距離を、スペクトル強度間の内積に基づいて定義(算出)する。
クラス間距離算出部103は、クラス間距離を以下の式(2)を用いて算出する。
Figure 2022062362000009
転移元データセット設定部104は、転移先データセットの各クラスと、各転移元データセットの各クラスとの間の各類似度を算出し、クラス毎に転移元データセットを選択する。転移元データセット設定部104は、クラス間の距離を類似度として用いる。
転移元データセット設定部104は、転移先データセットの各クラスに対して、それぞれ、クラス間距離が最短、すなわち、最も類似する転移元データセットのクラス(最類似転移元クラス)を選択する。
転移元データセット設定部104は、転移先データセットの各クラスに対し、以下の式(3)を満たす転移元データセットのクラスを選択する
Figure 2022062362000010
転移元データセット設定部104は、転移先データセットDtarのクラス毎に選択した最類似転移元クラスの全てを結合して、転移元データセットDsrcを生成する。
転移元データセット設定部104により生成される転移元データセットDsrcは、以下の式(4)で表される。
Figure 2022062362000011
図2は転移先データセットのクラスと転移元データセットのクラスとのクラス間距離を例示する図である。
この図2に示す例においては、転移先データセットの3つのクラス“1”,“2”,“3”と、転移元データセットDsrc,1,Dsrc,2,Dsrc,3の2つのクラス“1”,“2”との各クラス間距離をマトリクス(行列)で表している。
この図2に示す例において、転移先データセットDtarのクラス“1”には、転移元データセットDsrc,1のクラス“1”が最もクラス間距離が短い(符号Q1参照)。そこで、転移元データセット設定部104は、転移先データセットDtarのクラス“1”に対して、転移元データセットDsrc,1のクラス“1”を転移元クラスとして選択する。
同様に、転移先データセットDtarのクラス“2”には、転移元データセットDsrc,2のクラス“1”が最もクラス間距離が短い(符号Q1参照)。また転移先データセットDtarのクラス“3”には、転移元データセットDsrc,2のクラス“1”が最もクラス間距離が短い(符号Q3参照)。そこで、転移元データセット設定部104は、転移先データセットDtarのクラス“2”,“3”に対して、転移元データセットDsrc,2のクラス“1”を転移元クラスとしてそれぞれ選択する。
転移元データセット設定部104は、選択した転移元クラスを統合して転移元データセットDsrcを生成する。
図2に示した例においては、生成される転移元データセットDsrcは、例えば、以下のように表される。以下に示す例においては、転移先データセットDtarのクラス“2”,“3”に対する転移元データセットDsrc,2のクラス“1”を一つだけ示すことで重複を排除して記載している。
Figure 2022062362000012
また、転移元データセット設定部104は、必要に応じて、生成した転移元データセットDsrcを転移先データセットDtarの系列長(もしくは平均長)にリサイズすることが望ましい。このようにして生成された転移元データセットDsrcが、機械学習モデルの転移学習に用いられる
フィルタ設定部200は、CNNにおける畳み込みフィルタを設定するフィルタ設定処理を実現する。
フィルタ設定部200は、例えば、精度への影響が大きなCNNの第1層の畳み込みフィルタサイズを設定してもよい。また、これに限定されるものではなく、フィルタ設定部200は、CNNの第1層以外の畳み込みフィルタサイズを設定してもよく、適宜変更して実施することができる。
フィルタ設定部200は、図1に示すように、第2フーリエ変換処理部201,平均スペクトル強度算出部202およびフィルタ決定部203としての機能を備える。
第2フーリエ変換処理部201は、転移元データセット選択部100によって選択された転移元データセットの全ての系列を、FFTにより周波数スペクトル(スペクトル強度)にフーリエ変換する。
平均スペクトル強度算出部202は、第2フーリエ変換処理部201により算出されたスペクトル強度に基づき、周波数毎にスペクトル強度の平均を算出する。以下、周波数毎に求めたスペクトル強度の平均値を平均スペクトル強度という場合がある。
なお、平均スペクトル強度の算出は、既知の種々の手法を用いて実現することができ、その説明は省略する。
フィルタ決定部203は、フィルタサイズおよびのその個数(フィルタ数)を決定する。フィルタ決定部203は、周波数スペクトルの情報に基づいてフィルタサイズおよびフィルタ数を決定する。
フィルタ決定部203は、系列長Tと周波数fiとに基づいてフィルタサイズを決定する。例えば、フィルタ決定部203は、以下の式(5)を用いてフィルタサイズを算出する。
フィルタサイズS = T / (n×fi) ・・・(5)
なお、nは変数であり、例えば、自然数である。変数nは適宜変更して実施することができる。フィルタ決定部203は、系列長Tに比例し、周波数fiに反比例するフィルタサイズSを決定する。
本情報処理装置1においては、大域的な波(低周波)の特徴を捉えるのに大きなフィルタを用い、局所的な波(高周波)の特徴を捉えるのに小さなフィルタを用いる。これにより、低周波の特徴と高周波の特徴とをそれぞれ効率的に捉えることができる。なお、フィルタサイズSを算出する上記式(5)は、適宜変更して実施することができる。
また、フィルタ決定部203は、周波数の強度に応じて使用するフィルタの数(フィルタ数)を決定する。
例えば、フィルタ決定部203は、以下の式(6)を用いてフィルタ数を決定する。
Figure 2022062362000013
系列の波の構成要素は一般に複数ある。その中でも支配的な波をより捉えやすくするために、本情報処理装置1においては、そのような波を捉えやすいサイズのフィルタを多めに設定する。
例えば、全体のフィルタ数を128(K = 128)としたとき、周波数“2”の強度が0.75、周波数“10” の強度が0.25、他の周波数の強度が0である場合に、フィルタ決定部203は、以下に示すようにフィルタサイズおよびフィルタ数を決定する。
サイズ「T/(2×2)」のフィルタを「96 (=128×0.75) 」個
サイズ「T/(2×10)」のフィルタを「32 (=128×0.25) 」個
なお、強度uは以下のように表される。
Figure 2022062362000014
また、定数成分は考慮しないものとし、切り捨て・切り上げは適宜調整してよい。なお、フィルタ数kを算出する上記式(6)は、適宜変更して実施することができる。
図3は実施形態の一例としての情報処理装置1のハードウェア構成を例示する図である。
情報処理装置1は、例えば、プロセッサ11,メモリ12,記憶装置13,グラフィック処理装置14,入力インタフェース15,光学ドライブ装置16,機器接続インタフェース17およびネットワークインタフェース18を構成要素として有する。これらの構成要素11~18は、バス19を介して相互に通信可能に構成される。
プロセッサ11は、情報処理装置1全体を制御する制御部である。プロセッサ11は、マルチプロセッサであってもよい。プロセッサ11は、例えばCPU,MPU(Micro Processing Unit),DSP(Digital Signal Processor),ASIC(Application Specific Integrated Circuit),PLD(Programmable Logic Device),FPGA(Field Programmable Gate Array)のいずれか一つであってもよい。また、プロセッサ11は、CPU,MPU,DSP,ASIC,PLD,FPGAのうちの2種類以上の要素の組み合わせであってもよい。
そして、プロセッサ11が制御プログラム(情報処理プログラム:図示省略)を実行することにより、図1に例示した、転移元データセット選択部100およびフィルタ設定部200としての機能が実現される。
なお、情報処理装置1は、例えばコンピュータ読み取り可能な非一時的な記録媒体に記録されたプログラム(情報処理プログラム,OSプログラム)を実行することにより、転移元データセット選択部100およびフィルタ設定部200としての機能を実現する。OSはOperating Systemの略語である。
情報処理装置1に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、情報処理装置1に実行させるプログラムを記憶装置13に格納しておくことができる。プロセッサ11は、記憶装置13内のプログラムの少なくとも一部をメモリ12にロードし、ロードしたプログラムを実行する。
また、情報処理装置1(プロセッサ11)に実行させるプログラムを、光ディスク16a,メモリ装置17a,メモリカード17c等の非一時的な可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ11からの制御により、記憶装置13にインストールされた後、実行可能になる。また、プロセッサ11が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
メモリ12は、ROM(Read Only Memory)およびRAM(Random Access Memory)を含む記憶メモリである。メモリ12のRAMは情報処理装置1の主記憶装置として使用される。RAMには、プロセッサ11に実行させるプログラムの少なくとも一部が一時的に格納される。また、メモリ12には、プロセッサ11による処理に必要な各種データが格納される。
記憶装置13は、ハードディスクドライブ(Hard Disk Drive:HDD)、SSD(Solid State Drive)、ストレージクラスメモリ(Storage Class Memory:SCM)等の記憶装置であって、種々のデータを格納するものである。記憶装置13は、本情報処理装置1の補助記憶装置として使用される。記憶装置13には、OSプログラム,制御プログラムおよび各種データが格納される。制御プログラムには情報処理プログラムが含まれる。
なお、補助記憶装置としては、SCMやフラッシュメモリ等の半導体記憶装置を使用することもできる。また、複数の記憶装置13を用いてRAID(Redundant Arrays of Inexpensive Disks)を構成してもよい。
また、記憶装置13には、上述した転移元データセット選択部100およびフィルタ設定部200が各処理を実行する際に生成される各種データを格納してもよい。
例えば、第1フーリエ変換処理部101,クラス平均系列算出部102,クラス間距離算出部103,第2フーリエ変換処理部201および平均スペクトル強度算出部202により算出された各演算結果を記憶装置13に格納してもよい。また、転移元データセット設定部104により設定された転移元データセットDsrcや、フィルタ決定部203が決定したフィルタサイズやフィルタ数を記憶装置13に格納してもよい。
グラフィック処理装置14には、モニタ14aが接続されている。グラフィック処理装置14は、プロセッサ11からの命令に従って、画像をモニタ14aの画面に表示させる。モニタ14aとしては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置等が挙げられる。
入力インタフェース15には、キーボード15aおよびマウス15bが接続されている。入力インタフェース15は、キーボード15aやマウス15bから送られてくる信号をプロセッサ11に送信する。なお、マウス15bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル,タブレット,タッチパッド,トラックボール等が挙げられる。
光学ドライブ装置16は、レーザ光等を利用して、光ディスク16aに記録されたデータの読み取りを行なう。光ディスク16aは、光の反射によって読み取り可能にデータを記録された可搬型の非一時的な記録媒体である。光ディスク16aには、DVD(Digital Versatile Disc),DVD-RAM,CD-ROM(Compact Disc Read Only Memory),CD-R(Recordable)/RW(ReWritable)等が挙げられる。
機器接続インタフェース17は、情報処理装置1に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース17には、メモリ装置17aやメモリリーダライタ17bを接続することができる。メモリ装置17aは、機器接続インタフェース17との通信機能を搭載した非一時的な記録媒体、例えばUSB(Universal Serial Bus)メモリである。メモリリーダライタ17bは、メモリカード17cへのデータの書き込み、またはメモリカード17cからのデータの読み出しを行なう。メモリカード17cは、カード型の非一時的な記録媒体である。
ネットワークインタフェース18は、ネットワークに接続される。ネットワークインタフェース18は、ネットワークを介してデータの送受信を行なう。ネットワークには他の情報処理装置や通信機器等が接続されてもよい。
(B)動作
図4は実施形態の一例としての情報処理装置1における転移学習を説明するための図である。
転移元データセット選択部100は、転移元データレポジトリに格納された複数のデータセット(転移元データセット)の中から転移元データセットDsrcを選択する(符号P1参照)。
フィルタ設定部200は、CNNにおける畳み込みフィルタを設定する(符号P2参照)。CNNにおいては、この設定された畳み込みフィルタを用いて転移元データセットDsrc(系列)の特徴を抽出し、機械学習モデルf(x;w^)の学習に用いる。
なお、w^は転移先モデルパラメータの初期値であり、ハット(ギャレット)付きのwを表すものとする。
このようにして学習された機械学習モデルf(x;w^)が転移され(符号P3参照)、転移先データセットDtarを用いた再学習が行なわれる(符号P4参照)。このようにして学習された機械学習モデルf(x;w^)が業務等において予測に用いられる。
次に、実施形態の一例としての情報処理装置1における転移元データセット選択部100の処理を、図5に示すフローチャート(ステップA1~A5)に従って説明する。
転移元データセット選択部100において、第1フーリエ変換処理部101が、全データセットの全ての系列を、FFTにより周波数スペクトルにフーリエ変換する(ステップA1)。
クラス平均系列算出部102が、全データセットに含まれる各クラスのそれぞれの平均系列を、周波数スペクトル強度の平均で求める(ステップA2)。
クラス間距離算出部103が、クラス平均系列算出部102によって算出された平均系列間の距離を、スペクトル強度間の内積に基づいて算出する(ステップA3)。
転移元データセット設定部104が、転移先データセットの各クラスと、各転移元データセットの各クラスとの間の各類似度を算出する(ステップA4)。
また、転移元データセット設定部104は、転移先データセットの各クラスに対して、れぞれ、クラス間距離が最短、すなわち、最も類似する転移元データセットのクラス(最類似転移元クラス)を選択する。そして、転移元データセット設定部104は、転移先データセットのクラス毎に選択した最類似転移元クラスの全てを結合して、転移元データセットを生成する。(ステップA5)。その後、処理を終了する。
次に、実施形態の一例としての情報処理装置1におけるフィルタ設定部200の処理を、図6に示すフローチャート(ステップB1~B3)に従って説明する。
第2フーリエ変換処理部201が、転移元データセット選択部100によって選択された転移元データセットの全ての系列を、FFTにより周波数スペクトル(スペクトル強度)にフーリエ変換する(ステップB1)。
平均スペクトル強度算出部202が第2フーリエ変換処理部201により算出されたスペクトル強度に基づき、周波数毎にスペクトル強度の平均を算出する(ステップB2)。
その後、フィルタ決定部203が、フィルタサイズおよびフィルタ数を決定し(ステップB3)、処理を終了する。
(C)効果
このように、実施形態の一例としての情報処理装置1によれば、第1フーリエ変換処理部101が、全データセットの全ての系列を、FFTにより周波数スペクトルにフーリエ変換する。そして、クラス平均系列算出部102が、周波数スペクトル強度の平均を算出することで全データセットに含まれる各クラスのそれぞれの平均系列を求める。
これにより、計算コストが高いDBAの算出を行なうことなく、低コストで各クラスの平均系列を算出することができる。
また、クラス間距離算出部103が、クラス平均系列算出部102によって算出された平均系列間の距離を、スペクトル強度間の内積に基づいて算出する。これにより、計算コストが高いDTWの算出を行なうことなく、低コストで各クラス間距離を算出することができる。
すなわち、本情報処理装置1においては、転移元データセットの選択に要する時間を短縮することができる。また、これにより転移学習を効率よく行なうことができる。
ここで、転移先データセットとして10データセットを用意して行なったシミュレーション結果を示す。
各データがサンプル数300,クラス数3および系列長256とする。このような条件において行なったシミュレーションにおいては、従来手法では転移元データセットの選択に726秒かかった処理が、本情報処理装置1においては0.085秒となり、従来手法の約0.01%で実現することができた。
また、転移元データセット設定部104が、転移先データセットの各クラスと、各転移元データセットの各クラスとの間の各類似度を算出し、転移先データセットのクラス毎に類似度が高い転移元データセットのクラスを選択する。そして、転移元データセット設定部104がこれらのクラスを組み合わせて転移元データセットを生成する。
これにより、転移先データセットの各クラスのそれぞれに対して類似するクラスが転移元として設定されるので、転移学習後の分析精度を向上させることができる。また、これにより転移学習を効率よく行なうことができる。
図7は実施形態の一例としての情報処理装置1における転移学習の効果を例示する図である。
この図7においては、UCRデータレポジトリの 60データセットで転移効果を検証した結果を示す。この図7に示すように、本情報処理装置1によれば、転移学習なし(転移無し)および従来の転移学習手法に比べて、精度中央値において分析精度が向上している。
また、第2フーリエ変換処理部201が、転移元データセット選択部100によって選択された転移元データセットの全ての系列を、FFTにより周波数スペクトル(スペクトル強度)にフーリエ変換する。また、平均スペクトル強度算出部202が算出されたスペクトル強度に基づき、周波数毎にスペクトル強度の平均を算出する。
そして、フィルタ決定部203が、上述した式(5)に基づき、系列長Tに比例し、周波数fiに反比例するフィルタサイズSを決定する。このように、スペクトル情報(系列長Tおよび周波数fi)に応じた適切なフィルサイズを決定することができる。また、フィルタ決定部203が、周波数の強度に応じたフィルタ数を決定する。
このように、フィルタ決定部203が、フィルタサイズおよびフィルタ数を決定することで、複数の周波数からなる系列の特徴を適切に捉えた畳み込みフィルタを生成することができる。また、これにより転移学習を効率よく行なうことができる。
図8は実施形態の一例としての情報処理装置1における転移学習の効果を例示する図である。
この図8においては、UCRデータレポジトリの 60データセットによるシミュレーション結果を示す。この図5において、フィルタサイズ“hybrid” が本情報処理装置1により設定された畳み込みフィルタによる結果を示す。
ニューラルネットワーク(NN)アーキテクチャは3層CNN を利用し、精度への影響が大きなCNNの1層目の畳み込みフィルタサイズのみ調整した例を示す。
また、本情報処理装置1によるhybridでは、便宜上フィルタの半数をサイズT/2fdとして、残りの半分は16 とした。なお、Tは系列長であり、fdは強度最大の周波数である。
この図7に示す例においては、従来の転移学習手法における各フィルタサイズ(T/f,T/2f,16,8,3)に比べて、精度平均および精度中央値において分析精度が向上している。
(D)その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成および各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
例えば、上述した実施形態においては、情報処理装置1が転移元データセット選択部100およびフィルタ設定部200を備えているが、これに限定されるものではない。
情報処理装置1は、これらの転移元データセット選択部100およびフィルタ設定部200に加えて、例えば、転移学習により学習させた機械学習モデルを用いた予測演算処理を実現してもよい。
また、上述した開示により本実施形態を当業者によって実施・製造することが可能である。
(E)付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、
前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
処理をコンピュータに実行させることを特徴とする、情報処理プログラム。
(付記2)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
処理をコンピュータに実行させることを特徴とする、情報処理プログラム。
(付記3)
前記データのデータ長および周波数に基づいてフィルタサイズを決定する
処理を前記コンピュータに実行させることを特徴とする、付記1または2に記載の情報処理プログラム。
(付記4)
前記データのデータ長に比例し、前記周波数に反比例する前記フィルタサイズを決定する
処理を前記コンピュータに実行させることを特徴とする、付記3記載の情報処理プログラム。
(付記5)
前記周波数の強度に基づいて前記フィルタ数を決定する
処理を前記コンピュータに実行させることを特徴とする、付記3または4に記載の情報処理プログラム。
(付記6)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定する
処理をコンピュータに実行させることを特徴とする、情報処理プログラム。
(付記7)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、
前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
処理を実行する制御部を有することを特徴とする、情報処理装置。
(付記8)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
処理を実行する制御部を有することを特徴とする、情報処理装置。
(付記9)
前記データのデータ長および周波数に基づいてフィルタサイズを決定する
処理を前記制御部が実行することを特徴とする、付記7または8に記載の情報処理装置。
(付記10)
前記データのデータ長に比例し、前記周波数に反比例する前記フィルタサイズを決定する
処理を前記制御部が実行することを特徴とする、付記9記載の情報処理装置。
(付記11)
前記周波数の強度に基づいて前記フィルタ数を決定する
処理を前記制御部が実行することを特徴とする、付記9または10に記載の情報処理装置。
(付記12)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定する
処理を実行する制御部を備えることを特徴とする、情報処理装置。
(付記13)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、
前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
処理をコンピュータが実行することを特徴とする、情報処理方法。
(付記14)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
処理をコンピュータが実行することを特徴とする、情報処理方法。
(付記15)
前記データのデータ長および周波数に基づいてフィルタサイズを決定する
処理を前記コンピュータが実行することを特徴とする、付記13または14に記載の情報処理方法。
(付記16)
前記データのデータ長に比例し、前記周波数に反比例する前記フィルタサイズを決定する
処理を前記コンピュータが実行することを特徴とする、付記15記載の情報処理方法。
(付記17)
前記周波数の強度に基づいて前記フィルタ数を決定する
処理を前記コンピュータが実行することを特徴とする、付記15または16に記載の情報処理方法。
(付記18)
転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定する
処理をコンピュータが実行することを特徴とする、情報処理方法。
1 情報処理装置
11 プロセッサ(制御部)
12 メモリ
13 記憶装置
14 グラフィック処理装置
14a モニタ
15 入力インタフェース
15a キーボード
15b マウス
16 光学ドライブ装置
16a 光ディスク
17 機器接続インタフェース
17a メモリ装置
17b メモリリーダライタ
17c メモリカード
18 ネットワークインタフェース
19 バス
100 転移元データセット選択部
101 第1フーリエ変換処理部
102 クラス平均系列算出部
103 クラス間距離算出部
104 転移元データセット設定部
200 フィルタ設定部
201 第2フーリエ変換処理部
202 平均スペクトル強度算出部
203 フィルタ決定部

Claims (12)

  1. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
    特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、
    前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
    処理をコンピュータに実行させることを特徴とする、情報処理プログラム。
  2. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
    処理をコンピュータに実行させることを特徴とする、情報処理プログラム。
  3. 前記データのデータ長および周波数に基づいてフィルタサイズを決定する
    処理を前記コンピュータに実行させることを特徴とする、請求項1または2に記載の情報処理プログラム。
  4. 前記データのデータ長に比例し、前記周波数に反比例する前記フィルタサイズを決定する
    処理を前記コンピュータに実行させることを特徴とする、請求項3記載の情報処理プログラム。
  5. 前記周波数の強度に応じて前記フィルタ数を決定する
    処理を前記コンピュータに実行させることを特徴とする、請求項3または4に記載の情報処理プログラム。
  6. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
    特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定する
    処理をコンピュータに実行させることを特徴とする、情報処理プログラム。
  7. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
    特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、
    前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
    処理を実行する制御部を有することを特徴とする、情報処理装置。
  8. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
    処理を実行する制御部を有することを特徴とする、情報処理装置。
  9. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
    特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定する
    処理を実行する制御部を備えることを特徴とする、情報処理装置。
  10. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
    特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定するとともに、
    前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
    処理をコンピュータが実行することを特徴とする、情報処理方法。
  11. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記周波数スペクトルの情報に基づいて、畳み込みニューラルネットワークのフィルタサイズ及びフィルタ数を決定する
    処理をコンピュータが実行することを特徴とする、情報処理方法。
  12. 転移先データセットの複数のクラスにそれぞれ含まれる各データおよび複数の転移元データセット候補の複数のクラスにそれぞれ含まれる各データをそれぞれ周波数スペクトルへ変換し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度の平均と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度の各平均とを算出し、
    前記転移先データセットの各クラスに含まれるデータのスペクトル強度と、前記複数の転移元データセット候補の複数のクラスに含まれるデータのスペクトル強度との内積に基づいて、転移先データセットの複数のクラスと、複数の転移元データセット候補の複数のクラスとの間の類似度を特定し、
    特定した類似度に基づいて、前記複数の転移元データセット候補の中から、前記転移先データセットの各クラスに対して最も類似する転移元データセットを決定する
    処理をコンピュータが実行することを特徴とする、情報処理方法。
JP2020170322A 2020-10-08 2020-10-08 情報処理プログラム,情報処理装置および情報処理方法 Withdrawn JP2022062362A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020170322A JP2022062362A (ja) 2020-10-08 2020-10-08 情報処理プログラム,情報処理装置および情報処理方法
EP21183954.3A EP3992860A1 (en) 2020-10-08 2021-07-06 Information processing program, information processing device, and information processing method
US17/372,730 US20220114443A1 (en) 2020-10-08 2021-07-12 Computer-readable recording medium storing information processing program, information processing device, and information processing method
CN202110853825.8A CN114298266A (zh) 2020-10-08 2021-07-27 计算机可读记录介质、信息处理装置及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020170322A JP2022062362A (ja) 2020-10-08 2020-10-08 情報処理プログラム,情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2022062362A true JP2022062362A (ja) 2022-04-20

Family

ID=76829309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020170322A Withdrawn JP2022062362A (ja) 2020-10-08 2020-10-08 情報処理プログラム,情報処理装置および情報処理方法

Country Status (4)

Country Link
US (1) US20220114443A1 (ja)
EP (1) EP3992860A1 (ja)
JP (1) JP2022062362A (ja)
CN (1) CN114298266A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1393196A4 (en) 2001-05-07 2007-02-28 Health Discovery Corp CORES AND METHODS FOR SELECTING CORES FOR USE IN TEACHING MACHINES
JP6543066B2 (ja) 2015-03-30 2019-07-10 株式会社メガチップス 機械学習装置
US11699522B2 (en) 2018-04-27 2023-07-11 Tata Consultancy Services Limited Unified platform for domain adaptable human behaviour inference

Also Published As

Publication number Publication date
CN114298266A (zh) 2022-04-08
EP3992860A1 (en) 2022-05-04
US20220114443A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
US11100320B2 (en) Image recognition method and apparatus
US10892050B2 (en) Deep image classification of medical images
JP2019008778A (ja) 画像の領域のキャプション付加
JP2017049996A (ja) 画像認識に用いられるニューラルネットワークの訓練方法及び訓練装置
US11017774B2 (en) Cognitive audio classifier
JP2018147428A (ja) 情報処理装置、情報処理方法、およびプログラム
KR102160390B1 (ko) 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템
US20190362226A1 (en) Facilitate Transfer Learning Through Image Transformation
CN116560895B (zh) 用于机械装备的故障诊断方法
US20220292315A1 (en) Accelerated k-fold cross-validation
JP2023501103A (ja) 人工知能の透明性
JP2011524578A (ja) 反射率スペクトルのコンパクト表現
Akilandasowmya et al. Skin cancer diagnosis: Leveraging deep hidden features and ensemble classifiers for early detection and classification
CN114298997B (zh) 一种伪造图片检测方法、装置及存储介质
CN107832228A (zh) 一种测试用例约简方法、装置、设备及存储介质
JP7172351B2 (ja) 文字列認識装置及び文字列認識プログラム
Akbal et al. Development of novel automated language classification model using pyramid pattern technique with speech signals
JP2022062362A (ja) 情報処理プログラム,情報処理装置および情報処理方法
JP2020095397A (ja) 最適化装置、最適化プログラムおよび最適化方法
CN114743187A (zh) 银行安全控件自动登录方法、系统、设备及存储介质
JP2023507344A (ja) 患者音からの呼吸器疾患の診断
Szijártó et al. Design of a Machine Learning System to Predict the Thickness of a Melanoma Lesion in a Non-Invasive Way from Dermoscopic Images
US20230012430A1 (en) Storage medium, model generation method, and information processing apparatus
WO2019155579A1 (ja) 特徴変換装置と方法及び記録媒体
JP2020191017A (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230707

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20240129