JP7056345B2 - データ分析システム、方法、及びプログラム - Google Patents

データ分析システム、方法、及びプログラム Download PDF

Info

Publication number
JP7056345B2
JP7056345B2 JP2018079775A JP2018079775A JP7056345B2 JP 7056345 B2 JP7056345 B2 JP 7056345B2 JP 2018079775 A JP2018079775 A JP 2018079775A JP 2018079775 A JP2018079775 A JP 2018079775A JP 7056345 B2 JP7056345 B2 JP 7056345B2
Authority
JP
Japan
Prior art keywords
intermediate layer
data
observation data
output
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018079775A
Other languages
English (en)
Other versions
JP2019191635A (ja
Inventor
雄貴 蔵内
拓哉 西村
宏志 小西
仁志 瀬下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018079775A priority Critical patent/JP7056345B2/ja
Priority to US17/048,539 priority patent/US20210166118A1/en
Priority to PCT/JP2019/016327 priority patent/WO2019203232A1/ja
Publication of JP2019191635A publication Critical patent/JP2019191635A/ja
Application granted granted Critical
Publication of JP7056345B2 publication Critical patent/JP7056345B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)
  • Image Analysis (AREA)

Description

本発明は、データ分析システム、方法、及びプログラムに係り、特に、センサ等の計器により観測された観測データを分析するデータ分析システム、方法、及びプログラムに関する。
IoT(Internet of Things)機器は、今後益々増加することが予測されている(例えば、非特許文献1を参照。)。IoT機器の増加に伴い、IoT機器においても省電力化を図ることが重要になっている。IoT機器の省電力化のために、例えば、非特許文献2や非特許文献3では、IoT機器の消費電力を低減する技術が提案されている。
また、IoT機器を設置する目的は、IoT機器が取得する詳細なデータではなく、詳細なデータから得られる分析結果である場合が多い(例えば、非特許文献4を参照。)。そして、より適切な分析を行うために、ニューラルネットワーク(Neural Network)等の機械学習が用いられている。
"総務省|平成27年度版 情報通信白書|現在起きているICTの特徴的変化"<インターネット検索:http://www.soumu.go.jp/johotsusintokei/whitepaper/ja/h27/html/nc261120.html 検索日:2018/03/13> "ドコモ、IoT通信機器の消費電力を約5分の1にする新技術-CNET Japan"<インターネット検索:https://japan.cnet.com/article/35107812/ 検索日:2018/03/13> "IoT端末の低消費電力化を実現するデータ圧縮技術"<インターネット検索:https://shingi.jst.go.jp/var/rev1/0000/1202/2016_osaka-u_1.pdf 検索日:2018/03/13> "IT融合による統合型次世代農業プロジェクトを推進|お客様に対する価値創造|事業を通じた価値創造|"<インターネット検索:https://www.ntt-west.co.jp/csr/2015/valuable/customer/topics02.html 検索日:2018/03/13>
ところで、ニューラルネットワーク等の機械学習を用いたデータ分析システムとして、センサ等の計器と、サーバコンピュータ等の機器とを含むシステムがある。計器から機器に観測データを送信する場合、最もシンプルな方法として、図11に示すように、計器では観測データの圧縮以外の処理は行わず、データ容量の大きな観測データを機器に送信する方法がある。この場合、機器では受信した観測データから特徴量への変換を行い、変換した特徴量に基づいて機械学習による推論の演算を行い、分析結果を得る。
また、別の方法としては、図12に示すように、計器に簡易な計算機能を持たせ、計器で特徴量への変換まで行い、変換した特徴量を機器に送信する方法もある。この場合、機器では受信した特徴量に基づいて機械学習による推論の演算を行い、分析結果を得る。この方法によれば、図11に示す方法と比較して、通信量が削減される。
また、更に別の方法としては、図13に示すように、計器では機械学習による推論の演算を途中まで行い得られた中間データを機器に送信する方法もある。この場合、機器では受信した中間データから機械学習による推論の演算の続きを行い、分析結果を得る。この方法によれば、図12に示す方法と比較して、更に通信量が削減される。
しかしながら、上記中間データの通信量は、中間層のノード数に応じて決まるため、この中間層のノード数を削減できれば、更に通信量を削減することが可能になると考えられる。一方、中間層のノード数を削減することで、中間層の出力値の確率分布の重複が多くなり、表現力が低下し、適切な分析が行えない場合がある。このため、通信量を削減しつつ、適切な分析を行えることが望まれている。
本発明は、上記の事情に鑑みてなされたものであり、通信量を削減しつつ、適切な分析を行うことができるデータ分析システム、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係るデータ分析システムは、計器により観測された観測データを分析する機器を含むデータ分析システムであって、前記計器が、前記観測データを、前記観測データの次元よりも少ない次元の低次元観測データに変換する変換処理であって、予め用意された学習済みニューラルネットワークの入力層を介して受け付けた前記観測データを、前記入力層から所定の中間層まで処理された結果得られる前記中間層の出力である前記低次元観測データを出力する前記変換処理を行う変換部を備え、前記機器が、前記低次元観測データから前記観測データを分析した結果を得る分析処理であって、前記低次元観測データを前記所定の中間層の次の中間層に入力し、前記次の中間層及び出力層を用いて、前記出力層の出力を、前記観測データを分析した結果とする前記分析処理を行う分析部を備え、前記学習済みニューラルネットワークが、前記所定の中間層のノード数が前記出力層のノード数よりも少なくなるように構成され、かつ、前記所定の中間層の一つ前の中間層が、前記低次元観測データの平均と分散をそれぞれ出力するノードを含み、前記分散を出力するノードの出力に、ノイズを乗算して、前記所定の中間層の入力とするように構成された学習用ニューラルネットワークを用いて予め学習されている。
また、第2の発明に係るデータ分析システムは、第1の発明において、記学習済みニューラルネットワークが、分析対象となる前記観測データとは異なる、前記分析して得られる結果が既知の観測データを学習データとして予め学習されている。
また、第3の発明に係るデータ分析システムは、第2の発明において、前記変換部が、前記学習済みニューラルネットワークにおける前記所定の中間層の一つ前の中間層の前記平均を出力するノードの出力を、前記所定の中間層の出力として用いて、前記低次元観測データを出力する。
一方、上記目的を達成するために、第4の発明に係るデータ分析方法は、計器により観測された観測データを分析する機器を含むデータ分析システムによるデータ分析方法であって、前記計器が備える変換部が、前記観測データを、前記観測データの次元よりも少ない次元の低次元観測データに変換する変換処理であって、予め用意された学習済みニューラルネットワークの入力層を介して受け付けた前記観測データを、前記入力層から所定の中間層まで処理された結果得られる前記中間層の出力である前記低次元観測データを出力する前記変換処理を行うステップと、前記機器が備える分析部が、前記低次元観測データから前記観測データを分析した結果を得る分析処理であって、前記低次元観測データを前記所定の中間層の次の中間層に入力し、前記次の中間層及び出力層を用いて、前記出力層の出力を、前記観測データを分析した結果とする前記分析処理を行うステップと、を含み、前記学習済みニューラルネットワークが、前記所定の中間層のノード数が前記出力層のノード数よりも少なくなるように構成され、かつ、前記所定の中間層の一つ前の中間層が、前記低次元観測データの平均と分散をそれぞれ出力するノードを含み、前記分散を出力するノードの出力に、ノイズを乗算して、前記所定の中間層の入力とするように構成された学習用ニューラルネットワークを用いて予め学習されている。
更に、上記目的を達成するために、第5の発明に係るプログラムは、コンピュータを、第1~第3のいずれか1の発明に係るデータ分析システムが備える変換部及び分析部として機能させる。
以上説明したように、本発明に係るデータ分析システム、方法、及びプログラムによれば、通信量を削減しつつ、適切な分析を行うことができる。
実施形態に係るデータ分析システムの機能的な構成の一例を示すブロック図である。 実施形態に係る計器及び機器の各々の動作の説明に供する図である。 実施形態に係る学習済みニューラルネットワークの説明に供する図である。 実施形態に係る手法を画像認識タスク及び音素認識タスクに適用した場合に得られる推定精度の一例を示すグラフである。 実施形態に係るデータ変換処理プログラム及びデータ分析処理プログラムの処理の流れの一例を示すシーケンス図である。 実施形態に係る計器及び機器によるデータ分析処理の説明に供する図である。 実施形態に係る学習装置の機能的な構成の一例を示すブロック図である。 実施形態に係る学習処理プログラムの処理の流れの一例を示すフローチャートである。 実施形態に係る学習用ニューラルネットワークの説明に供する図である。 実施形態に係る所定の中間層を2ノードとした場合の確率分布の一例を示す図である。 従来技術の説明に供する図である。 従来技術の説明に供する図である。 従来技術の説明に供する図である。
以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。
本実施形態では、センサ等の計器と、サーバコンピュータ等の機器と、を含み、学習済みニューラルネットワークを用いてデータ分析を行う推定側のデータ分析システムについて説明する。
図1は、本実施形態に係るデータ分析システム90の機能的な構成の一例を示すブロック図である。
図1に示すように、本実施形態に係るデータ分析システム90は、計器10と、機器20と、を含んで構成されている。これら計器10と機器20とはネットワークNを介して通信可能に接続されている。
本実施形態に係る計器10は、例えば、センサ等であり、観測対象に取り付けられ、観測対象から観測データを取得する。また、計器10は、電気的には、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備えて構成されている。ROMには、本実施形態に係るデータ変換処理プログラムが記憶されている。
上記のデータ変換処理プログラムは、例えば、計器10に予めインストールされていてもよい。このデータ変換処理プログラムは、不揮発性の記憶媒体に記憶して、又は、ネットワークを介して配布して、計器10に適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が挙げられる。
CPUは、ROMに記憶されているデータ変換処理プログラムを読み込んで実行することにより、入力部12、変換部14、及び出力部16として機能する。また、ROMには、学習済みニューラルネットワーク(学習済みモデル)18Aが格納されている。なお、計器10が備える学習済みニューラルネットワーク18Aと、後述する機器20が備える学習済みニューラルネットワーク18Bとにより1つの学習済みニューラルネットワーク(以下、学習済みニューラルネットワーク18という。)が構築される。つまり、1つの学習済みニューラルネットワーク18を所定の中間層(この中間層は隠れ層ともいう。)で分割し、入力層から所定の中間層までが学習済みニューラルネットワーク18Aに含まれ、所定の中間層の次の中間層から出力層までが学習済みニューラルネットワーク18Bに含まれている。
本実施形態に係る入力部12は、観測対象から取得された観測データの入力を受け付ける。
本実施形態に係る変換部14は、入力部12から入力を受け付けた観測データを、観測データの次元よりも少ない次元の低次元観測データに変換する変換処理を行う。この変換処理では、観測データが学習済みニューラルネットワーク18Aの入力層に入力され、入力層から所定の中間層までの部分を用いて低次元観測データに変換される。つまり、低次元観測データは、学習済みニューラルネットワーク18Aの所定の中間層の出力として得られる。
本実施形態に係る出力部16は、変換部14により得られた低次元観測データを、計器10の出力として、ネットワークNを介して機器20に送信する。
一方、本実施形態に係る機器20は、例えば、サーバコンピュータ等であり、電気的には、CPU、RAM、及びROM等を備えて構成されている。ROMには、本実施形態に係るデータ分析処理プログラムが記憶されている。このデータ分析処理プログラムは、例えば、機器20に予めインストールされていてもよい。このデータ分析処理プログラムは、不揮発性の記憶媒体に記憶して、又は、ネットワークを介して配布して、機器20に適宜インストールすることで実現してもよい。
CPUは、ROMに記憶されているデータ分析処理プログラムを読み込んで実行することにより、入力部22、分析部24、及び出力部26として機能する。また、ROMには、学習済みニューラルネットワーク(学習済みモデル)18Bが格納されている。
本実施形態に係る入力部22は、計器10から出力された低次元観測データの入力を受け付ける。
本実施形態に係る分析部24は、入力部22から入力を受け付けた低次元観測データから、観測データを分析した結果を得る分析処理を行う。この分析処理では、低次元観測データが所定の中間層の次の中間層に入力され、次の中間層から出力層までの部分を用いて、出力層の出力を、観測データを分析した結果とする。
本実施形態に係る出力部26は、分析部24により得られた分析結果を出力する。この分析結果は、例えば、図示しない表示部や、予め指定された端末装置等に出力される。
図2は、本実施形態に係る計器10及び機器20の各々の動作の説明に供する図である。
図2に示すように、計器10では、入力を受け付けた観測データについて、学習済みニューラルネットワーク18Aを用いて推論の演算を途中まで行い得られた低次元観測データを機器20に送信する。機器20では、受信した低次元観測データを入力とし、学習済みニューラルネットワーク18Bを用いた推論の演算の続きを行い、分析結果を得る。
本実施形態に係る学習済みニューラルネットワーク18Aは、所定の中間層のノード数が出力層のノード数よりも少なくなるように構成されている(これを「制約1」という。)。なお、所定の中間層のノード数は、1つ以上とされる。ここで、1ノードは、1次元に対応しており、1次元は、一例として、32ビットで表される実数とされる。また、学習済みニューラルネットワーク18Aは、所定の制約(これを「制約2」という。)の下、分析部24で分析した結果が異なる観測データについて低次元観測データの確率分布の重複が、制約2がない場合と比べて少なくなるように予め学習されている。
より具体的には、学習済みニューラルネットワーク18A、18Bが、後述する学習装置により予め学習される。学習装置により学習済みニューラルネットワーク18A、18Bを学習するための学習用ニューラルネットワークは、制約2として、所定の中間層の1つ前の中間層が、低次元観測データの平均と分散をそれぞれ出力するノードを含み、分散を出力するノードの出力に、ノイズを乗算して、所定の中間層の入力とするように構成されている。学習用ニューラルネットワークは、分析対象となる観測データとは異なる、分析して得られる結果(分析結果)が既知の観測データを学習データとして予め学習されている。つまり、学習データでは、学習データにより示される画像が分類される値を示す正解ラベルが予め付与されている。なお、後述する学習用ニューラルネットワークは、平均と分散をそれぞれ出力するノードが必要となるが、学習済みニューラルネットワーク18Aでは、少なくとも平均を出力するノードが含まれていればよい。このため、図2に示す例では、分散を出力するノード及びノイズを出力するノードを含まない構成としている。
本実施形態に係る変換部14は、学習済みニューラルネットワーク18Aにおける所定の中間層の一つ前の中間層の平均μを出力するノードの出力を、所定の中間層の出力として用いて、低次元観測データを出力する。この平均μの出力は、分析結果が異なる観測データにおける低次元観測データの確率分布の重複が、制約2がない場合と比べて少なくなるように予め学習されている。なお、図2に示す例では、計器10で中間層のノード数を「2」とした場合の中間データの出力を示し、P0~P9は低次元観測データの確率分布を示している。
図3は、本実施形態に係る学習済みニューラルネットワーク18A、18Bの説明に供する図である。
図3に示すように、本実施形態に係る学習済みニューラルネットワーク18Aには、入力層から所定の中間層までの部分が含まれている。一方、本実施形態に係る学習済みニューラルネットワーク18Bには、所定の中間層の次の中間層(図示省略)から出力層までの部分が含まれている。
すなわち、観測データが学習済みニューラルネットワーク18Aの入力層に入力され、所定の中間層から低次元観測データが出力される。この所定の中間層の出力値は、平均μを出力するノードの出力である変数Zとして表される。一方、機器20では、計器10から受信した変数Zを、学習済みニューラルネットワーク18Bの次の中間層に入力し、次の中間層から出力層までの部分を用いて、出力層の出力を、観測データの分析結果とする。この場合、計器10は、制約1により、変数Zを機器20に送信するだけなので、上述の図13に示す従来例と比較して、通信量が削減される。また、制約2により、低次元観測データの重複が、制約2がない場合と比べて少なくなるため、制約1でノード数を少なくした場合でも表現力の低下が抑制される。
すなわち、所定の中間層におけるノード数での表現力を、最終的に適切に分析するという目的を満たすために、所定の中間層の出力値の確率分布が最終的に分析される結果毎に重複する範囲を少なくしている。
最終的に適切に分析されるべくニューラルネットワークの出力値を制御するために、中間層の重みをかえることが従来行われてきた方式であるが、本実施形態では、さらに中間層の出力値についても制約を設けている点がポイントである。例えば、ニューラルネットワーク等を用いて所定の観測データを正常・異常のどちらであるかを判定しようとする場合、正常だとわかっているデータは正常だと判定されるように、異常だとわかっているデータは異常だと判定されるように学習を行う。つまり、出力層からの出力について制約を与えて中間層の重み等を学習する。一方、本実施形態では、上述した制約に加え、所定の中間層についてもさらに制約を加えている。上述した例で説明すると、正常だとわかっているデータは正常だと判定されるように、異常だとわかっているデータは異常だと判定されるように、かつ、所定の中間層のノード数と、正常だとわかっているデータに係る所定の中間層からの出力値の確率分布と、異常だとわかっているデータに係る所定の中間層からの出力値の確率分布と、ができる限り重複しないようにする、という制約を与えて中間層の重みなどを学習する。
このような構成を有することで、出力層のノード数よりも所定の中間層のノード数が少ない場合、すなわち、分析される結果が多い場合に特に効果を奏する。例えば、文字認識の場合、判定対象のデータがどのような文字であるかというような判定よりも、判定対象のデータは誰の筆跡によるどのような文字である、というような場合である。
本実施形態に係る学習済みニューラルネットワーク18Bを用いることにより、低次元観測データから、観測データの分析結果として、最も確率の高い値が出力される。例えば、図3に示すように、観測データの画像が手書きされた784次元の1桁の数字(図3の例では「0」)である場合、中間データとなる低次元観測データは2次元とされ、観測データの数字に応じて10次元の値(0~9)のうち最も確率の高い値(図3の例では「0」)が出力される。
図4は、本実施形態に係る手法を画像認識タスク及び音素認識タスクに適用した場合に得られる推定精度の一例を示すグラフである。
なお、図4の左図(画像認識タスク)及び右図(音素認識タスク)において、縦軸は推定の精度(100%が最も高い)を示し、横軸は中間層のノード数を示す。
図4の左図において、A1はDNN(Deep Neural Network)による圧縮器を示し、A2は圧縮器の生成モデルを示し、A3は一般的なDNNを示し、A4は本実施形態に係る手法を適用したDNNを示す。
図4の右図において、B1は一般的なDNNを示し、B2は本実施形態に係る手法を適用したDNNを示す。
図4の左図及び右図のいずれの場合であっても、中間層のノード数を少なく絞った場合に、従来法と比較して、推定の精度が向上されている。
次に、図5及び図6を参照して、本実施形態に係るデータ分析システム90の作用について説明する。なお、図5は、本実施形態に係るデータ変換処理プログラム及びデータ分析処理プログラムの処理の流れの一例を示すシーケンス図である。図6は、本実施形態に係る計器10及び機器20によるデータ分析処理の説明に供する図である。
図5のステップS1では、計器10の入力部12が、一例として、図6の「2台の装置で行う場合の構成」に示すように、観測データとして推定対象の画像を入力する。なお、図6に示す推定対象の画像としては、例えば、図3に示す784次元の行列化された手書き画像(図3の例では「0」)が入力される。また、図6の「1台の装置で行う場合の構成」は、比較例である。
ステップS2では、計器10の変換部14が、ステップS1で入力された観測データを、学習済みニューラルネットワーク18Aを用いて、観測データの次元よりも少ない次元の低次元観測データに変換する(制約1)。また、学習済みニューラルネットワーク18Aでは制約2が反映されているため、低次元観測データの確率分布の重複が、制約2がない場合と比べて少なくなる。
ステップS3では、計器10の出力部16が、一例として、図6の「2台の装置で行う場合の構成」に示すように、ステップS2で変換して得られた低次元観測データとしての所定の中間層の出力値(変数Z)を機器20に送信する。
次に、ステップS4では、機器20の入力部22が、ステップS3で計器10から送信された、低次元観測データとしての所定の中間層の出力値(変数Z)を入力する。
ステップS5では、機器20の分析部24が、ステップS4で入力された低次元観測データとしての所定の中間層の出力値を、学習済みニューラルネットワーク18Bを用いて、分析する。
ステップS6では、機器20の出力部26が、一例として、図6の「2台の装置で行う場合の構成」に示すように、ステップS5での分析結果(図6の例では「0から9に該当する確率」)を出力し、これらデータ変換処理プログラム及びデータ分析処理プログラムによる一連の処理を終了する。なお、図3に示すように、観測データの数字に応じて10次元の値(0~9)のうち最も確率の高い値(図3の例では「0」)を最終的に出力してもよい。
次に、データ分析システム90で用いる学習済みニューラルネットワーク18A、18Bを学習するための学習装置について説明する。
図7は、本実施形態に係る学習装置30の機能的な構成の一例を示すブロック図である。
本実施形態に係る学習装置30には、例えば、パーソナルコンピュータや、サーバコンピュータ等が適用される。学習装置30は、上述の図1に示した機器20の一機能として実現してもよい。学習装置30は、電気的には、CPU、RAM、及びROM等を備えて構成されている。ROMには、本実施形態に係る学習処理プログラムが記憶されている。この学習処理プログラムは、例えば、学習装置30に予めインストールされていてもよい。この学習処理プログラムは、不揮発性の記憶媒体に記憶して、又は、ネットワークを介して配布して、学習装置30に適宜インストールすることで実現してもよい。
CPUは、ROMに記憶されている学習処理プログラムを読み込んで実行することにより、入力部32、分析部34、学習部36、及び出力部38として機能する。
本実施形態に係る入力部32は、複数の学習データを含む学習データ群の入力を受け付ける。ここでいう学習データとは、分析対象となる観測データとは異なり、分析結果が既知の観測データである。
本実施形態に係る分析部34は、学習用ニューラルネットワーク18Cを用いて、入力部32から入力を受け付けた学習データを分析した結果を得る処理を行う。学習用ニューラルネットワーク18Cでは、入力層から所定の中間層までの部分により、学習データを、学習データの次元よりも少ない次元の低次元学習データに変換する変換処理を行う。この変換処理では、制約1として、学習データが学習用ニューラルネットワーク18Cの入力層に入力され、入力層から入力された学習データが所定の中間層を用いて低次元学習データに変換される。つまり、低次元学習データは、学習用ニューラルネットワーク18Cの所定の中間層の出力として得られる。学習用ニューラルネットワーク18Cでは、所定の中間層のノード数が出力層のノード数よりも少なくなる。
また、学習用ニューラルネットワーク18Cでは、所定の中間層の次の中間層から出力層までの部分により、所定の中間層で得られた低次元学習データから、学習データを分析した結果を得る分析処理を行う。この分析処理では、低次元学習データが所定の中間層の次の中間層に入力され、出力層の出力を、学習データを分析した結果とする。
本実施形態に係る学習部36では、分析部34で学習データを分析して得られた分析結果と、当該学習データに付与されている正解ラベルとを用いて、学習用ニューラルネットワーク18Cにおける重みを更新する更新処理を行う。このとき、学習用ニューラルネットワーク18Cでは、制約2として、分析結果が異なる学習データについて低次元学習データの確率分布の重複が少なくなるように学習される。より具体的には、所定の中間層の1つ前の中間層が、低次元学習データの平均と分散をそれぞれ出力するノードを含み、分散を出力するノードの出力に、ノイズを乗算して、所定の中間層の入力とする。
本実施形態に係る出力部38は、上記学習により得られた学習用ニューラルネットワーク18Cから構築される学習済みニューラルネットワーク18を記憶部等に出力する。例えば、学習済みニューラルネットワーク18は、学習用ニューラルネットワーク18Cから、所定の中間層の一つ前までの分散を出力するノード及びノイズを出力するノードを除いたものである。
次に、図8及び図9を参照して、本実施形態に係る学習装置30の作用について説明する。なお、図8は、本実施形態に係る学習処理プログラムの処理の流れの一例を示すフローチャートである。図9は、本実施形態に係る学習用ニューラルネットワーク18Cの説明に供する図である。
図8のステップ100では、入力部32が、一例として、図9に示すように、学習用ニューラルネットワーク18Cの入力層h1に学習データを入力する。なお、図9では、1桁の数字が記載された画像を、記載された数字に応じて10個の値(0~9)に分類する問題として例示する。この場合、学習データとして、例えば、784次元の行列化された手書き画像(図9に示す例では「0」)が入力される。
ステップ102では、分析部34が、制約1として、ステップ100で入力層h1に入力された学習データを、一例として、図9に示すように、所定の中間層h3を用いて、学習データの次元よりも少ない次元の低次元学習データに変換する。
そして、本ステップ102では、分析部34が、上記で得られた低次元学習データから、学習データを分析した結果を得る分析処理を行う。この分析処理では、一例として、図9に示すように、低次元学習データが所定の中間層h3から出力層h4に入力され、出力層h4の出力を、学習データを分析した結果とする。図9に示す例では、学習用ニューラルネットワーク18Cの出力層h4から、分析結果として、「0から9に該当する確率」が出力される。
ステップ104では、学習部36が、ステップ102で学習データを分析して得られた分析結果と、当該学習データに付与されている正解ラベルとを用いて、学習用ニューラルネットワーク18Cにおける重みを更新する更新処理を行う。このとき、学習用ニューラルネットワーク18Cでは、制約2として、所定の中間層h3の1つ前の中間層h2が、低次元学習データの平均μを出力するノード及び分散σを出力するノードを含み、分散σを出力するノードの出力に、ノイズεを乗算して、所定の中間層h3の入力とする。なお、この制約2では、所定の中間層h3の出力値が正規分布から生成されるものとする。この制約2により、低次元学習データの確率分布の重複が、制約2がない場合と比べて少なくなるように学習される。この学習は、入力層h1から送られてくる学習データに基づいて、予め定められた目的関数を最小化することで行う。ここでいう目的関数とは、正解ラベルのベクトルと、所定の中間層h3の出力値のベクトルとのクロスエントロピーとして示される。
図10は、本実施形態に係る所定の中間層h3を2ノードとした場合の確率分布の一例を示す図である。
図10の左図は、制約2を行わない場合のノード1の出力値及びノード2の出力値の確率分布を示す。図10の右図は、制約2を行った場合のノード1の出力値及びノード2の出力値の確率分布を示す。なお、確率分布P0、P2、P3、P4、P5、P6、P7、P8、P9の各々は、正解ラベル0、1、2、3、4、5、6,7、8、9の各々に対応する。
図10の左図に示すように、ノード1及びノード2の間で正解ラベル0~9の確率分布をプロットした場合、重複が多くなり、表現力が低下する。これに対して、図10の右図に示すように、ノード1及びノード2の間で正解ラベル0~9の分布をプロットした場合、制約2を行わない場合と比較して、重複が少なくなり、表現力の低下が抑制される。一例として、確率分布P1を拡大した状態を示しているが、制約2では、出力値の分散σ及び平均μを制御して、重複する範囲を小さくする。つまり、上述したように、分散σにノイズεを乗算することで、重複する範囲が小さくなるように制御する。
ステップ106では、出力部38が、全ての学習データについて終了したか否かを判定する。全ての学習データについて終了したと判定した場合(肯定判定の場合)、ステップ108に移行し、全ての学習データについて終了していないと判定した場合(否定判定の場合)、ステップ100に戻り処理を繰り返す。
ステップ108では、出力部38が、学習用ニューラルネットワーク18Cに基づいて、学習済みニューラルネットワーク18を構築し、構築した学習済みニューラルネットワーク18を記憶部等に出力し、本学習処理プログラムによる一連の処理を終了する。
以上、実施形態としてデータ分析システム及び学習装置を例示して説明した。実施形態は、コンピュータを、データ分析システム及び学習装置が備える各部として機能させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
その他、上記実施形態で説明したデータ分析システム及び学習装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10 計器
12 入力部
14 変換部
16 出力部
18、18A、18B 学習済みニューラルネットワーク
18C 学習用ニューラルネットワーク
20 機器
22 入力部
24 分析部
26 出力部
30 学習装置
32 入力部
34 分析部
36 学習部
38 出力部
90 データ分析システム

Claims (5)

  1. 計器により観測された観測データを分析する機器を含むデータ分析システムであって、
    前記計器は、前記観測データを、前記観測データの次元よりも少ない次元の低次元観測データに変換する変換処理であって、予め用意された学習済みニューラルネットワークの入力層を介して受け付けた前記観測データを、前記入力層から所定の中間層まで処理された結果得られる前記中間層の出力である前記低次元観測データを出力する前記変換処理を行う変換部を備え、
    前記機器は、前記低次元観測データから前記観測データを分析した結果を得る分析処理であって、前記低次元観測データを前記所定の中間層の次の中間層に入力し、前記次の中間層及び出力層を用いて、前記出力層の出力を、前記観測データを分析した結果とする前記分析処理を行う分析部を備え、
    前記学習済みニューラルネットワークは、前記所定の中間層のノード数が前記出力層のノード数よりも少なくなるように構成され、かつ、前記所定の中間層の一つ前の中間層が、前記低次元観測データの平均と分散をそれぞれ出力するノードを含み、前記分散を出力するノードの出力に、ノイズを乗算して、前記所定の中間層の入力とするように構成された学習用ニューラルネットワークを用いて予め学習されているデータ分析システム。
  2. 記学習済みニューラルネットワークは、分析対象となる前記観測データとは異なる、前記分析して得られる結果が既知の観測データを学習データとして予め学習されている請求項1に記載のデータ分析システム。
  3. 前記変換部は、前記学習済みニューラルネットワークにおける前記所定の中間層の一つ前の中間層の前記平均を出力するノードの出力を、前記所定の中間層の出力として用いて、前記低次元観測データを出力する請求項2に記載のデータ分析システム。
  4. 計器により観測された観測データを分析する機器を含むデータ分析システムによるデータ分析方法であって、
    前記計器が備える変換部が、前記観測データを、前記観測データの次元よりも少ない次元の低次元観測データに変換する変換処理であって、予め用意された学習済みニューラルネットワークの入力層を介して受け付けた前記観測データを、前記入力層から所定の中間層まで処理された結果得られる前記中間層の出力である前記低次元観測データを出力する前記変換処理を行うステップと、
    前記機器が備える分析部が、前記低次元観測データから前記観測データを分析した結果を得る分析処理であって、前記低次元観測データを前記所定の中間層の次の中間層に入力し、前記次の中間層及び出力層を用いて、前記出力層の出力を、前記観測データを分析した結果とする前記分析処理を行うステップと、
    を含み、
    前記学習済みニューラルネットワークは、前記所定の中間層のノード数が前記出力層のノード数よりも少なくなるように構成され、かつ、前記所定の中間層の一つ前の中間層が、前記低次元観測データの平均と分散をそれぞれ出力するノードを含み、前記分散を出力するノードの出力に、ノイズを乗算して、前記所定の中間層の入力とするように構成された学習用ニューラルネットワークを用いて予め学習されているデータ分析方法。
  5. コンピュータを、請求項1~3のいずれか1項に記載のデータ分析システムが備える変換部及び分析部として機能させるためのプログラム。
JP2018079775A 2018-04-18 2018-04-18 データ分析システム、方法、及びプログラム Active JP7056345B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018079775A JP7056345B2 (ja) 2018-04-18 2018-04-18 データ分析システム、方法、及びプログラム
US17/048,539 US20210166118A1 (en) 2018-04-18 2019-04-16 Data analysis system, method, and program
PCT/JP2019/016327 WO2019203232A1 (ja) 2018-04-18 2019-04-16 データ分析システム、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018079775A JP7056345B2 (ja) 2018-04-18 2018-04-18 データ分析システム、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019191635A JP2019191635A (ja) 2019-10-31
JP7056345B2 true JP7056345B2 (ja) 2022-04-19

Family

ID=68240336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018079775A Active JP7056345B2 (ja) 2018-04-18 2018-04-18 データ分析システム、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20210166118A1 (ja)
JP (1) JP7056345B2 (ja)
WO (1) WO2019203232A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7475150B2 (ja) 2020-02-03 2024-04-26 キヤノン株式会社 推論装置、推論方法、及びプログラム
US20220004955A1 (en) * 2020-07-02 2022-01-06 Kpn Innovations, Llc. Method and system for determining resource allocation instruction set for meal preparation
JP7482011B2 (ja) 2020-12-04 2024-05-13 株式会社東芝 情報処理システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071597A (ja) * 2014-09-30 2016-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6784162B2 (ja) * 2016-12-13 2020-11-11 富士通株式会社 情報処理装置、プログラム及び情報処理方法
US11640617B2 (en) * 2017-03-21 2023-05-02 Adobe Inc. Metric forecasting employing a similarity determination in a digital medium environment

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Diederik P. Kingma, et al.,"Auto-Encoding Variational Bayes",arXiv:1312.6114v10,version v10,[online], arXiv (Cornell University),2014年05月01日,Pages 1-14,[令和4年3月2日検索], インターネット, <URL: https://arxiv.org/abs/1312.6114v10> and <URL: https://arxiv.org/pdf/1312.6114v10.pdf>.
MITANI, T., et al.,"Compression and Aggregation for Optimizing Information Transmission in Distributed CNN",Proceedings of 2017 Fifth International Symposium on Computing and Networking (CANDAR),2017年11月22日,Pages 112-118,ISBN: 978-1-5386-2087-8, ISSN: 2379-1896, <DOI: 10.1109/CANDAR.2017.13>.
Nait Charif Hammadi(外2名),「ノイズ注入によるニューラルネットワークのフォールトトレランスと汎化能力の向上」,電子情報通信学会1997年総合大会講演論文集,分冊:情報・システム1,日本,社団法人 電子情報通信学会,1997年03月06日,第238頁.
福岡久和(外4名),「分散CNNにおける圧縮と集約による情報転送の最適化」,電子情報通信学会技術研究報告,日本,一般社団法人 電子情報通信学会,2017年11月12日,Vol.117, No.314,第51~54頁,ISSN: 0913-5685.
福岡久和(外4名),「動画圧縮技術を利用した分散機械学習における情報伝達効率化」,電子情報通信学会技術研究報告,日本,一般社団法人 電子情報通信学会,2017年07月19日,Vol.117, No.153,第151~155頁,ISSN: 0913-5685.

Also Published As

Publication number Publication date
WO2019203232A1 (ja) 2019-10-24
US20210166118A1 (en) 2021-06-03
JP2019191635A (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
US10671889B2 (en) Committed information rate variational autoencoders
US11468262B2 (en) Deep network embedding with adversarial regularization
Cao et al. Class-specific soft voting based multiple extreme learning machines ensemble
CN110520871B (zh) 使用学习进度测量训练机器学习模型
JP7056345B2 (ja) データ分析システム、方法、及びプログラム
JP6381768B1 (ja) 学習装置、学習方法、学習プログラムおよび動作プログラム
CN109478204A (zh) 非结构化文本的机器理解
CN111241287A (zh) 用于生成对抗文本的生成模型的训练方法及装置
JP6908302B2 (ja) 学習装置、識別装置及びプログラム
KR102453549B1 (ko) 인공지능과 빅데이터를 이용하여 자동 트레이딩 봇을 지원하는 주식 거래 플랫폼 서버 및 이의 동작 방법
CN110717027B (zh) 多轮智能问答方法、系统以及控制器和介质
JP2008015824A (ja) フィルタ列生成装置、フィルタ列生成方法、コンピュータをフィルタ列生成装置として機能させるためのプログラム、および記録媒体
KR102093080B1 (ko) 레이블 데이터 및 비레이블 데이터를 이용한 생성적 적대 신경망 기반의 분류 시스템 및 방법
CN114548300B (zh) 解释业务处理模型的业务处理结果的方法和装置
CN114090401A (zh) 处理用户行为序列的方法及装置
JP2019079102A (ja) 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム
KR102105951B1 (ko) 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치
JP7047849B2 (ja) 識別装置、識別方法、および識別プログラム
Zhu et al. A hybrid model for nonlinear regression with missing data using quasilinear kernel
KR102453557B1 (ko) 뉴스 기사에 대한 긍정, 부정 또는 중립 여부를 평가한 결과에 따라 예측 주가를 제공하는 주식 거래 플랫폼 서버 및 이의 동작 방법
JP7024687B2 (ja) データ分析システム、学習装置、方法、及びプログラム
CN112463964B (zh) 文本分类及模型训练方法、装置、设备及存储介质
CN111159397B (zh) 文本分类方法和装置、服务器
JP7059458B2 (ja) 生成的敵対神経網ベースの分類システム及び方法
WO2018002967A1 (ja) 情報処理システム、情報処理方法、及び、記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R150 Certificate of patent or registration of utility model

Ref document number: 7056345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150