JP2018181187A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2018181187A5 JP2018181187A5 JP2017083608A JP2017083608A JP2018181187A5 JP 2018181187 A5 JP2018181187 A5 JP 2018181187A5 JP 2017083608 A JP2017083608 A JP 2017083608A JP 2017083608 A JP2017083608 A JP 2017083608A JP 2018181187 A5 JP2018181187 A5 JP 2018181187A5
- Authority
- JP
- Japan
- Prior art keywords
- data
- layer
- output
- data analysis
- learning parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007405 data analysis Methods 0.000 claims description 29
- 230000001537 neural Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 claims 8
- 240000001327 Echinochloa stagnina Species 0.000 description 12
- 235000001418 Echinochloa stagnina Nutrition 0.000 description 12
- 235000001797 dul Nutrition 0.000 description 12
- 235000001803 dul Nutrition 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 230000000875 corresponding Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
Images
Description
<ニューラルネットワーク>
図1は、実施例1にかかるニューラルネットワーク100の構造例を示す説明図である。ニューラルネットワーク100は、データユニット群DUと、レポーティングユニット群RUと、サジェスチョンユニットSUと、識別ユニットIUと、を有する。データユニット群DUは、複数のデータユニットDUl(lは、階層番号であり、0≦l≦L。Lは最下層の階層番号であり、図1では、L=3)を直列に接続した構成である。最上段であるl=0のデータユニットDU0は、ニューラルネットワーク100の入力層であり、l≧1のデータユニットDUlは、ニューラルネットワーク100の中間層(隠れ層ともいう)に相当する。データユニットDUlは、前段のデータユニットDU(l−1)からの入力データを自データユニットDUlの学習パラメータを用いて計算して出力データを出力するパーセプトロンである。
図1は、実施例1にかかるニューラルネットワーク100の構造例を示す説明図である。ニューラルネットワーク100は、データユニット群DUと、レポーティングユニット群RUと、サジェスチョンユニットSUと、識別ユニットIUと、を有する。データユニット群DUは、複数のデータユニットDUl(lは、階層番号であり、0≦l≦L。Lは最下層の階層番号であり、図1では、L=3)を直列に接続した構成である。最上段であるl=0のデータユニットDU0は、ニューラルネットワーク100の入力層であり、l≧1のデータユニットDUlは、ニューラルネットワーク100の中間層(隠れ層ともいう)に相当する。データユニットDUlは、前段のデータユニットDU(l−1)からの入力データを自データユニットDUlの学習パラメータを用いて計算して出力データを出力するパーセプトロンである。
サジェスチョンユニットSUは、各レポーティングユニットRUlからの出力ベクトルhl Rを用いて、各データユニットDUlの重み(出力ベクトルhS)を計算する。サジェスチョンユニットSUにおける出力ベクトルhSの計算は、下記式(3)で実施される。
式(3)中、行列WSはサジェスチョンユニットSUの学習パラメータである。下記式(4)に示すように、活性化関数の1つであるsoftmax関数では、層数L(本例ではL=3)に等しい次元のベクトルhSを計算する。右辺のベクトルhRはhl Rを垂直方向にスタックしたベクトルである。
したがって、行列WSは、L行M列(Mは、ベクトルhRの要素数)の行列となる。サジェスチョンユニットSUにsoftmax関数を採用することにより、要素数LのベクトルhSの各要素(全要素の和は1)は、対応するデータユニットDUlの重みをあらわすことになる。
識別ユニットIUは、各層のデータユニットDUl(l≧1)の出力ベクトルhl Dを識別する。具体的には、たとえば、識別ユニットIUは、ベクトルhSにより、中間層のデータユニットDUl(l≧1)の各出力ベクトルhl Dを重み付けする。具体的には、たとえば、識別ユニットIUは、中間層のデータユニットDUl(l≧1)の出力ベクトルhl Dを統合して統合ベクトルhを算出する。統合ベクトルhの計算は、下記式(5)で実施される。
本実施例では、式(1)から式(6)の計算方法と、その際に用いた学習パラメータである行列Wl D,行列Wl R,行列WS,行列Wの値を含めて予測モデルと呼称する。予測モデルの学習パラメータは、ニューラルネットワーク100に訓練データ{xn,yn}を与えることにより生成される。
なお、データ分析装置220は複数台で構成されてもよい。たとえば、負荷分散のため、データ分析装置220が複数存在してもよい。また、データ分析装置220は、機能ごとに複数台で構成されてもよい。たとえば、学習部261およびサーバDB263を含む第1のサーバと、予測部262およびサーバDB263を含む第2のサーバとで構成されてもよい。また、また、学習部261および予測部262を含む第1のデータ分析装置と、サーバDB263を含む第2のデータ分析装置とで構成されてもよい。また、学習部261を含む第1のデータ分析装置と、予測部262を含む第2のデータ分析装置と、サーバDB263を含む第3のデータ分析装置とで構成されてもよい。
図8は、実施例3にかかるニューラルネットワークの構造例を示す説明図である。ニューラルネットワーク800には、レポーティングユニットRUlが存在しない。このため、実施例3では、式(2)は不要となる。
また、中間層のデータユニットDUl(l≧1)からの出力データは、識別ユニットIUにのみ入力される。入力層のデータユニットDU0からの訓練データxnなどの出力データは、サジェスチョンユニットSUに入力される。したがって、実施例2では、式(3),式(4)のかわりに、下記式(16)が適用される。
図9は、実施例4にかかるニューラルネットワークの構造例を示す説明図である。ニューラルネットワーク900は、実施例1のニューラルネットワークに、ハーモナイジングユニットが追加された構造となる。ハーモナイジングユニットHUl(l≧1)は、中間層のデータユニットDUl(l≧1)と識別ユニットとの間に、中間層のデータユニットDUl(l≧1)ごとに設けられる。ハーモナイジングユニットHUlは、レポーティングユニットRUlと同様、中間層のデータユニットDUl(l≧1)からの出力データを次元縮退させる縮退部901である。したがって、識別ユニットIUには、ハーモナイジングユニットHUlで次元縮退されたデータが入力される。
Claims (12)
- 第1入力層と、第1出力層と、前記第1入力層と前記第1出力層との間において前段の層からのデータと第1学習パラメータとを第1活性化関数に与えて計算して後段の層に計算結果を出力する2層以上の第1中間層と、により構成される第1ニューラルネットワークを用いたデータ分析装置であって、
前記各第1中間層からの出力データを受け付けて、前記各出力データと第2学習パラメータとに基づいて、前記各第1中間層の重みを設定して、前記第1出力層に出力する設定部と、
前記第1出力層に含まれ、前記各出力データを、前記設定部によって設定された前記第1中間層ごとの重みにより、それぞれ重み付けする重み付け処理部と、
前記第1出力層に含まれ、前記重み付け処理部によって重み付けされた各出力データと第3学習パラメータとに基づいて、予測データを算出する算出部と、
を有することを特徴とするデータ分析装置。 - 請求項1に記載のデータ分析装置であって、
前記設定部は、前記第1入力層からの出力データを受け付けて、当該出力データと前記第2学習パラメータとに基づいて、前記各第1中間層の重みを設定して、前記第1出力層に出力することを特徴とするデータ分析装置。 - 請求項1に記載のデータ分析装置であって、
前記各第1中間層からの出力データを受け付けて、前記各出力データの次元数を縮退させて、縮退後の各出力データを前記設定部に出力する第1縮退部を有し、
前記設定部は、前記第1縮退部からの縮退後の各出力データを受け付けて、前記縮退後の各出力データと前記第2学習パラメータとに基づいて、前記各第1中間層の重みを設定して、前記第1出力層に出力することを特徴とするデータ分析装置。 - 請求項1に記載のデータ分析装置であって、
前記第1入力層に訓練データが与えられた場合に、前記第1学習パラメータ、前記第2学習パラメータ、および前記第3学習パラメータを調整する学習部を有することを特徴とするデータ分析装置。 - 請求項3に記載のデータ分析装置であって、
前記各第1中間層からの出力データを受け付けて、前記各出力データの次元数を縮退させて、縮退後の各出力データを前記重み付け処理部に出力する第2縮退部を有し、
前記重み付け処理部は、前記第2縮退部からの縮退後の各出力データを、前記第1中間層ごとの重みにより、それぞれ重み付けすることを特徴とするデータ分析装置。 - 請求項4に記載のデータ分析装置であって、
前記学習部は、
前記訓練データを受け付ける第2入力層と、前記第1ニューラルネットワークのハイパーパラメータを出力する第2出力層と、前記第2入力層と前記第2出力層との間において前段の層からのデータと第4学習パラメータとを第2活性化関数に与えて計算して後段の層に計算結果を出力する第2中間層と、により構成される第2ニューラルネットワークを用い、前記第2入力層に前記訓練データが与えられた場合に、前記第4学習パラメータを調整し、
前記訓練データを、前記第4学習パラメータが調整された前記第2ニューラルネットワークの前記第2入力層に与えることにより、前記第2出力層から前記ハイパーパラメータを出力し、
前記ハイパーパラメータにより前記第1ニューラルネットワークの構造を決定し、
前記構造が決定された前記第1ニューラルネットワークの前記第1入力層に前記訓練データが与えられた場合に、前記第1学習パラメータ、前記第2学習パラメータ、および前記第3学習パラメータを調整することを特徴とするデータ分析装置。 - 請求項6に記載のデータ分析装置であって、
前記ハイパーパラメータは、前記第1ニューラルネットワークを構成する要素のパターンを決定するハイパーパラメータであることを特徴とするデータ分析装置。 - 請求項7に記載のデータ分析装置であって、
前記パターンを決定するハイパーパラメータは、前記第1活性化関数の種類を示すパラメータであることを特徴とするデータ分析装置。 - 請求項6に記載のデータ分析装置であって、
前記ハイパーパラメータは、前記第1ニューラルネットワークを構成する要素の順序を決定するハイパーパラメータであることを特徴とするデータ分析装置。 - 請求項9に記載のデータ分析装置であって、
前記順序を決定するハイパーパラメータは、前記第1中間層の層数を示すパラメータであることを特徴とするデータ分析装置。 - 第1入力層と、第1出力層と、前記第1入力層と前記第1出力層との間において前段の層からのデータと第1学習パラメータとを第1活性化関数に与えて計算して後段の層に計算結果を出力する2層以上の第1中間層と、により構成される第1ニューラルネットワークを用いたデータ分析装置によるデータ分析方法であって、
前記データ分析装置は、プロセッサと、前記第1ニューラルネットワークを記憶する記憶デバイスと、を有し、
前記プロセッサは、
前記各第1中間層からの出力データを受け付けて、前記各出力データと第2学習パラメータとに基づいて、前記各第1中間層の重みを設定して、前記第1出力層に出力する設定処理と、
前記各出力データを、前記設定処理によって設定された前記第1中間層ごとの重みにより、それぞれ重み付けする重み付け処理と、
前記重み付け処理によって重み付けされた各出力データと第3学習パラメータとに基づいて、予測データを算出する算出処理と、
を実行することを特徴とするデータ分析方法。 - 第1入力層と、第1出力層と、前記第1入力層と前記第1出力層との間において前段の層からのデータと第1学習パラメータとを第1活性化関数に与えて計算して後段の層に計算結果を出力する2層以上の第1中間層と、により構成される第1ニューラルネットワークが記憶された記憶デバイスにアクセス可能なプロセッサに、
前記各第1中間層からの出力データを受け付けて、前記各出力データと第2学習パラメータとに基づいて、前記各第1中間層の重みを設定して、前記第1出力層に出力する設定処理と、
前記各出力データを、前記設定処理によって設定された前記第1中間層ごとの重みにより、それぞれ重み付けする重み付け処理と、
前記重み付け処理によって重み付けされた各出力データと第3学習パラメータとに基づいて、予測データを算出する算出処理と、
を実行させることを特徴とするデータ分析プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017083608A JP6832783B2 (ja) | 2017-04-20 | 2017-04-20 | データ分析装置、データ分析方法、およびデータ分析プログラム |
US15/906,807 US20180307969A1 (en) | 2017-04-20 | 2018-02-27 | Data analysis apparatus, data analysis method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017083608A JP6832783B2 (ja) | 2017-04-20 | 2017-04-20 | データ分析装置、データ分析方法、およびデータ分析プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018181187A JP2018181187A (ja) | 2018-11-15 |
JP2018181187A5 true JP2018181187A5 (ja) | 2019-11-28 |
JP6832783B2 JP6832783B2 (ja) | 2021-02-24 |
Family
ID=63854677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017083608A Active JP6832783B2 (ja) | 2017-04-20 | 2017-04-20 | データ分析装置、データ分析方法、およびデータ分析プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180307969A1 (ja) |
JP (1) | JP6832783B2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10642896B2 (en) | 2016-02-05 | 2020-05-05 | Sas Institute Inc. | Handling of data sets during execution of task routines of multiple languages |
US10650045B2 (en) | 2016-02-05 | 2020-05-12 | Sas Institute Inc. | Staged training of neural networks for improved time series prediction performance |
US10650046B2 (en) | 2016-02-05 | 2020-05-12 | Sas Institute Inc. | Many task computing with distributed file system |
US10795935B2 (en) | 2016-02-05 | 2020-10-06 | Sas Institute Inc. | Automated generation of job flow definitions |
USD898059S1 (en) | 2017-02-06 | 2020-10-06 | Sas Institute Inc. | Display screen or portion thereof with graphical user interface |
KR101853091B1 (ko) * | 2017-05-19 | 2018-04-27 | (주)뤼이드 | 기계학습이 적용된 사용자 답변 예측 프레임워크를 통한 개인 맞춤형 교육 컨텐츠 제공 방법, 장치 및 컴퓨터 프로그램 |
USD898060S1 (en) | 2017-06-05 | 2020-10-06 | Sas Institute Inc. | Display screen or portion thereof with graphical user interface |
CN108615071B (zh) * | 2018-05-10 | 2020-11-24 | 创新先进技术有限公司 | 模型测试的方法及装置 |
WO2020005471A1 (en) * | 2018-06-29 | 2020-01-02 | D5Ai Llc | Using back propagation computation as data |
CN112513886B (zh) * | 2018-08-03 | 2024-03-22 | 索尼公司 | 信息处理方法、信息处理装置和信息处理程序 |
CN109711453B (zh) * | 2018-12-21 | 2022-05-13 | 广东工业大学 | 一种基于多变量的设备动态健康状态评估方法 |
KR20200084431A (ko) * | 2018-12-26 | 2020-07-13 | 삼성전자주식회사 | 신경망 기반의 데이터 처리 방법, 신경망 트레이닝 방법 및 그 장치들 |
CN109948050B (zh) * | 2019-02-12 | 2021-04-02 | 东软集团股份有限公司 | 信息处理方法和装置,存储介质和电子设备 |
JP7111671B2 (ja) | 2019-09-05 | 2022-08-02 | 株式会社東芝 | 学習装置、学習システム、および学習方法 |
USD919656S1 (en) * | 2019-10-04 | 2021-05-18 | Butterfly Network, Inc. | Display panel or portion thereof with graphical user interface |
CN113792120B (zh) * | 2021-04-08 | 2023-09-15 | 北京金山数字娱乐科技有限公司 | 图网络的构建方法及装置、阅读理解方法及装置 |
CN114511058B (zh) * | 2022-01-27 | 2023-06-02 | 国网江苏省电力有限公司泰州供电分公司 | 一种用于电力用户画像的负荷元件构建方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3323894B2 (ja) * | 1991-06-27 | 2002-09-09 | 株式会社日立製作所 | ニューラルネットワーク学習方法及び装置 |
JP2018026040A (ja) * | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
-
2017
- 2017-04-20 JP JP2017083608A patent/JP6832783B2/ja active Active
-
2018
- 2018-02-27 US US15/906,807 patent/US20180307969A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018181187A5 (ja) | ||
US11250308B2 (en) | Apparatus and method for generating prediction model based on artificial neural network | |
JP6276901B1 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP6287999B2 (ja) | ニューラルネットワーク学習装置 | |
US11526722B2 (en) | Data analysis apparatus, data analysis method, and data analysis program | |
JP2018181187A (ja) | データ分析装置、データ分析方法、およびデータ分析プログラム | |
Kazemi et al. | Predicting seismic response of SMRFs founded on different soil types using machine learning techniques | |
CN105975749A (zh) | 一种轴承健康评估与预测的方法及系统 | |
CN113887845B (zh) | 极端事件预测方法、装置、设备和存储介质 | |
US20170091675A1 (en) | Production equipment including machine learning system and assembly and test unit | |
KR102036968B1 (ko) | 전문화에 기반한 신뢰성 높은 딥러닝 앙상블 방법 및 장치 | |
US20150024367A1 (en) | Cost-aware non-stationary online learning | |
TW201820174A (zh) | 整體式學習預測裝置與方法、以及非暫存電腦可讀的儲存媒介 | |
WO2018150798A1 (ja) | モデル推定システム、方法およびプログラム | |
CN112639833A (zh) | 可自适应神经网络 | |
JP2019128904A (ja) | 予測システム、シミュレーションシステム、方法およびプログラム | |
JP2023024950A (ja) | 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 | |
Kaveh et al. | Feasibility of pso-anfis-pso and ga-anfis-ga models in prediction of peak ground acceleration | |
JP5018809B2 (ja) | 時系列データ予測装置 | |
Assaleh et al. | Modeling nonlinear behavior of Buckling-Restrained Braces via different artificial intelligence methods | |
WO2020065908A1 (ja) | パターン認識装置、パターン認識方法およびパターン認識プログラム | |
WO2017198168A2 (en) | Reduction of parameters in fully connected layers of neural networks by low rank factorizations | |
WO2020262587A1 (ja) | 機械学習装置、機械学習プログラム、及び機械学習方法 | |
CN103763123A (zh) | 一种网络健康状态的评估方法和装置 | |
JP7438544B2 (ja) | ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法 |