JPWO2019135274A1 - ニューラル・ネットワークを有するデータ処理システム - Google Patents
ニューラル・ネットワークを有するデータ処理システム Download PDFInfo
- Publication number
- JPWO2019135274A1 JPWO2019135274A1 JP2019563722A JP2019563722A JPWO2019135274A1 JP WO2019135274 A1 JPWO2019135274 A1 JP WO2019135274A1 JP 2019563722 A JP2019563722 A JP 2019563722A JP 2019563722 A JP2019563722 A JP 2019563722A JP WO2019135274 A1 JPWO2019135274 A1 JP WO2019135274A1
- Authority
- JP
- Japan
- Prior art keywords
- processing system
- data processing
- chopper
- layers
- learning process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
V’=f(X, V), V’’=f(X, V’), V’’’=f(X, V’’) .....
のように、NN93を複数回(R回)繰り返して実行する。この繰り返し実行により、特徴ベクタ(出力データ)V, V’, V’’, V’’’,....の精度が向上していく。
3、13、63、83、91:ニューラル・ネットワーク(NN)
5、15、65、85、95、105、115:オプティマイザ
7、17、67、87、97、107、117:チョッパ
23:NN学習部
25:学習済みNN
27、29、31:サイズ縮小部
33、35、37:縮小NN
53:ユニバーサルNN
43:サーバ
45、47、49:デバイス
55、57、59:縮小NN
103:行列記憶システム
113:テンソル記憶システム
L1〜L5、L11〜L15、L61〜L65、L81〜L8d、L91〜L9g:層
A:対象行列
B:対象テンソル
P、Q、W:分解行列(分解テンソル)
Claims (18)
- 1種類以上の多重化構成要素をもつニューラル・ネットワーク(NN)と、
前記NNの学習プロセスにおいて、前記NNのもつパラメータのセットを修正する学習セッションを繰り返すオプティマイザと、
前記NNの学習プロセスにおいて、前記NNの少なくとも1種類の前記多重化構成要素の多重度を削減するチョッパと
を備え、
前記チョッパは、前記学習プロセスにおいて、前記少なくとも1種類の多重化構成要素の中から、前記少なくとも1種類の多重化構成要素に割り当てられた順位に基づいて一部の数の前記少なくとも1種類の多重化構成要素を選択的に削除することで、前記多重度を削減し、
前記チョッパは、前記学習プロセスにおいて、前記オプティマイザによる前記学習セッションの繰り返しに関連して、前記削除される前記少なくとも1種類の多重化構成要素の数を変化させる、
データ処理システム。 - 請求項1記載のデータ処理システムにおいて、
前記NNは、複数次元の特徴データをそれぞれもつ複数の層と、前記複数の層のうちの隣り合う層間を結合する複数の層間結合関数とを有し、
前記オプティマイザにより修正される前記パラメータのセットが、前記層間結合関数を含み、
前記チョッパにより削減される前記多重度が、前記複数層のうちの少なくとも一つの層の特徴データの次元数を含み、
前記チョッパは、前記学習プロセスにおいて、前記少なくとも一つの層の前記特徴データから、前記特徴データの前記複数次元に割り当てられた順位において下位側のk次元を削除し、
前記チョッパは、前記学習プロセスにおいて、前記オプティマイザによる前記学習セッションの繰り返しに関連して、前記削除される次元数kを変化させる、
データ処理システム。 - 請求項1記載のデータ処理システムにおいて、
前記NNが、フルコネクション型NNを含み、フルコネクション型NNの前記少なくとも一つの層の特徴データは複数次元ベクタであり、
前記チョッパにより削減される前記多重度が、前記少なくとも一つの層の前記特徴データの前記複数次元ベクタの次元数を含み、
前記チョッパは、前記学習プロセスにおいて、前記少なくとも一つの層の前記特徴データの前記複数次元ベクタから、前記複数次元に割り当てられた順位において下位側のk次元を削除することで、前記多重度を削減し、
前記チョッパは、前記学習プロセスにおいて、前記オプティマイザによる前記学習セッションの繰り返しに関連して、前記削除される次元数kを変化させる、
データ処理システム。 - 請求項1記載のデータ処理システムにおいて、
前記NNが、コンボルーショナル型NNを含み、前記コンボルーショナル型NNの前記少なくとも一つの層の特徴データは、複数のチャネルを有し、
前記チョッパにより削減される前記多重度が、前記少なくとも一つの層の前記特徴データのチャネル数を含み、
前記チョッパは、前記学習プロセスにおいて、前記少なくとも一つの層の前記特徴データの前記複数チャネルから、前記複数チャネルに割り当てられた順位において下位側のk個のチャネルを削除することで、前記多重度を削減し、
前記チョッパは、前記学習プロセスにおいて、前記オプティマイザによる前記学習セッションの繰り返しに関連して、前記削除されるチャネル数kを変化させる、
データ処理システム。 - 請求項1記載のデータ処理システムにおいて、
前記NNが、複数の層と、前記複数の層のうちの隣り合う層間を結合する複数の層間結合関数とを有し、
前記オプティマイザにより修正される前記パラメータのセットが、前記層間結合関数を含み、
前記チョッパにより削減される前記多重度が、前記NNの層数を含み、
前記チョッパは、前記学習プロセスにおいて、前記複数層に割り当てられた順位において下位側のk層を削除し、
前記チョッパは、前記学習プロセスにおいて、前記オプティマイザによる前記学習セッションの繰り返しに関連して、前記削除される層数kを変化させる、
データ処理システム。 - 請求項1記載のデータ処理システムにおいて、
中央処理ユニット(CPU)と、コンピュータプログラムを格納したストレージとを有したコンピュータシステムを備え、
前記コンピュータシステムの前記CPUが、前記コンピュータプログラムを実行するときに、前記NN、前記オプティマイザおよび前記チョッパの全部または一部として動作するように構成された、
データ処理システム。 - 請求項1記載のデータ処理システムにおいて、
1以上のハードウェア回路を備え、前記1以上のハードウェア回路が前記NN、前記オプティマイザ、および前記チョッパの全部または一部として動作するように構成された、
データ処理システム。 - 請求項1記載のデータ処理システムにおいて、
前記学習プロセスを終了した学習済みNNと、
前記学習済みNNから、前記多重化構成要素の多重度が削減された縮小NNを派生させるサイズ縮小部と、
をさらに備えたデータ処理システム。 - 複数桁の浮動小数点数値データをそれぞれもつ複数の層と、前記複数の層のうちの隣り合う層間を結合する複数の層間結合関数とを有するニューラル・ネットワーク(NN)と、
前記NNの学習プロセスにおいて、前記NNの前記層間結合関数を修正する学習セッションを繰り返すオプティマイザと、
第1の桁数の浮動小数点数値データを第2の桁数の浮動小数点数値データに変換する精度コンバータと、
前記NNの学習プロセスにおいて、前記精度コンバータを用いて、前記複数の層のうちの少なくとも一つの層の前記浮動小数点数値データの桁数を変化させるチョッパと
を備えたデータ処理システム。 - 請求項9記載のデータ処理システムにおいて、
中央処理ユニット(CPU)と、コンピュータプログラムを格納したストレージとを有したコンピュータシステムを備え、
前記コンピュータシステムの前記CPUが、前記コンピュータプログラムを実行するときに、前記NN、前記オプティマイザおよび前記チョッパの全部または一部として動作するように構成された、
データ処理システム。 - 請求項9記載のデータ処理システムにおいて、
1以上のハードウェア回路を備え、前記1以上のハードウェア回路が前記NN、前記オプティマイザ、および前記チョッパの全部または一部として動作するように構成された、
データ処理システム。 - 請求項9記載のデータ処理システムにおいて、
前記学習プロセスを終了した学習済みNNと、
前記学習済みNNから、前記少なくとも一つの層の前記浮動小数点数値データの桁数が削減された縮小NNを派生させるサイズ縮小部と、
をさらに備えたデータ処理システム。 - 請求項12記載のデータ処理システムにおいて、
前記サイズ縮小部は、他のデバイスの性能または容量に関する情報を受け、前記受けた情報に応じて前記縮小NNの前記削減された多重度を決定し、前記決定された多重度の前記縮小NNを前記学習済みNNから派生させ、そして、前記派生された前記縮小NNを前記他のデバイスに供給する、
データ処理システム。 - 複数の層と、前記複数の層のうちの隣り合う層間を結合する複数の層間結合関数と、前記複数の層と前記複数の層間結合関数を複数回繰り返し実行するリピータとを有するニューラル・ネットワーク(NN)と、
前記NNの学習プロセスにおいて、前記NNの前記層間結合関数を修正する学習セッションを繰り返すオプティマイザと、
前記NNの学習プロセスにおおいて、前記オプティマイザによる前記学習セッションの繰り返しに関連して、前記リピータによる前繰り返し実行回数を所定の最大回数以下の範囲で変化させるチョッパと
を備えたデータ処理システム。 - 請求項14記載のデータ処理システムにおいて、
中央処理ユニット(CPU)と、コンピュータプログラムを格納したストレージとを有したコンピュータシステムを備え、
前記コンピュータシステムの前記CPUが、前記コンピュータプログラムを実行するときに、前記NN、前記オプティマイザおよび前記チョッパの全部または一部として動作するように構成された、
データ処理システム。 - 請求項14記載のデータ処理システムにおいて、
1以上のハードウェア回路を備え、前記1以上のハードウェア回路が前記NN、前記オプティマイザ、および前記チョッパの全部または一部として動作するように構成された、
データ処理システム。 - 請求項14記載のデータ処理システムにおいて、
前記学習プロセスを終了した学習済みNNと、
前記学習済みNNから、前記リピータによる繰り返し実行回数を前記最大回数より少ない回数に削減した縮小NNを派生させるサイズ縮小部と、
をさらに備えたデータ処理システム。 - 請求項17記載のデータ処理システムにおいて、
前記サイズ縮小部は、他のデバイスの性能または容量に関する情報を受け、前記受けた情報に応じて前記縮小NNの前記削減された繰り返し実行回数を決定し、前記決定された繰り返し実行回数をもつ前記縮小NNを、前記学習済みNNから派生させ、そして、前記派生された前記縮小NNを前記他のデバイスに供給する、
データ処理システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/000045 WO2019135274A1 (ja) | 2018-01-04 | 2018-01-04 | ニューラル・ネットワークを有するデータ処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2019135274A1 true JPWO2019135274A1 (ja) | 2020-12-17 |
Family
ID=67144117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019563722A Ceased JPWO2019135274A1 (ja) | 2018-01-04 | 2018-01-04 | ニューラル・ネットワークを有するデータ処理システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2019135274A1 (ja) |
WO (1) | WO2019135274A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7068242B2 (ja) * | 2019-07-31 | 2022-05-16 | 株式会社東芝 | 学習装置、学習方法およびプログラム |
JP2021032116A (ja) * | 2019-08-22 | 2021-03-01 | トヨタ自動車株式会社 | 車両用制御装置、車両用学習システム、および車両用学習装置 |
JP2021032114A (ja) * | 2019-08-22 | 2021-03-01 | トヨタ自動車株式会社 | 車両用学習制御システム、車両用制御装置、および車両用学習装置 |
JP2021032115A (ja) | 2019-08-22 | 2021-03-01 | トヨタ自動車株式会社 | 車両用学習制御システム、車両用制御装置、および車両用学習装置 |
JP7210792B2 (ja) * | 2021-05-20 | 2023-01-23 | アクタピオ,インコーポレイテッド | 情報処理方法、情報処理装置および情報処理プログラム |
KR102612695B1 (ko) * | 2022-10-20 | 2023-12-13 | 연세대학교 산학협력단 | 변동성 플로팅 포인트 뉴럴넷을 이동 표적으로 사용하여 바이너리 뉴럴넷을 학습하는 자기지도학습 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0675935A (ja) * | 1992-08-26 | 1994-03-18 | Sony Corp | 多変数システム構成方法およびその装置 |
JP2015095215A (ja) * | 2013-11-14 | 2015-05-18 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
JP2017097807A (ja) * | 2015-11-27 | 2017-06-01 | 富士通株式会社 | 学習方法、学習プログラムおよび情報処理装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102449837B1 (ko) * | 2015-02-23 | 2022-09-30 | 삼성전자주식회사 | 신경망 학습 방법 및 장치, 및 인식 방법 및 장치 |
-
2018
- 2018-01-04 JP JP2019563722A patent/JPWO2019135274A1/ja not_active Ceased
- 2018-01-04 WO PCT/JP2018/000045 patent/WO2019135274A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0675935A (ja) * | 1992-08-26 | 1994-03-18 | Sony Corp | 多変数システム構成方法およびその装置 |
JP2015095215A (ja) * | 2013-11-14 | 2015-05-18 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
JP2017097807A (ja) * | 2015-11-27 | 2017-06-01 | 富士通株式会社 | 学習方法、学習プログラムおよび情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019135274A1 (ja) | 2019-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2019135274A1 (ja) | ニューラル・ネットワークを有するデータ処理システム | |
KR102558300B1 (ko) | 신경망 및 신경망 트레이닝 방법 | |
Deco et al. | An information-theoretic approach to neural computing | |
WO2018016608A1 (ja) | ニューラルネットワーク装置、車両制御システム、分解処理装置、及びプログラム | |
US20200026992A1 (en) | Hardware neural network conversion method, computing device, compiling method and neural network software and hardware collaboration system | |
KR102163209B1 (ko) | 컨볼루션 신경망 훈련의 다차원 병렬화 방법과 이를 수행하는 장치 사이의 재구성 가능한 연결 구조 | |
US20200387400A1 (en) | Allocation system, method and apparatus for machine learning, and computer device | |
KR20180075368A (ko) | 인공 신경망 모델에서 메모리 효율성 및 학습 속도 향상을 위한 드롭아웃 방법과 이를 이용한 학습 방법 | |
US20220036189A1 (en) | Methods, systems, and media for random semi-structured row-wise pruning in neural networks | |
Assunção et al. | Fast denser: Efficient deep neuroevolution | |
WO2020041026A1 (en) | Efficently building deep neural networks | |
CN115017178A (zh) | 数据到文本生成模型的训练方法和装置 | |
CN114422382A (zh) | 网络流量预测方法、计算机装置、产品及存储介质 | |
JP2020123270A (ja) | 演算装置 | |
CN111915011A (zh) | 一种单振幅量子计算模拟方法 | |
Baranyi et al. | Complexity reduction of singleton based neuro-fuzzy algorithm | |
CN115470889A (zh) | 基于强化学习的片上网络自主最优映射探索系统及方法 | |
US20230289563A1 (en) | Multi-node neural network constructed from pre-trained small networks | |
US20220027714A1 (en) | Convolution block array for implementing neural network application and method using the same, and convolution block circuit | |
JP7279225B2 (ja) | 破滅的忘却の発生を抑えつつ、転移学習を行う方法、情報処理装置及びプログラム | |
EP3987456B1 (en) | Cross replica reduction on networks having degraded nodes | |
KR20200078865A (ko) | 신경망의 프루닝-재훈련 장치 및 방법 | |
KR20210157826A (ko) | 심층 신경망 구조 학습 및 경량화 방법 | |
WO2022141189A1 (zh) | 一种循环神经网络精度和分解秩的自动搜索方法和装置 | |
JP2023076839A (ja) | 機械学習装置およびプルーニング方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210611 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20211130 |