JP6814480B2 - 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム - Google Patents
処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム Download PDFInfo
- Publication number
- JP6814480B2 JP6814480B2 JP2017215388A JP2017215388A JP6814480B2 JP 6814480 B2 JP6814480 B2 JP 6814480B2 JP 2017215388 A JP2017215388 A JP 2017215388A JP 2017215388 A JP2017215388 A JP 2017215388A JP 6814480 B2 JP6814480 B2 JP 6814480B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- processing
- network model
- activation function
- inference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/008—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Description
を備え、第1ニューラルネットワークモデルは、複数の処理レイヤーを含み、処理レイヤーは、入力値を所定の活性化関数により変換する活性化関数レイヤーを1以上含み、少なくとも1つの活性化関数レイヤーにおける活性化関数は、連続的に増加して一部の値でのみ非連続に減少する波形、又は連続的に減少して一部の値でのみ非連続に増加する波形の関数又は前記波形に近似した近似関数であり、推論装置は、対象データの入力を受け付ける対象データ入力部と、第2ニューラルネットワークモデルに通知された設定値を設定し、第2ニューラルネットワークモデルを用いて対象データに対して所定の推論処理を実行する推論部と、を備え、第2ニューラルネットワークモデルにおける少なくとも1つの前記活性化関数レイヤーに対応する活性化関数レイヤーにおける活性化関数は、前記波形の関数である。
図9を参照して、本実施形態に係る処理システム1における処理動作について説明する。
Claims (8)
- ニューラルネットワークモデルを用いて所定の処理を実行する処理装置であって、
前記ニューラルネットワークモデルに入力する入力用データを記憶するデータ記憶部と、
前記ニューラルネットワークモデルを用いて前記入力用データに対して所定の処理を実行する処理実行部と、を備え、
前記ニューラルネットワークモデルは、複数の処理レイヤーを含み、前記処理レイヤーとして、入力値を所定の活性化関数により変換する活性化関数レイヤーを1以上含み、
少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数は、剰余演算と、前記剰余演算の前に実行される除算とを含む剰余演算関数であり、前記除算における除数は、前記入力値を前記除算した値が取り得る範囲の幅が、前記剰余演算の除数よりも小さくなるように設定されている
処理装置。 - ニューラルネットワークモデルにより所定の推論処理を実行する推論装置であって、
対象データの入力を受け付ける対象データ入力部と、
前記ニューラルネットワークモデルを用いて前記対象データに対して所定の推論処理を実行する推論部と、を備え、
前記ニューラルネットワークモデルは、複数の処理レイヤーを含み、前記処理レイヤーとして、入力値を所定の活性化関数により変換する活性化関数レイヤーを1以上含み、
少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数は、剰余演算と、前記剰余演算の前に実行される除算とを含む剰余演算関数であり、前記除算における除数は、前記入力値を前記除算した値が取り得る範囲の幅が、前記剰余演算の除数よりも小さくなるように設定されている
推論装置。 - 所定の学習用データに基づいてニューラルネットワークモデルにおける設定値を学習する学習装置であって、
学習対象のニューラルネットワークモデルを用いて、学習用データに基づいて、前記学習対象のニューラルネットワークモデルにおける設定値を学習する学習部と、
前記学習部により学習された前記学習対象のニューラルネットワークの設定値を記憶する学習結果記憶部と、を備え、
前記ニューラルネットワークモデルは、複数の処理レイヤーを含み、前記処理レイヤーとして、直前の処理レイヤーからの入力値を所定の活性化関数により変換する活性化関数レイヤーを1以上含み、
少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数は、剰余演算と、前記剰余演算の前に実行される除算とを含む剰余演算関数であり、前記除算における除数は、前記入力値を前記除算した値が取り得る範囲の幅が、前記剰余演算の除数よりも小さくなるように設定されている
学習装置。 - 前記学習部は、前記ニューラルネットワークモデルによる正伝播を実行する場合には、少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数を、前記剰余演算関数とし、
前記ニューラルネットワークモデルにおける設定値を更新するために逆伝播を実行する場合には、前記少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数を、前記剰余演算関数と違う関数とする
請求項3に記載の学習装置。 - 所定の学習用データに基づいて第1ニューラルネットワークモデルにおける設定値を学習する学習装置と、前記第1ニューラルネットワークモデルの少なくとも一部に対応する第2ニューラルネットワークモデルにより所定の推論処理を実行する推論装置とを備える処理システムであって、
前記学習装置は、
学習対象の第1ニューラルネットワークモデルを用いて、学習用データに基づいて、前記学習対象の第1ニューラルネットワークモデルにおける設定値を学習する学習部と、
前記学習部により学習した第1ニューラルネットワークの設定値を前記推論装置に通知する通知部と、
を備え、
前記第1ニューラルネットワークモデルは、複数の処理レイヤーを含み、前記処理レイヤーは、入力値を所定の活性化関数により変換する活性化関数レイヤーを1以上含み、
少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数は、剰余演算と、前記剰余演算の前に実行される除算とを含む剰余演算関数であり、前記除算における除数は、前記入力値を前記除算した値が取り得る範囲の幅が、前記剰余演算の除数よりも小さくなるように設定されており、
前記推論装置は、
対象データの入力を受け付ける対象データ入力部と、
前記第2ニューラルネットワークモデルに前記通知された前記設定値を設定し、前記第2ニューラルネットワークモデルを用いて前記対象データに対して所定の推論処理を実行する推論部と、を備え、
前記第2ニューラルネットワークモデルにおける前記少なくとも1つの前記活性化関数レイヤーに対応する活性化関数レイヤーにおける活性化関数は、前記剰余演算関数である
処理システム。 - 前記処理システムは、前記推論装置と通信可能なクライアント装置を更に備え、
前記推論装置は、前記第2ニューラルネットワークモデルによる所定の推論処理の結果を前記クライアント装置に送信する推論送信部を備え、
前記クライアント装置は、
前記対象データを前記推論装置に送信する送信部と、
前記推論処理の結果に対して、Softmax処理を実行する処理部と、を備える
請求項5に記載の処理システム。 - ニューラルネットワークモデルを用いて所定の処理を実行する処理装置による処理方法であって、
前記ニューラルネットワークモデルを用いて入力用データに対して所定の処理を実行し、
前記ニューラルネットワークモデルは、複数の処理レイヤーを含み、前記処理レイヤーとして、入力値を所定の活性化関数により変換する活性化関数レイヤーを1以上含み、
少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数は、剰余演算と、前記剰余演算の前に実行される除算とを含む剰余演算関数であり、前記除算における除数は、前記入力値を前記除算した値が取り得る範囲の幅が、前記剰余演算の除数よりも小さくなるように設定されている関数である
処理方法。 - ニューラルネットワークモデルを用いて所定の処理を実行する処理装置を構成するコンピュータに実行させるための処理プログラムであって、
前記コンピュータを、
前記ニューラルネットワークモデルに入力する入力用データを記憶するデータ記憶部と、
前記ニューラルネットワークモデルを用いて前記入力用データに対して所定の処理を実行する処理実行部と、して機能させ、
前記ニューラルネットワークモデルは、複数の処理レイヤーを含み、前記処理レイヤーとして、入力値を所定の活性化関数により変換する活性化関数レイヤーを1以上含み、
少なくとも1つの前記活性化関数レイヤーにおける前記活性化関数は、剰余演算と、前記剰余演算の前に実行される除算とを含む剰余演算関数であり、前記除算における除数は、前記入力値を前記除算した値が取り得る範囲の幅が、前記剰余演算の除数よりも小さくなるように設定されている関数である
処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017215388A JP6814480B2 (ja) | 2017-11-08 | 2017-11-08 | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム |
US16/162,799 US11423297B2 (en) | 2017-11-08 | 2018-10-17 | Processing apparatus, processing method, and nonvolatile recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017215388A JP6814480B2 (ja) | 2017-11-08 | 2017-11-08 | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019087072A JP2019087072A (ja) | 2019-06-06 |
JP6814480B2 true JP6814480B2 (ja) | 2021-01-20 |
Family
ID=66328715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017215388A Active JP6814480B2 (ja) | 2017-11-08 | 2017-11-08 | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11423297B2 (ja) |
JP (1) | JP6814480B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10616121B2 (en) * | 2017-11-16 | 2020-04-07 | Distech Controls Inc. | Inference server and environment control device for inferring an optimal wireless data transfer rate |
US11510097B2 (en) | 2017-11-16 | 2022-11-22 | Distech Controls Inc. | Environment control device and method for inferring an optimal wireless data transfer rate using a neural network |
WO2019102624A1 (ja) * | 2017-11-27 | 2019-05-31 | 三菱電機株式会社 | 準同型推論装置、準同型推論方法、準同型推論プログラム及び秘匿情報処理システム |
JP6962578B2 (ja) * | 2019-05-21 | 2021-11-05 | 株式会社アクセル | 暗号処理システム、暗号処理装置、暗号処理プログラム、及び暗号処理方法 |
JP7005040B2 (ja) * | 2019-07-01 | 2022-01-21 | 株式会社アクセル | 学習装置、推論装置、学習方法、プログラムおよび推論方法 |
US11615609B2 (en) | 2019-07-01 | 2023-03-28 | Axell Corporation | Learning apparatus, inferring apparatus, learning method, program, and inferring method |
KR102435447B1 (ko) * | 2019-07-23 | 2022-08-25 | 포항공과대학교 산학협력단 | 뉴럴 네트워크 시스템 및 이의 동작 방법 |
JP7373840B2 (ja) * | 2019-10-03 | 2023-11-06 | 株式会社 システムスクエア | 検査装置 |
KR20220017174A (ko) | 2020-08-04 | 2022-02-11 | 주식회사 케이티 | 딥러닝 네트워크를 구성하는 서버, 방법 및 컴퓨터 프로그램 |
US11947960B2 (en) * | 2021-11-05 | 2024-04-02 | Qualcomm Incorporated | Modulo-space processing in multiply-and-accumulate units |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0683462A3 (fr) * | 1994-03-31 | 1996-01-17 | Philips Electronique Lab | Procédé et processeur pour construire une fonction linéaire par morceaux avec discontinuités éventuelles. |
JP3223856B2 (ja) * | 1997-04-17 | 2001-10-29 | 日本鋼管株式会社 | 圧延機の制御方法及び圧延機の制御装置 |
US20150106313A1 (en) * | 2013-10-11 | 2015-04-16 | General Electric Company | Predictive modeling of high-bypass turbofan engine deterioration |
US9946970B2 (en) | 2014-11-07 | 2018-04-17 | Microsoft Technology Licensing, Llc | Neural networks for encrypted data |
JP6521440B2 (ja) * | 2015-05-14 | 2019-05-29 | 国立研究開発法人情報通信研究機構 | ニューラルネットワーク及びそのためのコンピュータプログラム |
US10936951B1 (en) * | 2016-02-14 | 2021-03-02 | Perceive Corporation | Machine learning through multiple layers of novel machine trained processing nodes |
JP2017187850A (ja) * | 2016-04-01 | 2017-10-12 | 株式会社リコー | 画像処理システム、情報処理装置、プログラム |
CN110691676B (zh) * | 2017-06-19 | 2023-02-03 | 谷歌有限责任公司 | 使用神经网络和几何感知对象表示的机器人抓取预测 |
-
2017
- 2017-11-08 JP JP2017215388A patent/JP6814480B2/ja active Active
-
2018
- 2018-10-17 US US16/162,799 patent/US11423297B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20190138899A1 (en) | 2019-05-09 |
JP2019087072A (ja) | 2019-06-06 |
US11423297B2 (en) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6814480B2 (ja) | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム | |
JP6832013B2 (ja) | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム | |
US10949734B2 (en) | Progressive neural networks | |
US11861474B2 (en) | Dynamic placement of computation sub-graphs | |
US11374735B2 (en) | Processing apparatus, processing method, storage medium, and encryption processing system | |
CN112166567B (zh) | 通信系统中的学习 | |
CN109919318B (zh) | 数据处理方法、装置和设备 | |
JP7096610B2 (ja) | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム | |
JP6730740B2 (ja) | 処理装置、処理方法、処理プログラム、及び暗号処理システム | |
JP6695595B2 (ja) | 推論装置、及び推論方法 | |
WO2020071187A1 (ja) | 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム | |
US11823060B2 (en) | Method and system for performing deterministic data processing through artificial intelligence | |
WO2015145997A1 (ja) | 属性変換装置、属性変換方法、学習装置、及び、記録媒体 | |
CN112507323A (zh) | 基于单向网络的模型训练方法、装置和计算设备 | |
KR102105951B1 (ko) | 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치 | |
US20220405561A1 (en) | Electronic device and controlling method of electronic device | |
CN113222153A (zh) | 一种量子态的模拟方法、装置、存储介质和电子装置 | |
CN112511361B (zh) | 模型训练方法、装置和计算设备 | |
CN114202070A (zh) | 电力数据处理方法、装置、非易失性存储介质及处理器 | |
JP6067596B2 (ja) | ペアリング演算装置、マルチペアリング演算装置、プログラム | |
KR102080986B1 (ko) | 다중 정보 통합 장치와 방법 및 이를 구비하는 다중 정보 통합 인식 시스템 | |
US20200110635A1 (en) | Data processing apparatus and method | |
CN113052323B (zh) | 基于联邦学习的模型训练方法、装置和电子设备 | |
JP6685969B2 (ja) | 抽出物理乱数生成装置、抽出物理乱数生成方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201028 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6814480 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |