JP2019046460A - 推論装置、及び推論方法 - Google Patents
推論装置、及び推論方法 Download PDFInfo
- Publication number
- JP2019046460A JP2019046460A JP2018137749A JP2018137749A JP2019046460A JP 2019046460 A JP2019046460 A JP 2019046460A JP 2018137749 A JP2018137749 A JP 2018137749A JP 2018137749 A JP2018137749 A JP 2018137749A JP 2019046460 A JP2019046460 A JP 2019046460A
- Authority
- JP
- Japan
- Prior art keywords
- inference
- neural network
- encrypted
- unit
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
実施形態の推論装置について説明する。
図1を参照して、ニューラルネットワークで行われる演算処理について説明する。
a1=x1×w1(11)+x2×w1(12) ・・・(1)
y1=σ(a1)×w2(11)+σ(a2)×w2(12)
+σ(a3)×w2(13) ・・・(2)
σ(u)=1/(1+exp(−u)) ・・・(3)
σ(u)=u(u>0)、0(u≦0) ・・・(4)
しかし、上述したように、ニューラルネットワークの演算には、非線形関数の演算が含まれている。したがって、乗算と加算しかできない準同型暗号では、ニューラルネットワークの演算処理を実行することができない。
図2を参照して、実施形態のニューラルネットワークのシステム(推論システム)について説明する。以下の説明では、画像認識処理に用いられるニューラルネットワークを一例として説明する。これに限らず、実施例のニューラルネットワークのシステムは、会話、運転支援、及び予測などの他の処理にも適用可能である。
学習装置1と、推論装置2と、クライアント装置3とは、例えば、ネットワークを介して互いに通信可能に接続される。
受付部11は、例えば、入力値に対応する目標値を示す組合せのセットが格納された学習セットの入力を受け付ける。
取得部21は、活性化関数に非線形関数を採用した第1ニューラルネットワークを用いて、ニューラルネットワークに含まれる各ニューロン間の結合の重み及びバイアスの少なくとも一方を含むパラメータを調整した学習済みモデル40を取得する。そして、取得部21は、取得した学習済みモデル40を記憶部25に記憶させてもよい。
出力部24は、推論処理により得られる暗号化された推論結果をクライアント装置3に出力する。
取得部31は、推論処理の対象のデータを取得する。推論処理の対象のデータとは、例えば、画像、文字、及び音声などの認識対象のデータである。
暗号化部32は、推論処理の対象のデータに対して、準同型暗号の暗号化処理を実行する。これにより、暗号化部32は、暗号化されたデータを出力する。
出力部34は、暗号化部32により得られる暗号化されたデータを推論装置2に出力する。出力部34は、推論結果50を外部に出力してもよい。
学習装置1は、学習セットが入力されると(S101)、学習セットの入力を受け付ける(S102)。そして、学習装置1は、活性化関数に非線形関数を採用した第1ニューラルネットワークを用いて、ニューラルネットワークに含まれる各ニューロン間の結合の重み及びバイアスの少なくとも一方を含むパラメータを調整した学習済みモデル40を取得する(S103)。そして、学習装置1は、作成した学習済みモデル40を推論装置に出力する(S104)。
学習装置1における学習済みモデル40の作成処理では、暗号化されていない学習セットのデータを用いる。したがって、学習装置1は、例えば、図4(a)に示すように、各ニューロンの活性化関数σに非線形関数を採用することができる。例えば、活性化関数σとしてシグモイド関数を採用した場合には、学習装置1は、式(3)に対応する図5(a)の点線で示す関数を用いて学習済みモデル40を作成する。活性化関数σとしてReLU関数を採用した場合には、学習装置1は、式(4)に対応する図5(b)の点線で示す関数を用いて学習済みモデル40を作成する。
推論装置2は、学習済みモデル40を取得する(S105)。このとき、推論装置2は、学習済みモデル40を記憶部25に記憶させてもよい。そして、推論装置2は、学習済みモデル40にしたがって、活性化関数に非線形関数の近似多項式を採用した第2ニューラルネットワークのパラメータを設定する(S106)。推論装置2は、推論処理が実行可能となったことをクライアント装置3に通知する(S107)。
推論装置2は、暗号化されたデータが入力されたとき、第2ニューラルネットワークを用いて、暗号化されたデータを暗号化したまま推論処理を実行する(S112)。そして、推論装置2は、推論処理により得られる暗号化された推論結果をクライアント装置に出力する(S113)。
推論装置2における推論処理では、暗号化されたデータを暗号化したまま演算する処理をする。したがって、推論装置2は、例えば、図4(b)に示すように、各ニューロンの活性化関数として非線形関数である活性化関数σの近似多項式fを採用する。例えば、活性化関数としてシグモイド関数の近似多項式fを採用した場合には、推論装置2は、下記式(5)に対応する図5(a)の実線で示す関数を用いて推論処理を実行する。
fre(x)=5*10−8x6−9*10−20x5−8*10−5x4+9*10−17x3+0.0512x2+0.5x ・・・(6)
上述のように、活性化関数を多項式に近似することより、推論装置2は、準同型暗号を用いて対象のデータを暗号化したまま推論処理ができる。
クライアント装置3は、暗号化された推論結果が入力されたとき、暗号された推論結果に対して、準同型暗号の複合処理を実行する(S114)。そして、クライアント装置3は、例えば、表示装置などに、推論結果を出力する(S115)。
図6を参照して、コンピュータ装置100の構成について説明する。
コンピュータ装置100は、制御回路101と、記憶装置102と、読書装置103と、記録媒体104と、通信インターフェイス105と、入出力インターフェイス106と、入力装置107と、表示装置108とを含む情報処理装置である。また、通信インターフェイス105は、ネットワーク109と接続される。そして、各構成要素は、バス110により接続される。学習装置1、推論装置2、及びクライアント装置3は、コンピュータ装置100に記載の構成要素の一部または全てを適宜選択して構成することができる。
ネットワーク109は、例えば、LAN、無線通信、またはインターネットなどであり、コンピュータ装置100と他の装置とを通信接続する。学習装置1、推論装置2、及びクライアント装置3は、ネットワーク109を介して互いに通信可能に接続されてもよい。
図7を参照して、実施形態のニューラルネットワークのシステムにおける推論処理の正答率について説明する。
正答率表200は、畳み込みニューラルネットワークを用いた画像認識処理において、学習処理と推論処理とのそれぞれで採用する活性化関数と、正答率との関係を示す表である。正答率表200には、複数回の画像認識処理を実行する実験をすることで得られた、正答率の平均値、最小値、及び最大値が示されている。
2 推論装置
3 クライアント装置
100 コンピュータ装置
101 制御回路
102 記憶装置
103 読書装置
104 記録媒体
105 通信I/F
106 入出力I/F
107 入力装置
108 表示装置
109 ネットワーク
110 バス
Claims (7)
- 活性化関数に非線形関数を採用した第1ニューラルネットワークを用いて、ニューラルネットワークに含まれる各ニューロン間の結合の重み及びバイアスの少なくとも一方を含むパラメータを調整した学習済みモデルを取得する取得部と、
前記学習済みモデルにしたがって、活性化関数に前記非線形関数の近似多項式を採用した第2ニューラルネットワークにパラメータを設定する設定部と、
暗号化されたデータが入力されたとき、前記第2ニューラルネットワークを用いて、前記暗号化されたデータを暗号化したまま推論処理を実行する推論部と、
を備えることを特徴とする推論装置。 - 前記暗号化されたデータは、
準同型暗号の暗号化処理及び復号処理を実行するクライアント装置から入力され、
前記推論部は、
前記準同型暗号の演算を用いて、前記推論処理を実行し、
前記推論装置は、さらに、
前記推論処理により得られる暗号化された推論結果を前記クライアント装置に出力する出力部
を備えることを特徴とする請求項1に記載の推論装置。 - 前記第1ニューラルネットワーク及び前記第2ニューラルネットワークは、畳み込みニューラルネットワークである
ことを特徴とする請求項1または2に記載の推論装置。 - 学習装置と、推論装置とを備える推論システムであって、
前記学習装置は、
活性化関数に非線形関数を採用した第1ニューラルネットワークを用いて、ニューラルネットワークに含まれる各ニューロン間の結合の重み及びバイアスの少なくとも一方を含むパラメータを調整した学習済みモデルを作成する作成部を備え、
前記推論装置は、
前期学習済みモデルを取得する取得部と、
前記学習済みモデルにしたがって、活性化関数に前記非線形関数の近似多項式を採用した第2ニューラルネットワークにパラメータを設定する設定部と、
暗号化されたデータが入力されたとき、前記第2ニューラルネットワークを用いて、前記暗号化されたデータを暗号化したまま推論処理を実行する推論部と、
を備えることを特徴とする推論システム。 - 前記推論システムは、さらに、クライアント装置を備え、
前記推論装置は、さらに、
前記推論処理により得られる暗号化された推論結果を前記クライアント装置に出力する第1出力部を備え、
前記推論部は、
前記準同型暗号の演算を用いて、前記推論処理を実行し、
前記クライアント装置は、
推論処理の対象のデータに対して、準同型暗号の暗号化処理を実行する暗号化部と、
前記暗号化部により得られる前記暗号化されたデータを前記推論装置に出力する第2出力部と、
前記暗号化された推論結果が入力されたとき、前記暗号された推論結果に対して、準同型暗号の複合処理を実行する復号部と、
を備えることを特徴とする請求項4に記載の推論システム。 - コンピュータにより実行される推論方法であって、
活性化関数に非線形関数を採用した第1ニューラルネットワークを用いて、ニューラルネットワークに含まれる各ニューロン間の結合の重み及びバイアスの少なくとも一方を含むパラメータを調整した学習済みモデルを取得し、
前記学習済みモデルにしたがって、活性化関数に前記非線形関数の近似多項式を採用した第2ニューラルネットワークにパラメータを設定し、
暗号化されたデータが入力されたとき、前記第2ニューラルネットワークを用いて、前記暗号化されたデータを暗号化したまま推論処理を実行する、
ことを特徴とする推論方法。 - 活性化関数に非線形関数を採用した第1ニューラルネットワークを用いて、ニューラルネットワークに含まれる各ニューロン間の結合の重み及びバイアスの少なくとも一方を含むパラメータを調整した学習済みモデルを取得し、
前記学習済みモデルにしたがって、活性化関数に前記非線形関数の近似多項式を採用した第2ニューラルネットワークにパラメータを設定し、
暗号化されたデータが入力されたとき、前記第2ニューラルネットワークを用いて、前記暗号化されたデータを暗号化したまま推論処理を実行する、
処理をコンピュータに実行させることを特徴とする推論プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/117,701 US20190065974A1 (en) | 2017-08-30 | 2018-08-30 | Inference device, inference system, and inference method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166123 | 2017-08-30 | ||
JP2017166123 | 2017-08-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046460A true JP2019046460A (ja) | 2019-03-22 |
JP6695595B2 JP6695595B2 (ja) | 2020-05-20 |
Family
ID=65816526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018137749A Active JP6695595B2 (ja) | 2017-08-30 | 2018-07-23 | 推論装置、及び推論方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6695595B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020530577A (ja) * | 2018-07-27 | 2020-10-22 | クリプト ラボ インクCrypto Lab Inc. | 暗号文に対する近似演算を行う装置及び方法 |
CN113554167A (zh) * | 2021-05-31 | 2021-10-26 | 汎思数据股份有限公司 | 深度学习神经网络储存与推论方法 |
WO2022137447A1 (ja) * | 2020-12-24 | 2022-06-30 | 三菱電機株式会社 | 秘匿情報処理システムおよび秘匿情報処理方法 |
KR20220144502A (ko) * | 2021-04-20 | 2022-10-27 | 성신여자대학교 연구 산학협력단 | 인공지능 학습장치 및 인공지능 학습장치의 동작방법 |
WO2023100720A1 (ja) | 2021-12-01 | 2023-06-08 | Eaglys株式会社 | 機械学習装置、機械学習システム、機械学習方法、および機械学習プログラム |
CN118540158A (zh) * | 2024-07-24 | 2024-08-23 | 杭州金智塔科技有限公司 | 基于全同态加密的安全两方推理方法、推理模型生成方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102674639B1 (ko) * | 2021-05-27 | 2024-06-14 | 재단법인대구경북과학기술원 | 신경망 모델 기반 암호문을 복호화하기 위한 전자 장치 및 전자 장치의 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015053008A (ja) * | 2013-09-09 | 2015-03-19 | 株式会社東芝 | 識別装置および演算装置 |
US20160350648A1 (en) * | 2014-11-07 | 2016-12-01 | Microsoft Technology Licensing, Llc. | Neural networks for encrypted data |
-
2018
- 2018-07-23 JP JP2018137749A patent/JP6695595B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015053008A (ja) * | 2013-09-09 | 2015-03-19 | 株式会社東芝 | 識別装置および演算装置 |
US20160350648A1 (en) * | 2014-11-07 | 2016-12-01 | Microsoft Technology Licensing, Llc. | Neural networks for encrypted data |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020530577A (ja) * | 2018-07-27 | 2020-10-22 | クリプト ラボ インクCrypto Lab Inc. | 暗号文に対する近似演算を行う装置及び方法 |
US11115182B2 (en) | 2018-07-27 | 2021-09-07 | Crypto Lab Inc. | Apparatus for approximately processing encrypted messages and methods thereof |
WO2022137447A1 (ja) * | 2020-12-24 | 2022-06-30 | 三菱電機株式会社 | 秘匿情報処理システムおよび秘匿情報処理方法 |
JPWO2022137447A1 (ja) * | 2020-12-24 | 2022-06-30 | ||
JP7205016B2 (ja) | 2020-12-24 | 2023-01-16 | 三菱電機株式会社 | 秘匿情報処理システムおよび秘匿情報処理方法 |
KR20220144502A (ko) * | 2021-04-20 | 2022-10-27 | 성신여자대학교 연구 산학협력단 | 인공지능 학습장치 및 인공지능 학습장치의 동작방법 |
KR102557639B1 (ko) | 2021-04-20 | 2023-07-19 | 성신여자대학교 연구 산학협력단 | 인공지능 학습장치 및 인공지능 학습장치의 동작방법 |
CN113554167A (zh) * | 2021-05-31 | 2021-10-26 | 汎思数据股份有限公司 | 深度学习神经网络储存与推论方法 |
WO2023100720A1 (ja) | 2021-12-01 | 2023-06-08 | Eaglys株式会社 | 機械学習装置、機械学習システム、機械学習方法、および機械学習プログラム |
JP2023081793A (ja) * | 2021-12-01 | 2023-06-13 | Eaglys株式会社 | 機械学習装置、機械学習システム、機械学習方法、および機械学習プログラム |
US11956353B2 (en) | 2021-12-01 | 2024-04-09 | Eaglys Inc. | Machine learning device, machine learning system, and machine learning method |
CN118540158A (zh) * | 2024-07-24 | 2024-08-23 | 杭州金智塔科技有限公司 | 基于全同态加密的安全两方推理方法、推理模型生成方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6695595B2 (ja) | 2020-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6695595B2 (ja) | 推論装置、及び推論方法 | |
US20190065974A1 (en) | Inference device, inference system, and inference method | |
US11902413B2 (en) | Secure machine learning analytics using homomorphic encryption | |
JP7125541B2 (ja) | ビデオ修復方法および装置、電子機器、ならびに記憶媒体 | |
JP6814480B2 (ja) | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム | |
US11368279B2 (en) | Processing apparatus, processing method, storage medium, and encryption processing system | |
US11374735B2 (en) | Processing apparatus, processing method, storage medium, and encryption processing system | |
JP6832013B2 (ja) | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム | |
CN111373401B (zh) | 同态推理装置、同态推理方法、计算机能读取的存储介质和隐匿信息处理系统 | |
US20200374101A1 (en) | Encryption processing system, encryption processing device and recording medium | |
CN112016120A (zh) | 基于用户隐私保护的事件预测方法和装置 | |
WO2022142366A1 (zh) | 机器学习模型更新的方法和装置 | |
Zheng et al. | Denoising in the dark: Privacy-preserving deep neural network-based image denoising | |
JP7096610B2 (ja) | 処理装置、推論装置、学習装置、処理システム、処理方法、及び処理プログラム | |
WO2020207174A1 (zh) | 用于生成量化神经网络的方法和装置 | |
US20230153686A1 (en) | Methods and systems for training a machine learning model | |
Selvi et al. | Medical image encryption and compression by adaptive sigma filterized synorr certificateless signcryptive Levenshtein entropy-coding-based deep neural learning | |
WO2020071187A1 (ja) | 秘密シグモイド関数計算システム、秘密ロジスティック回帰計算システム、秘密シグモイド関数計算装置、秘密ロジスティック回帰計算装置、秘密シグモイド関数計算方法、秘密ロジスティック回帰計算方法、プログラム | |
WO2021037174A1 (zh) | 一种神经网络模型训练方法及装置 | |
TWI601063B (zh) | 使用亂數產生器的電腦系統與資料處理方法 | |
US20210266383A1 (en) | Conversion system, method and program | |
WO2023197989A1 (zh) | 图像的处理方法、系统和装置 | |
JP2015135380A (ja) | シェア変換システム、シェア変換方法、プログラム | |
US20230351179A1 (en) | Learning apparatus for use in hiding process using neural network, inference apparatus, inference system, control method for the learning apparatus, control method for the inference apparatus, and program | |
US11693989B2 (en) | Computer-implemented methods and nodes implementing performance estimation of algorithms during evaluation of data sets using multiparty computation based random forest |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6695595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |