JPWO2018131405A1 - 情報処理装置、方法及びコンピュータ可読記憶媒体 - Google Patents
情報処理装置、方法及びコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JPWO2018131405A1 JPWO2018131405A1 JP2018561888A JP2018561888A JPWO2018131405A1 JP WO2018131405 A1 JPWO2018131405 A1 JP WO2018131405A1 JP 2018561888 A JP2018561888 A JP 2018561888A JP 2018561888 A JP2018561888 A JP 2018561888A JP WO2018131405 A1 JPWO2018131405 A1 JP WO2018131405A1
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- weight
- gradient
- input values
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 142
- 238000003672 processing method Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 34
- 230000004913 activation Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 8
- 239000010410 layer Substances 0.000 description 45
- 239000013598 vector Substances 0.000 description 10
- 238000009826 distribution Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 239000002356 single layer Substances 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000000225 synapse Anatomy 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/16—Program or content traceability, e.g. by watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2201/00—General purpose image data processing
- G06T2201/005—Image watermarking
- G06T2201/0065—Extraction of an embedded watermark; Reliable detection
Abstract
Description
入力データ :32×32×3個の要素
重みフィルタ:5×5×3個の要素(重み)
特徴マップ :28×28個の要素
Pwhc=Σn=1 NFnwhc/N
である。
第2のニューラルネットワークに基づく1層又は多層パーセプトロンは、最終出力のための活性化関数としてシグモイド関数(sigmoid function)を用いる。また、誤差は、損失関数としてのバイナリ交差エントロピー(binary cross-entropy)によって計算する。シグモイド関数とは、入力値zとして実数全体(−∞〜+∞)を値域とし、出力値yとして0〜1を値域とする。
y=1/(1+e-z)
バイナリ交差エントロピーとは、2つのパターンについて、一方の確率がpのとき、他方の確率は1−pとなる。即ち、特定の確率分布に従って生成されたものを直交化したものである。すなわち、第2のニューラルネットワークの損失関数は、
−{tblogOb+(1−tb)log(1−Ob)}
とすることができる。ここで、
Ob:bビット目の抽出透かしビット(bは1〜B)
tb:bビット目の透かしビット(bは1〜B)
第2のニューラルネットワークに基づく1層又は多層パーセプトロンは、入力となる平均重みの各重みから透かしビットと同じ個数の重みをそれぞれ、活性化関数の入力として用いて、最終出力を計算するものであってもよい。
第2のニューラルネットワークに基づく1層又は多層パーセプトロンは、入力となる平均重みの各重みから、透かし情報のビット数と同じ個数のペアを取り出し、各ペアの差分をそれぞれ、活性化関数の入力として用いて、最終出力を計算するものであってもよい。
第2のニューラルネットワークに基づく1層又は多層パーセプトロンのあらかじめ決定される固定的な重みは、特定の確率分布によって生成されたものであってもよい。特定の確率分布とは、一様分布又は正規分布である。また、多層パーセプトロンのあらかじめ決定される固定的な重みは、特定の確率分布に従って生成されたものを直交化したものであってもよい。
Claims (8)
- 第1のニューラルネットワークの重みに透かしビットを埋め込むための情報処理方法であって、
前記第1のニューラルネットワークの複数の重みから求めた複数の入力値を、第2のニューラルネットワークへ入力し、前記第2のニューラルネットワークの出力を得ることと、
前記第2のニューラルネットワークの出力と前記透かしビットとの誤差に基づき、前記複数の入力値それぞれの第2勾配を求めることと、
誤差逆伝播法に基づき求めた前記第1のニューラルネットワークの重みの第1勾配と、前記第2勾配とを加算した値に基づき、当該重みを更新することと、
を含む、情報処理方法。 - 前記第1のニューラルネットワークは、畳み込みに使用する複数の重みを有する重みフィルタをN個有し、
前記複数の入力値は、N個の重みフィルタの同じ位置の重みの平均値である、請求項1に記載の情報処理方法。 - 前記第1のニューラルネットワークの前記重みフィルタの第1位置の重みは、当該重みについての前記第1勾配と、前記複数の入力値のうち、前記N個の重みフィルタの前記第1位値の重みの平均値である第1入力値についての前記第2勾配とを加算した値に基づき更新される、請求項2に記載の情報処理方法。
- 前記第2のニューラルネットワークは、前記複数の入力値に所定の演算を行った結果を出力する、請求項1から3のいずれか1項に記載の情報処理方法。
- 前記第2のニューラルネットワークは、前記複数の入力値から前記透かしビットと同じ数の入力値を選択し、選択した入力値それぞれを活性化関数の入力として出力を計算する、請求項4に記載の情報処理方法。
- 前記第2のニューラルネットワークは、前記複数の入力値から前記透かしビットと同じ数の入力値の組を選択し、選択した各組の入力値の差分それぞれを活性化関数の入力とし出力を計算する、請求項4に記載の情報処理方法。
- 第1のニューラルネットワークと第2のニューラルネットワークとを使用して前記第1のニューラルネットワークの重みに透かしビットを埋め込むための情報処理装置であって、
前記第1のニューラルネットワークの複数の重みから複数の入力値を求める算出手段と、
前記複数の入力値を前記第2のニューラルネットワークへ入力し、前記第2のニューラルネットワークの出力を得る出力算出手段と、
前記第2のニューラルネットワークの出力と前記透かしビットとの誤差に基づき、前記複数の入力値それぞれの第2勾配を求める勾配算出手段と、
前記第1のニューラルネットワークの学習を行う学習手段と、
を備えており、
前記学習手段は、誤差逆伝播法に基づき求めた前記第1のニューラルネットワークの重みの第1勾配と、前記第2勾配とを加算した値に基づき、当該重みを更新する、情報処理装置。 - プログラムを格納したコンピュータ可読記憶媒体であって、
前記プログラムは、コンピュータの1つ以上のプロセッサで実行されると、前記コンピュータに、
第1のニューラルネットワークの複数の重みから求めた複数の入力値を、第2のニューラルネットワークへ入力し、前記第2のニューラルネットワークの出力を得ることと、
前記第2のニューラルネットワークの出力と前記透かしビットとの誤差に基づき、前記複数の入力値それぞれの第2勾配を求めることと、
誤差逆伝播法に基づき求めた前記第1のニューラルネットワークの重みの第1勾配と、前記第2勾配とを加算した値に基づき、当該重みを更新することと、
を実行させる、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003041 | 2017-01-12 | ||
JP2017003041 | 2017-01-12 | ||
PCT/JP2017/045656 WO2018131405A1 (ja) | 2017-01-12 | 2017-12-20 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018131405A1 true JPWO2018131405A1 (ja) | 2019-07-25 |
JP6727340B2 JP6727340B2 (ja) | 2020-07-22 |
Family
ID=62839839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018561888A Active JP6727340B2 (ja) | 2017-01-12 | 2017-12-20 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11521043B2 (ja) |
EP (1) | EP3570222B1 (ja) |
JP (1) | JP6727340B2 (ja) |
CN (1) | CN110168576B (ja) |
WO (1) | WO2018131405A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6727340B2 (ja) | 2017-01-12 | 2020-07-22 | Kddi株式会社 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
KR102107021B1 (ko) * | 2018-08-10 | 2020-05-07 | 주식회사 딥핑소스 | 데이터를 식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
JP6920263B2 (ja) * | 2018-09-25 | 2021-08-18 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6953376B2 (ja) * | 2018-09-27 | 2021-10-27 | Kddi株式会社 | ニューラルネットワーク、情報付加装置、学習方法、情報付加方法、およびプログラム |
JP6926045B2 (ja) * | 2018-09-27 | 2021-08-25 | Kddi株式会社 | ニューラルネットワーク、学習装置、学習方法、およびプログラム |
JP7028819B2 (ja) * | 2019-03-13 | 2022-03-02 | Kddi株式会社 | 付加情報埋込装置、付加情報検出装置、付加情報埋込方法、及びプログラム |
CN110349071B (zh) * | 2019-06-13 | 2022-11-08 | 西安理工大学 | 一种基于稠密网络对图像进行水印提取的方法 |
CN110569353B (zh) * | 2019-07-03 | 2023-04-07 | 重庆大学 | 一种基于注意力机制的Bi-LSTM的标签推荐方法 |
US11521121B2 (en) * | 2019-09-12 | 2022-12-06 | Adobe Inc. | Encoding machine-learning models and determining ownership of machine-learning models |
US11645116B2 (en) * | 2019-10-10 | 2023-05-09 | Baidu Usa Llc | Method and system for making an artificial intelligence inference using a watermark-enabled kernel for a data processing accelerator |
US11645586B2 (en) | 2019-10-10 | 2023-05-09 | Baidu Usa Llc | Watermark unit for a data processing accelerator |
US11709712B2 (en) * | 2019-10-10 | 2023-07-25 | Baidu Usa Llc | Method and system for artificial intelligence model training using a watermark-enabled kernel for a data processing accelerator |
US11740940B2 (en) * | 2019-10-10 | 2023-08-29 | Baidu Usa Llc | Method and system for making an artifical intelligence inference using a watermark-inherited kernel for a data processing accelerator |
US11443243B2 (en) | 2019-10-10 | 2022-09-13 | Baidu Usa Llc | Method and system for artificial intelligence model training using a watermark-enabled kernel for a data processing accelerator |
US11537689B2 (en) | 2019-10-10 | 2022-12-27 | Baidu Usa Llc | Method and system for signing an artificial intelligence watermark using a kernel |
US11775347B2 (en) * | 2019-10-10 | 2023-10-03 | Baidu Usa Llc | Method for implanting a watermark in a trained artificial intelligence model for a data processing accelerator |
CN112750064A (zh) * | 2019-10-29 | 2021-05-04 | 阿里巴巴集团控股有限公司 | 一种水印信息嵌入方法以及装置 |
KR20210076691A (ko) * | 2019-12-16 | 2021-06-24 | 삼성전자주식회사 | 프레임워크 간 뉴럴 네트워크의 학습을 검증하는 방법 및 장치 |
US11592828B2 (en) * | 2020-01-16 | 2023-02-28 | Nvidia Corporation | Using neural networks to perform fault detection in autonomous driving applications |
US11501136B2 (en) * | 2020-05-29 | 2022-11-15 | Paypal, Inc. | Watermark as honeypot for adversarial defense |
CN111800265B (zh) * | 2020-07-07 | 2021-06-25 | 上海大学 | 一种基于隐私保护的材料逆向设计方法及系统 |
CN113222800B (zh) * | 2021-04-12 | 2023-07-07 | 国网江苏省电力有限公司营销服务中心 | 一种基于深度学习的鲁棒图像水印嵌入与提取方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5966703A (ja) * | 1982-10-08 | 1984-04-16 | Fanuc Ltd | 数値制御装置の加工制御情報保護方式 |
JP2013025356A (ja) * | 2011-07-15 | 2013-02-04 | Hitachi Solutions Ltd | プログラムの流用検出方法 |
JP2014026389A (ja) * | 2012-07-25 | 2014-02-06 | Denso Corp | モデル比較装置、識別子生成装置、モデル作成装置、モデル比較ツール、識別子生成ツール、及び、モデル作成ツール |
WO2016043734A1 (en) * | 2014-09-17 | 2016-03-24 | Hewlett Packard Enterprise Development Lp | Neural network verification |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6042274B2 (ja) | 2013-06-28 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム |
US9594983B2 (en) * | 2013-08-02 | 2017-03-14 | Digimarc Corporation | Learning systems and methods |
JP6235938B2 (ja) | 2013-08-13 | 2017-11-22 | 日本電信電話株式会社 | 音響イベント識別モデル学習装置、音響イベント検出装置、音響イベント識別モデル学習方法、音響イベント検出方法及びプログラム |
JP6192010B2 (ja) | 2013-09-05 | 2017-09-06 | 国立大学法人 東京大学 | 重み設定装置および方法 |
CN104361548B (zh) * | 2014-10-28 | 2017-10-20 | 河南师范大学 | 基于bp神经网络数字图像压缩的图像水印嵌入与提取方法 |
US9633306B2 (en) * | 2015-05-07 | 2017-04-25 | Siemens Healthcare Gmbh | Method and system for approximating deep neural networks for anatomical object detection |
JP6504396B2 (ja) | 2015-06-12 | 2019-04-24 | 日立オートモティブシステムズ株式会社 | 油圧制御弁及び内燃機関のバルブタイミング制御装置 |
CN105389770B (zh) * | 2015-11-09 | 2018-10-26 | 河南师范大学 | 基于bp和rbf神经网络的图像水印嵌入、提取方法与装置 |
US10755172B2 (en) * | 2016-06-22 | 2020-08-25 | Massachusetts Institute Of Technology | Secure training of multi-party deep neural network |
JP6727340B2 (ja) | 2017-01-12 | 2020-07-22 | Kddi株式会社 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
-
2017
- 2017-12-20 JP JP2018561888A patent/JP6727340B2/ja active Active
- 2017-12-20 CN CN201780082089.2A patent/CN110168576B/zh active Active
- 2017-12-20 WO PCT/JP2017/045656 patent/WO2018131405A1/ja unknown
- 2017-12-20 EP EP17891383.6A patent/EP3570222B1/en active Active
-
2019
- 2019-05-29 US US16/424,840 patent/US11521043B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5966703A (ja) * | 1982-10-08 | 1984-04-16 | Fanuc Ltd | 数値制御装置の加工制御情報保護方式 |
JP2013025356A (ja) * | 2011-07-15 | 2013-02-04 | Hitachi Solutions Ltd | プログラムの流用検出方法 |
JP2014026389A (ja) * | 2012-07-25 | 2014-02-06 | Denso Corp | モデル比較装置、識別子生成装置、モデル作成装置、モデル比較ツール、識別子生成ツール、及び、モデル作成ツール |
WO2016043734A1 (en) * | 2014-09-17 | 2016-03-24 | Hewlett Packard Enterprise Development Lp | Neural network verification |
Also Published As
Publication number | Publication date |
---|---|
EP3570222A1 (en) | 2019-11-20 |
US20190294955A1 (en) | 2019-09-26 |
CN110168576A (zh) | 2019-08-23 |
WO2018131405A1 (ja) | 2018-07-19 |
EP3570222B1 (en) | 2023-02-08 |
EP3570222A4 (en) | 2020-02-05 |
US11521043B2 (en) | 2022-12-06 |
CN110168576B (zh) | 2023-06-02 |
JP6727340B2 (ja) | 2020-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6727340B2 (ja) | 情報処理装置、方法及びコンピュータ可読記憶媒体 | |
JP6708755B2 (ja) | 情報処理方法、情報処理装置及びコンピュータ可読記憶媒体 | |
CA2941352C (en) | Neural network and method of neural network training | |
KR102492318B1 (ko) | 모델 학습 방법 및 장치, 및 데이터 인식 방법 | |
CN109754078A (zh) | 用于优化神经网络的方法 | |
CN116635866A (zh) | 用于挖掘少数类数据样本以训练神经网络的方法和系统 | |
WO2018180263A1 (ja) | 情報処理装置、情報処理方法、及びコンピュータ可読記憶媒体 | |
KR20200048032A (ko) | 이미지 생성 장치 및 방법과 생성 모델을 트레이닝시키는 장치 및 방법 | |
CN110110372B (zh) | 一种用户时序行为自动切分预测方法 | |
CN112580728B (zh) | 一种基于强化学习的动态链路预测模型鲁棒性增强方法 | |
JP6908553B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN111222583B (zh) | 一种基于对抗训练与关键路径提取的图像隐写分析方法 | |
EP3832542A1 (en) | Device and method with sensor-specific image recognition | |
CN112529057A (zh) | 一种基于图卷积网络的图相似性计算方法及装置 | |
CN116935128A (zh) | 一种基于可学习提示的零样本异常图像检测方法 | |
Barman et al. | To predict possible profit/loss of a movie to be launched using MLP with back-propagation learning | |
KR102090109B1 (ko) | 학습 및 추론 장치 및 그 방법 | |
KR102116054B1 (ko) | 심층 신경망 기반의 음성인식 시스템 | |
CN113034472B (zh) | 一种基于梯度网络架构搜索的空域隐写分析方法及系统 | |
Wang et al. | Constructing immune cover for secure steganography based on an artificial immune system approach | |
Gurunath et al. | Insights into Artificial Neural Network techniques, and its Application in Steganography | |
Avalos et al. | Convolutional neural networks architecture: A tutorial | |
Olanrewaju et al. | Watermarking in safe region of frequency domain using complex-valued neural network | |
Fakhari et al. | An image restoration architecture using abstract features and generative models | |
Singhal | Comparative Analysis of Passive Image Forgery Detection between CNN and CNN-LSTM Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6727340 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |