JP6920263B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP6920263B2 JP6920263B2 JP2018179364A JP2018179364A JP6920263B2 JP 6920263 B2 JP6920263 B2 JP 6920263B2 JP 2018179364 A JP2018179364 A JP 2018179364A JP 2018179364 A JP2018179364 A JP 2018179364A JP 6920263 B2 JP6920263 B2 JP 6920263B2
- Authority
- JP
- Japan
- Prior art keywords
- weight
- layer
- watermark
- data
- embedding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
実施の形態に係る情報処理装置は、ニューラルネットワークのうち、特に畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)のモデルパラメータに透かし情報を埋め込むための装置である。そこで、実施の形態に係る情報処理装置の前提技術として、まず畳み込みニューラルネットワークについて簡単に説明する。
現在、様々な構成のニューラルネットワークが提案されているが、これらの基本構成は共通である。ニューラルネットワークの基本構成は、複数種類の層の重ね合わせ(又はグラフ構造)で表現される。ニューラルネットワークは、入力データに対する出力結果が適切な値になるようにモデルパラメータを学習する。言い換えると、ニューラルネットワークは、入力データに対する出力結果が適切な値になるように定義された損失関数を最小化するようにモデルパラメータを学習する。
入力データ :32×32×3個の要素
重みフィルタ:5×5×3個の要素 (モデルパラメータ)
特徴マップ :28×28個の要素
図3に示す例では、5×5×3個の要素からなる1個の重みフィルタを入力データにかけ、その各要素の積の和を特徴マップの1個の要素の値とする。そして、入力データに対して同じ重みフィルタを移動させることにより、1枚の特徴マップを生成する。ここで、重みフィルタを移動させる要素の数(移動量)を「ストライド(stride)」と称す。入力データの周囲の縁(ふち)には、要素0を埋めたゼロパディング(zero-padding)の領域を設ける。これによって、入力データの縁の要素にも、同数の重みフィルタをあてることができる。
以上を前提として、実施の形態の概要を述べる。
実施の形態に係る情報処理装置は、ニューラルネットワークを用いて目的タスクを達成するための学習モデルを生成すると同時に、その学習モデルに対して電子的な透かしを埋め込むための装置である。
以下、実施の形態に係る情報処理装置についてより詳細に説明する。
図6は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は、記憶部10と制御部20とを備える。図6において、矢印は主なデータの流れを示しており、図6に示していないデータの流れがあってもよい。図6において、各機能ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図6に示す機能ブロックは単一の装置内に実装されてもよく、あるいは複数の装置内に分かれて実装されてもよい。機能ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてもよい。
ここで、λi(i=1,2,・・・)は、各透かし埋込用損失関数の重み係数である。
図8は、実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
以上説明したように、実施の形態に係る情報処理装置1によれば、出所を特定することができる学習モデルを提供することができる。特に、実施の形態に係る情報処理装置1は、透かしラベルT2に透かしラベルT2を冗長化するための付加情報を埋め込むため、攻撃者による透かしラベルT2のスクランブル攻撃に対する耐性を高めることができる。
10・・・記憶部
20・・・制御部
21・・・訓練データ取得部
22・・・重み更新部
23・・・層選択部
24・・・重みベクトル生成部
25・・・埋込データ生成部
26・・・データセット生成部
27・・・ベクトル変換部
28・・・変動記録部
Claims (8)
- 目的タスク学習用の訓練データに基づいて、複数の層を備えるニューラルネットワークの各層の重みを更新する重み更新部と、
前記ニューラルネットワークを構成する層の中からM層(Mは2以上の整数)を選択する層選択部と、
選択された前記M層それぞれの重みのうち少なくとも一部の重みを成分とするベクトルであるM個の重みベクトルを生成する重みベクトル生成部と、
前記M個の重みベクトルそれぞれに埋め込むためのデータであって、透かしラベルに付加情報を付加したM個の埋込データを生成する埋込データ生成部と、
前記M個の重みベクトルを線型変換してM個の透かし埋込用ベクトルを生成するベクトル変換部と、
前記M個の透かし埋込用ベクトルそれぞれに、前記M個の埋込データのうち1つの埋め込みデータを対応付けてM組の透かし埋込用データセットを生成するデータセット生成部と、
を備え、
前記重み更新部は、前記目的タスク学習用に設定されたタスク学習用損失関数に、前記M組の透かし埋込用データセットそれぞれを用いて定められたM個の透かし埋込用損失関数を加算した統合損失関数に基づいて、前記重みを更新する、
情報処理装置。 - 前記重み更新部は、前記埋込用データセットに含まれる透かし埋込用ベクトルのもととなる重みベクトルの成分を取り出した層が前記ニューラルネットワークの入力層に近い場合は、前記入力層から遠い場合と比較して、前記埋込用データセットに対応する前記透かし埋込用損失関数に大きな係数を乗じてから加算することにより前記統合損失関数を構成する、
請求項1に記載の情報処理装置。 - 前記埋込データ生成部は、前記透かしラベルの誤りを訂正するための誤り訂正符号を前記付加情報として前記透かしラベルに付加する、
請求項1又は2に記載の情報処理装置。 - 前記埋込データ生成部は、前記重みベクトル生成部が選択した層が前記ニューラルネットワークの入力層に近い層である場合は、遠い層である場合と比較して前記透かしラベルに付加する付加情報のサイズを小さくする、
請求項1から3のいずれか一項に記載の情報処理装置。 - 前記埋込データ生成部は、所定の文字列を符号化したバイナリデータである透かしラベルに、前記付加情報を付加する、
請求項1から4のいずれか一項に記載の情報処理装置。 - 前記ベクトル変換部は、前記重みベクトルにアダマール行列を乗じて透かし埋込用ベクトルを生成する、
請求項1から5のいずれか一項に記載の情報処理装置。 - プロセッサが、
複数の層を備えるニューラルネットワークを構成する層の中からM層(Mは2以上の整数)を選択するステップと、
選択された前記M層それぞれの重みのうち少なくとも一部の重みを成分とするベクトルであるM個の重みベクトルを生成するステップと、
前記M個の重みベクトルそれぞれに埋め込むためのデータであって、透かしラベルに付加情報を付加したM個の埋込データを生成するステップと、
前記M個の重みベクトルを線型変換してM個の透かし埋込用ベクトルを生成するステップと、
前記M個の透かし埋込用ベクトルそれぞれに、前記M個の埋込データのうち1つの埋め込みデータを対応付けてM組の透かし埋込用データセットを生成するステップと、
目的タスク学習用に設定されたタスク学習用損失関数に、前記M組の透かし埋込用データセットそれぞれを用いて定められたM個の透かし埋込用損失関数を加算した統合損失関数に基づいて、前記ニューラルネットワークの各層の重みを更新するステップと、
を実行する、
情報処理方法。 - コンピュータに、
複数の層を備えるニューラルネットワークを構成する層の中からM層(Mは2以上の整数)を選択する機能と、
選択された前記M層それぞれの重みのうち少なくとも一部の重みを成分とするベクトルであるM個の重みベクトルを生成する機能と、
前記M個の重みベクトルそれぞれに埋め込むためのデータであって、透かしラベルに付加情報を付加したM個の埋込データを生成する機能と、
前記M個の重みベクトルを線型変換してM個の透かし埋込用ベクトルを生成する機能と、
前記M個の透かし埋込用ベクトルそれぞれに、前記M個の埋込データのうち1つの埋め込みデータを対応付けてM組の透かし埋込用データセットを生成する機能と、
目的タスク学習用に設定されたタスク学習用損失関数に、前記M組の透かし埋込用データセットそれぞれを用いて定められたM個の透かし埋込用損失関数を加算した統合損失関数に基づいて、前記ニューラルネットワークの各層の重みを更新する機能と、
を実現させる、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179364A JP6920263B2 (ja) | 2018-09-25 | 2018-09-25 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179364A JP6920263B2 (ja) | 2018-09-25 | 2018-09-25 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052569A JP2020052569A (ja) | 2020-04-02 |
JP6920263B2 true JP6920263B2 (ja) | 2021-08-18 |
Family
ID=69997142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179364A Active JP6920263B2 (ja) | 2018-09-25 | 2018-09-25 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6920263B2 (ja) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016043734A1 (en) * | 2014-09-17 | 2016-03-24 | Hewlett Packard Enterprise Development Lp | Neural network verification |
JP6727340B2 (ja) * | 2017-01-12 | 2020-07-22 | Kddi株式会社 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
-
2018
- 2018-09-25 JP JP2018179364A patent/JP6920263B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020052569A (ja) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6778670B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2018180263A1 (ja) | 情報処理装置、情報処理方法、及びコンピュータ可読記憶媒体 | |
JP6823523B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6741636B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11200497B1 (en) | System and method for knowledge-preserving neural network pruning | |
CN114207632A (zh) | 用于量子计算设备的流水线硬件解码器 | |
JP6908553B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101922964B1 (ko) | 이미지 왜곡 검출을 이용한 이미지 복원 장치 및 방법 | |
US20220301288A1 (en) | Control method and information processing apparatus | |
Huai et al. | Zerobn: Learning compact neural networks for latency-critical edge systems | |
CN116883545A (zh) | 基于扩散模型的图片数据集扩充方法、介质及设备 | |
US11095672B2 (en) | Method for evaluating domain name and server using the same | |
US20230040564A1 (en) | Learning Causal Relationships | |
KR20220097329A (ko) | 딥러닝 네트워크의 동적 양자화 정밀도 가변 알고리즘 및 방법 | |
JP6920263B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN117111854A (zh) | 一种基于分布式加密存储的数据存储方法、装置及介质 | |
JP6953376B2 (ja) | ニューラルネットワーク、情報付加装置、学習方法、情報付加方法、およびプログラム | |
US11961003B2 (en) | Training a student neural network to mimic a mentor neural network with inputs that maximize student-to-mentor disagreement | |
JP6926045B2 (ja) | ニューラルネットワーク、学習装置、学習方法、およびプログラム | |
CN114510592A (zh) | 图像分类方法、装置、电子设备及存储介质 | |
JP6832307B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20220172108A1 (en) | Iterative machine learning and relearning | |
JP7339219B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7405148B2 (ja) | 情報処理装置、学習方法、及び、プログラム | |
JP2013080094A (ja) | データ撹乱・再構築システム、データ再構築装置、データ再構築方法、データ再構築プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6920263 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |