JP2019053542A - Information processing apparatus, information processing method and program - Google Patents

Information processing apparatus, information processing method and program Download PDF

Info

Publication number
JP2019053542A
JP2019053542A JP2017177515A JP2017177515A JP2019053542A JP 2019053542 A JP2019053542 A JP 2019053542A JP 2017177515 A JP2017177515 A JP 2017177515A JP 2017177515 A JP2017177515 A JP 2017177515A JP 2019053542 A JP2019053542 A JP 2019053542A
Authority
JP
Japan
Prior art keywords
weight
vector
layer
information processing
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017177515A
Other languages
Japanese (ja)
Other versions
JP6741636B2 (en
Inventor
清本 晋作
Shinsaku Kiyomoto
晋作 清本
清良 披田野
Seira Hidano
清良 披田野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017177515A priority Critical patent/JP6741636B2/en
Publication of JP2019053542A publication Critical patent/JP2019053542A/en
Application granted granted Critical
Publication of JP6741636B2 publication Critical patent/JP6741636B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide a learning model that can identify a source.SOLUTION: In an information processing apparatus 1, a weight update unit 22 updates weight of each layer of a neural network comprising a plurality of layers on the basis of training data for learning an objective task. A weight vector generation unit 23 generates a weight vector which is a vector having at least a portion of weight of weight of a layer selected from among layers constituting the neural network as a component. An embedded data generation unit 24 generates embedded data that is data for embedding in a weight vector and that is obtained by adding addition information to a watermark label. A vector conversion unit 25 linearly converts the weight vector to generate an embedding vector. Here, the weight update unit 22 updates the weight on the basis of a loss function which is obtained by adding a second loss function defined using the embedding vector and the embedded data to a first loss function set for learning the objective task.SELECTED DRAWING: Figure 6

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

近年、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)の高速化、メモリの大容量化、及び機械学習技術が急速に進んできている。このため、数十万から百万といったオーダーの学習データを用いる機械学習が可能となり、精度の高い識別技術や分類技術が確立されつつある(非特許文献1参照)。   In recent years, the speed of CPU (Central Processing Unit) and GPU (Graphics Processing Unit), the capacity of memory, and machine learning technology have been rapidly advanced. For this reason, machine learning using learning data in the order of hundreds of thousands to millions is possible, and highly accurate identification techniques and classification techniques are being established (see Non-Patent Document 1).

Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, and Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proceedings of the 22nd ACM international conference on Multimedia (pp. 675-678). ACM.Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, and Trevor Darrell.Caffe: Convolutional architecture for fast feature embedding.In Proceedings of the 22nd ACM international conference on Multimedia (pp. 675-678 ACM.

大量の学習データに基づく機械学習を実行するためには大量の計算コストがかかる。また、大量の学習データを用意すること、及び用意した学習データを機械学習に用いるために加工する前処理にも膨大な労力を要する。一方で、機械学習によって生成された学習モデルはデジタルデータであり、その複製は容易である。さらに、一般に学習モデル生成に用いられた学習データを、学習モデル自体から推測することは難しい。   In order to execute machine learning based on a large amount of learning data, a large amount of calculation cost is required. In addition, enormous effort is required for preparing a large amount of learning data and preprocessing for processing the prepared learning data for use in machine learning. On the other hand, the learning model generated by machine learning is digital data, and its replication is easy. Furthermore, it is generally difficult to infer learning data used for generating a learning model from the learning model itself.

このため、学習モデルを生成した者は、その学習モデルが第三者によって不正に利用されたとしても、不正を立証することが難しい。収集した学習データと、学習データに基づいて生成された学習モデルとはそれぞれ労力をかけて取得した価値あるものであり、不正利用から学習モデルを守ることが望まれている。   For this reason, it is difficult for the person who generated the learning model to prove fraud even if the learning model is illegally used by a third party. The collected learning data and the learning model generated based on the learning data are valuable values acquired with effort, and it is desired to protect the learning model from unauthorized use.

本発明はこれらの点に鑑みてなされたものであり、出所を特定することができる学習モデルを提供することを目的とする。   The present invention has been made in view of these points, and an object thereof is to provide a learning model that can specify the source.

本発明の第1の態様は、情報処理装置である。この装置は、目的タスク学習用の訓練データに基づいて、複数の層を備えるニューラルネットワークの各層の重みを更新する重み更新部と、前記ニューラルネットワークを構成する層の中から選択した層の重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルを生成する重みベクトル生成部と、前記重みベクトルに埋め込むためのデータであって、透かしラベルに付加情報を付加した埋込データを生成する埋込データ生成部と、前記重みベクトルを線型変換して埋込用ベクトルを生成するベクトル変換部と、を備える。ここで前記重み更新部は、前記目的タスク学習用に設定された第1損失関数に、前記埋込用ベクトルと前記埋込データとを用いて定められた第2損失関数を加算した損失関数に基づいて、前記重みを更新する。   A first aspect of the present invention is an information processing apparatus. The apparatus includes a weight updating unit that updates weights of each layer of a neural network including a plurality of layers based on training data for learning target tasks, and weights of layers selected from the layers constituting the neural network. A weight vector generation unit that generates a weight vector that is a vector having at least a part of the weights as components, and data for embedding in the weight vector, and generating embedded data in which additional information is added to the watermark label An embedded data generation unit; and a vector conversion unit that linearly converts the weight vector to generate an embedding vector. Here, the weight updating unit adds a second loss function determined by using the embedding vector and the embedding data to a first loss function set for the target task learning to a loss function. Based on this, the weight is updated.

前記埋込データ生成部は、前記透かしラベルの誤りを訂正するための誤り訂正符号を前記付加情報として前記透かしラベルに付加してもよい。   The embedded data generation unit may add an error correction code for correcting an error in the watermark label as the additional information to the watermark label.

前記埋込データ生成部は、前記重みベクトル生成部が選択した層が前記ニューラルネットワークの入力層に近い層である場合は、遠い層である場合と比較して前記透かしラベルに付加する付加情報のサイズを小さくしてもよい。   When the layer selected by the weight vector generation unit is a layer close to the input layer of the neural network, the embedded data generation unit is configured to add additional information to be added to the watermark label as compared with a case where the layer is a distant layer. The size may be reduced.

前記情報処理装置は、前記目的タスク学習用の訓練データに基づいて、あらかじめ前記ニューラルネットワークの各層の重みを更新することによって前記各層の重みの変動を記録する変動記録部をさらに備えてもよく、前記重みベクトル生成部は、前記変動の小さい重みを、前記変動の大きい重みよりも優先して前記重みベクトルの成分として選択してもよい。   The information processing apparatus may further include a variation recording unit that records the variation of the weight of each layer by updating the weight of each layer of the neural network in advance based on the training data for learning the target task, The weight vector generation unit may select a weight having a small variation as a component of the weight vector in preference to a weight having a large variation.

前記埋込データ生成部は、所定の文字列を符号化したバイナリデータである透かしラベルに、前記付加情報を付加してもよい。   The embedded data generation unit may add the additional information to a watermark label that is binary data obtained by encoding a predetermined character string.

前記ベクトル変換部は、前記重みベクトルにアダマール行列を乗じて埋込用ベクトルを生成してもよい。   The vector conversion unit may generate an embedding vector by multiplying the weight vector by a Hadamard matrix.

本発明の第2の態様は、情報処理方法である。この方法において、プロセッサが、複数の層を備えるニューラルネットワークを構成する層の中から選択した層の重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルを生成するステップと、前記重みベクトルに埋め込むためのデータであって、透かしラベルに付加情報を付加した埋込データを生成するステップと、前記重みベクトルを線型変換して埋込用ベクトルを生成するステップと、目的タスク学習用の訓練データと、目的タスク学習用に設定された第1損失関数に前記埋込用ベクトルと前記埋込データとを用いて定められた第2損失関数を加算した損失関数と、に基づいて、前記ニューラルネットワークの各層の重みを更新するステップと、を実行する。   The second aspect of the present invention is an information processing method. In this method, the processor generates a weight vector that is a vector having at least some of the weights of the layers selected from the layers constituting the neural network having a plurality of layers as a component, and Data for embedding in a vector, the step of generating embedded data in which additional information is added to a watermark label, the step of linearly converting the weight vector to generate an embedding vector, and a task task learning Based on the training data and a loss function obtained by adding a second loss function determined using the embedding vector and the embedding data to the first loss function set for target task learning, Updating the weight of each layer of the neural network.

本発明の第3の態様は、プログラムである。このプログラムは、コンピュータに、複数の層を備えるニューラルネットワークを構成する層の中から選択した層の重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルを生成する機能と、前記重みベクトルに埋め込むためのデータであって、透かしラベルに付加情報を付加した埋込データを生成する機能と、前記重みベクトルを線型変換して埋込用ベクトルを生成する機能と、目的タスク学習用の訓練データと、目的タスク学習用に設定された第1損失関数に前記埋込用ベクトルと前記埋込データとを用いて定められた第2損失関数を加算した損失関数と、に基づいて、前記ニューラルネットワークの各層の重みを更新する機能と、を実現させる。   The third aspect of the present invention is a program. This program has a function of generating a weight vector, which is a vector having at least a part of the weights of layers selected from layers constituting a neural network having a plurality of layers as a component, and the weight Data for embedding in a vector, a function for generating embedded data with additional information added to a watermark label, a function for linearly converting the weight vector to generate an embedding vector, and a target task learning Based on the training data and a loss function obtained by adding a second loss function determined using the embedding vector and the embedding data to the first loss function set for target task learning, And a function of updating the weight of each layer of the neural network.

本発明によれば、出所を特定することができる学習モデルを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the learning model which can specify an origin can be provided.

畳み込みニューラルネットワークの一般的な機能構成を模式的に示す図である。It is a figure which shows typically the general functional structure of a convolution neural network. 入力データと特徴マップとの畳み込みの関係を説明するための図である。It is a figure for demonstrating the relationship of the convolution of input data and a feature map. 重みフィルタを用いた特徴マップの生成を説明するための図である。It is a figure for demonstrating the production | generation of the feature map using a weight filter. N個の重みフィルタとN段の特徴マップとの関係を説明するための図である。It is a figure for demonstrating the relationship between N weight filters and the feature map of N steps. 実施の形態に係る情報処理装置が実行する学習処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline | summary of the learning process which the information processing apparatus which concerns on embodiment performs. 実施の形態に係る情報処理装置の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the information processing apparatus which concerns on embodiment. 学習過程における重みの変動の一例を模式的に示す図である。It is a figure which shows typically an example of the fluctuation | variation of the weight in a learning process. 実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the information processing which the information processing apparatus which concerns on embodiment performs.

<畳み込みニューラルネットワーク>
実施の形態に係る情報処理装置は、ニューラルネットワークのうち、特に畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)のモデルパラメータに透かし情報を埋め込むための装置である。そこで、実施の形態に係る情報処理装置の前提技術として、まず畳み込みニューラルネットワークについて簡単に説明する。
<Convolution neural network>
The information processing apparatus according to the embodiment is an apparatus for embedding watermark information in a model parameter of a convolutional neural network (CNN) among neural networks. Therefore, first, a convolutional neural network will be briefly described as a prerequisite technology of the information processing apparatus according to the embodiment.

図1は、畳み込みニューラルネットワークの一般的な機能構成を模式的に示す図である。
現在、様々な構成のニューラルネットワークが提案されているが、これらの基本構成は共通である。ニューラルネットワークの基本構成は、複数種類の層の重ね合わせ(又はグラフ構造)で表現される。ニューラルネットワークは、入力データに対する出力結果が適切な値になるようにモデルパラメータを学習する。言い換えると、ニューラルネットワークは、入力データに対する出力結果が適切な値になるように定義された損失関数を最小化するようにモデルパラメータを学習する。
FIG. 1 is a diagram schematically showing a general functional configuration of a convolutional neural network.
Currently, various types of neural networks have been proposed, but these basic configurations are common. The basic configuration of the neural network is expressed by superposition (or graph structure) of a plurality of types of layers. The neural network learns model parameters so that the output result for the input data becomes an appropriate value. In other words, the neural network learns the model parameters so as to minimize the loss function defined so that the output result for the input data becomes an appropriate value.

図1において、順伝播型ニューラルネットワークとして、入力層(input layer)と、隠れ層(hidden layer)と、出力層(output layer)との3つの層から構成され、入力層から出力層へ向けて一方向に伝播する。隠れ層は、グラフ状に複数の層から構成することができる。各層は、複数のユニット(ニューロン)を持つ。各層において、前方層のユニットから後方層のユニットへつなぐ関数のパラメータを、「重み(weight)」と称す。本明細書における学習とは、この関数のパラメータとして、適切な「重み」を算出することである。   In FIG. 1, a forward-propagating neural network is composed of three layers, an input layer, a hidden layer, and an output layer, from the input layer to the output layer. Propagate in one direction. The hidden layer can be composed of a plurality of layers in a graph. Each layer has a plurality of units (neurons). In each layer, the parameter of the function connected from the unit in the front layer to the unit in the rear layer is referred to as “weight”. Learning in this specification means calculating an appropriate “weight” as a parameter of this function.

図1は、畳み込みニューラルネットワークを図示している。畳み込みニューラルネットワークは、入力層と、畳み込み層(convolutional layer)と、プーリング層(pooling layer)と、全結合層(full-connected layer)と、出力層とから構成される。畳み込みニューラルネットワークは、前方層における特定のユニットのみが、後方層のユニットへ結合されている。すなわち、畳み込みニューラルネットワークにおいては、前方層における全てのユニットが後方層のユニットへ結合されているものではない。なお、図1において、第1層L1が入力層であり、第2層L2は畳み込み層である。同様に、第m層Lmが出力層となっている。   FIG. 1 illustrates a convolutional neural network. The convolutional neural network includes an input layer, a convolutional layer, a pooling layer, a full-connected layer, and an output layer. In a convolutional neural network, only certain units in the front layer are coupled to units in the back layer. That is, in a convolutional neural network, not all units in the front layer are connected to units in the rear layer. In FIG. 1, the first layer L1 is an input layer, and the second layer L2 is a convolution layer. Similarly, the mth layer Lm is an output layer.

本実施の形態に係るニューラルネットワークにおける学習は、訓練データに対する出力層からの出力値と訓練データのラベルとの誤差を用いて、各層の重みを最適に更新することを意味する。その誤差を算出するために、「損失関数」(loss function)が定義される。誤差は、「誤差逆伝播法」によって出力層側から入力層側へ向けて次々に伝播し、各層の重みを少しずつ更新していく。最終的に、誤差が小さくなるように、各層の重みを適切な値に調整する収束計算を実行する。具体的には、ニューラルネットワークにおける学習(すなわち、新規のモデルパラメータの生成段階)で、誤差を逆伝播させた勾配によって、モデルパラメータを更新する。   Learning in the neural network according to the present embodiment means that the weight of each layer is optimally updated using an error between the output value from the output layer for the training data and the label of the training data. In order to calculate the error, a “loss function” is defined. The error propagates one after another from the output layer side to the input layer side by the “error back propagation method”, and the weight of each layer is updated little by little. Finally, a convergence calculation is performed to adjust the weight of each layer to an appropriate value so as to reduce the error. Specifically, the model parameter is updated by the gradient in which the error is propagated back in the learning in the neural network (that is, the generation stage of the new model parameter).

図2は、入力データと特徴マップとの畳み込みの関係を説明するための図である。図2における処理は、畳み込み層及び全結合層によって実行される。図2に示す例では、入力データに対して1個の重みフィルタをかけることにより、特徴マップを生成している。図2において、入力データ、重みフィルタ、及び特徴マップのサイズはそれぞれ以下のとおりである。
入力データ :32×32×3個の要素
重みフィルタ:5×5×3個の要素 (モデルパラメータ)
特徴マップ :28×28個の要素
FIG. 2 is a diagram for explaining a convolution relationship between input data and a feature map. The process in FIG. 2 is performed by a convolution layer and a fully connected layer. In the example shown in FIG. 2, the feature map is generated by applying one weight filter to the input data. In FIG. 2, the sizes of the input data, weight filter, and feature map are as follows.
Input data: 32 x 32 x 3 elements Weight filter: 5 x 5 x 3 elements (model parameters)
Feature map: 28 x 28 elements

重みフィルタはN個(Nは1以上の整数。)分用意され、これがモデルパラメータとなる。すなわち、「重み」とは、N個の重みフィルタを意味する。ただし、ここでは、バイアス項は考慮しないものとする。   N weight filters are prepared (N is an integer of 1 or more), and this is a model parameter. That is, “weight” means N weight filters. However, the bias term is not considered here.

図3は、重みフィルタを用いた特徴マップの生成を説明するための図である。
図3に示す例では、5×5×3個の要素からなる1個の重みフィルタを入力データにかけ、その各要素の積の和を特徴マップの1個の要素の値とする。そして、入力データに対して同じ重みフィルタを移動させることにより、1枚の特徴マップを生成する。ここで、重みフィルタを移動させる要素の数(移動量)を「ストライド(stride)」と称す。入力データの周囲の縁(ふち)には、要素0を埋めたゼロパディング(zero-padding)の領域を設ける。これによって、入力データの縁の要素にも、同数の重みフィルタをあてることができる。
FIG. 3 is a diagram for explaining generation of a feature map using a weight filter.
In the example shown in FIG. 3, one weight filter composed of 5 × 5 × 3 elements is applied to the input data, and the sum of the products of the elements is used as the value of one element of the feature map. Then, by moving the same weight filter with respect to the input data, one feature map is generated. Here, the number of elements (movement amount) for moving the weight filter is referred to as “stride”. A zero-padding region in which element 0 is filled is provided at the peripheral edge (edge) of the input data. As a result, the same number of weight filters can be applied to the edge elements of the input data.

図4は、N個の重みフィルタとN段の特徴マップとの関係を説明するための図である。図4に示す例では、重みフィルタの数はN個である。図2及び図3は、1個の重みフィルタによって生成された1枚の特徴マップが生成される場合の例が示されている。これに対し、図4に示す例は、N個の重みフィルタによってN段の特徴マップが生成される場合の例が示されている。ニューラルネットワークの学習では、ある層における特徴マップが、次の層における入力データとなる。ニューラルネットワークの学習を実行することにより、損失関数に基づく誤差が出力層側から入力層側へ向けて次々に伝播し、既知の誤差逆伝播法によって各層の重みが更新される。   FIG. 4 is a diagram for explaining the relationship between N weight filters and N-stage feature maps. In the example shown in FIG. 4, the number of weight filters is N. 2 and 3 show an example in which one feature map generated by one weight filter is generated. On the other hand, the example shown in FIG. 4 shows an example in which an N-stage feature map is generated by N weighting filters. In neural network learning, a feature map in one layer becomes input data in the next layer. By executing the learning of the neural network, errors based on the loss function propagate one after another from the output layer side to the input layer side, and the weight of each layer is updated by a known error back propagation method.

<実施の形態の概要>
以上を前提として、実施の形態の概要を述べる。
実施の形態に係る情報処理装置は、ニューラルネットワークを用いて目的タスクを達成するための学習モデルを生成すると同時に、その学習モデルに対して電子的な透かしを埋め込むための装置である。
<Outline of the embodiment>
Based on the above, an outline of the embodiment will be described.
An information processing apparatus according to an embodiment is an apparatus for generating a learning model for achieving a target task using a neural network and simultaneously embedding an electronic watermark in the learning model.

実施の形態に係る情報処理装置は、CPUやGPU等のプロセッサ、DRAM(Dynamic Random Access Memory)等の作業メモリ、及びHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置によって構成される。実施の形態に係る情報処理装置は、PC(Personal Computer)やワークステーション、サーバ等の単一の装置であってもよいし、クラウドサーバのように複数の装置から構成されてもよい。   The information processing apparatus according to the embodiment includes a processor such as a CPU or GPU, a working memory such as a DRAM (Dynamic Random Access Memory), and a mass storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). Composed. The information processing apparatus according to the embodiment may be a single apparatus such as a PC (Personal Computer), a workstation, or a server, or may be configured from a plurality of apparatuses such as a cloud server.

図5は、実施の形態に係る情報処理装置が実行する学習処理の概要を説明するための模式図である。実施の形態に係る情報処理装置は、従来のニューラルネットワークと同様に、目的タスク学習用データD及び目的タスク用ラベルT1を含む訓練データに基づいて、複数の層Lを備える第1ニューラルネットワークN1の各層Lの重みを更新する。例えば、「猫検出」、「山検出」、「自動車検出」のように複数の目的タスクが存在する場合、各目的タスク用の目的タスク学習用データDと、各目的タスク学習用データDそれぞれに異なる目的タスク用ラベルT1を割り当てたデータセットが、訓練データとなる。   FIG. 5 is a schematic diagram for explaining an outline of a learning process executed by the information processing apparatus according to the embodiment. As in the conventional neural network, the information processing apparatus according to the embodiment includes a first neural network N1 having a plurality of layers L based on training data including target task learning data D and target task label T1. The weight of each layer L is updated. For example, when there are a plurality of target tasks such as “cat detection”, “mountain detection”, and “car detection”, each of the target task learning data D for each target task and each target task learning data D A data set to which a different target task label T1 is assigned becomes training data.

また、実施の形態に係る情報処理装置は、第1ニューラルネットワークN1を構成する層Lの中から選択した1又はそれ以上の層Lから構成される第2ニューラルネットワークN2も備える。実施の形態に係る情報処理装置は、透かし検出用の透かしラベルT2に基づいて第2ニューラルネットワークN2における層Lの重みを更新する。   The information processing apparatus according to the embodiment also includes a second neural network N2 configured from one or more layers L selected from the layers L configuring the first neural network N1. The information processing apparatus according to the embodiment updates the weight of the layer L in the second neural network N2 based on the watermark label T2 for watermark detection.

なお、図5は、第1ニューラルネットワークN1における第2層L2が、第2ニューラルネットワークN2における重みの更新対象として選択された場合の例を示している。以下、本明細書において、第1ニューラルネットワークN1と第2ニューラルネットワークN2とを区別しない場合には、単にニューラルネットワークNと記載する。   FIG. 5 shows an example in which the second layer L2 in the first neural network N1 is selected as a weight update target in the second neural network N2. Hereinafter, in the present specification, when the first neural network N1 and the second neural network N2 are not distinguished, they are simply referred to as a neural network N.

詳細は後述するが、実施の形態に係る情報処理装置は、第1ニューラルネットワークN1から選択した層Lに基づいて重みベクトルWを生成する。実施の形態に係る情報処理装置は、生成した重みベクトルWを線形変換して得られたベクトルを、第2ニューラルネットワークN2の出力である第2出力O2とする。すなわち、実施の形態に係る情報処理装置において、重みベクトルWに行列を乗じることで得られる透かし用ベクトルが、第2ニューラルネットワークN2の出力である第2出力O2となる。なお、実施の形態に係る情報処理装置では、第2出力O2をシグモイド関数等による二値化処理によって二値化する。すなわち、第2出力O2はバイナリデータとなる。   Although details will be described later, the information processing apparatus according to the embodiment generates the weight vector W based on the layer L selected from the first neural network N1. The information processing apparatus according to the embodiment sets a vector obtained by linearly transforming the generated weight vector W as a second output O2 that is an output of the second neural network N2. That is, in the information processing apparatus according to the embodiment, the watermark vector obtained by multiplying the weight vector W by the matrix is the second output O2 that is the output of the second neural network N2. In the information processing apparatus according to the embodiment, the second output O2 is binarized by binarization processing using a sigmoid function or the like. That is, the second output O2 is binary data.

この意味で、本明細書において、重みベクトルWに行列を乗じることで得られる透かし用ベクトルを透かし用ベクトルO2と記載することもある。実施の形態に係る情報処理装置は、透かし用ベクトルO2と、透かしラベルT2との第2誤差E2に基づいて、重みベクトルWを更新する。   In this sense, in this specification, a watermark vector obtained by multiplying the weight vector W by a matrix may be referred to as a watermark vector O2. The information processing apparatus according to the embodiment updates the weight vector W based on the second error E2 between the watermark vector O2 and the watermark label T2.

実施の形態に係る情報処理装置は、透かしラベルT2に付加情報を付加することによって埋込データを生成する。実施の形態に係る情報処理装置は、重みベクトルWに行列を乗じることで得られる透かし用ベクトルO2が埋込データとなるように、重みベクトルWを更新する。   The information processing apparatus according to the embodiment generates embedded data by adding additional information to the watermark label T2. The information processing apparatus according to the embodiment updates the weight vector W so that the watermark vector O2 obtained by multiplying the weight vector W by the matrix becomes the embedded data.

ここで、実施の形態に係る情報処理装置が透かしラベルT2に付加する付加情報は、透かしラベルT2を冗長化するための情報である。具体例としては、実施の形態に係る情報処理装置が透かしラベルT2に付加する付加情報は、透かしラベルT2の誤りを訂正するための情報である誤り訂正符号である。   Here, the additional information added to the watermark label T2 by the information processing apparatus according to the embodiment is information for making the watermark label T2 redundant. As a specific example, the additional information added to the watermark label T2 by the information processing apparatus according to the embodiment is an error correction code that is information for correcting an error in the watermark label T2.

これにより、例えば攻撃者が実施の形態に係る情報処理装置が生成した学習モデルをファインチューニングすることによって透かしラベルT2のスクランブルを試みたとしても、情報処理装置は、付加情報を用いて透かしラベルT2を再現できる蓋然性を高めることができる。結果として、学習モデルの管理者は、出所が不明な学習モデルが、管理者自身が管理する学習モデルと同じ出所の学習モデルであるか否かを検証することができる。   Thus, even if the attacker attempts to scramble the watermark label T2 by fine tuning the learning model generated by the information processing apparatus according to the embodiment, the information processing apparatus uses the additional information to perform the watermark label T2 It is possible to increase the probability that can be reproduced. As a result, the administrator of the learning model can verify whether or not the learning model whose source is unknown is the same learning model as the learning model managed by the administrator.

なお、実施の形態に係る情報処理装置は、従来のニューラルネットワークと同様に、第1ニューラルネットワークN1の最終層である第m層Lmの出力である第1出力O1と、目的タスク用ラベルT1との誤差である第1誤差E1に基づいて、各層Lの重みを更新することを基本とする。しかしながら、実施の形態に係る情報処理装置は、第2ニューラルネットワークN2を構成する重みとして選択した第2層L2に関しては、第1誤差E1と第2誤差E2とに基づいて重みを更新する。これにより、実施の形態に係る情報処理装置は、目的タスクのための学習と透かし埋め込みのための学習とを同時に実現することができる。   The information processing apparatus according to the embodiment is similar to the conventional neural network in that the first output O1 that is the output of the mth layer Lm, which is the final layer of the first neural network N1, and the target task label T1. Basically, the weight of each layer L is updated on the basis of the first error E1 that is the error of. However, the information processing apparatus according to the embodiment updates the weight based on the first error E1 and the second error E2 for the second layer L2 selected as the weight configuring the second neural network N2. Thereby, the information processing apparatus according to the embodiment can simultaneously realize learning for the target task and learning for watermark embedding.

<実施の形態に係る情報処理装置の機能構成>
以下、実施の形態に係る情報処理装置についてより詳細に説明する。
図6は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は、記憶部10と制御部20とを備える。制御部20は、訓練データ取得部21、重み更新部22、重みベクトル生成部23、埋込データ生成部24、埋込データ生成部24、及び変動記録部26を備える。
<Functional Configuration of Information Processing Device According to Embodiment>
Hereinafter, the information processing apparatus according to the embodiment will be described in more detail.
FIG. 6 is a diagram schematically illustrating a functional configuration of the information processing apparatus 1 according to the embodiment. The information processing apparatus 1 includes a storage unit 10 and a control unit 20. The control unit 20 includes a training data acquisition unit 21, a weight update unit 22, a weight vector generation unit 23, an embedded data generation unit 24, an embedded data generation unit 24, and a variation recording unit 26.

記憶部10は、情報処理装置1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や情報処理装置1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDDやSSD等の大容量記憶装置である。   The storage unit 10 includes a ROM (Read Only Memory) that stores a BIOS (Basic Input Output System) of a computer that implements the information processing apparatus 1, a RAM (Random Access Memory) that is a work area of the information processing apparatus 1, an OS ( Operating system), application programs, and mass storage devices such as HDDs and SSDs that store various types of information that are referred to when the application programs are executed.

制御部20は、情報処理装置1のCPUやGPU等のプロセッサであり、記憶部10に記憶されたプログラムを実行することによって訓練データ取得部21、重み更新部22、重みベクトル生成部23、埋込データ生成部24、埋込データ生成部24、及び変動記録部26として機能する。   The control unit 20 is a processor such as a CPU or a GPU of the information processing apparatus 1 and executes a training data acquisition unit 21, a weight update unit 22, a weight vector generation unit 23, an embedded unit by executing a program stored in the storage unit 10. It functions as an embedded data generation unit 24, an embedded data generation unit 24, and a fluctuation recording unit 26.

訓練データ取得部21は、目的タスク学習用の訓練データと透かしラベルT2とを取得する。訓練データ取得部21が取得する訓練データには、目的タスク学習用データD及び目的タスク用ラベルT1が含まれる。重み更新部22は、訓練データ取得部21が取得した訓練データに基づいて、複数の層を備えるニューラルネットワークNの各層の重みを更新する。上述したように、ニューラルネットワークNは、目的タスク学習用のニュースである第1ニューラルネットワークN1と、透かしラベル埋め込み用のニューラルネットワークである第2ニューラルネットワークN2とを含んでいる。   The training data acquisition unit 21 acquires training data for target task learning and a watermark label T2. The training data acquired by the training data acquisition unit 21 includes target task learning data D and target task label T1. The weight update unit 22 updates the weight of each layer of the neural network N having a plurality of layers based on the training data acquired by the training data acquisition unit 21. As described above, the neural network N includes the first neural network N1 that is the news for learning the target task, and the second neural network N2 that is the neural network for embedding the watermark label.

重みベクトル生成部23は、第1ニューラルネットワークN1を構成する層の中から選択した層の重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルWを生成する。ベクトル変換部25は、重みベクトル生成部23が生成した重みベクトルWに行列を乗じて透かし用ベクトルに変換する。重みベクトル生成部23が用いる行列は、例えば、行及び列の長さが重みベクトルWの長さと等しい正則行列であればよく、一例としてはアダマール行列である。   The weight vector generation unit 23 generates a weight vector W that is a vector having at least a part of the weights of the layers selected from the layers constituting the first neural network N1 as components. The vector conversion unit 25 multiplies the weight vector W generated by the weight vector generation unit 23 by a matrix and converts it into a watermark vector. The matrix used by the weight vector generation unit 23 may be a regular matrix whose row and column lengths are equal to the length of the weight vector W, for example, a Hadamard matrix.

アダマール行列の各行は互いに直交している。このため、重みベクトル生成部23が透かし用ベクトルの生成にアダマール行列を用いると、例えば異なる透かしラベルを同一の透かしラベルT2に埋め込んでも、透かしラベル同士が埋め込みの際に互いに影響を及ぼすことを抑制できる。   Each row of the Hadamard matrix is orthogonal to each other. For this reason, if the weight vector generation unit 23 uses a Hadamard matrix to generate a watermark vector, even if different watermark labels are embedded in the same watermark label T2, for example, the watermark labels are prevented from affecting each other when embedded. it can.

埋込データ生成部24は重みベクトルWに埋め込むためのデータであって、透かしラベルT2に付加情報を付加した埋込データを生成する。重み更新部22は、目的タスク学習用に設定された第1損失関数に、透かし用ベクトルO2と透かしラベルT2とを用いて定められた第2損失関数を加算した損失関数に基づいて、ニューラルネットワークNの重みを更新する。重みベクトル生成部23は、例えば既知のクロスエントロピーを用いて第2損失関数を構成すればよい。   The embedded data generation unit 24 generates data to be embedded in the weight vector W, and includes embedded data in which additional information is added to the watermark label T2. Based on a loss function obtained by adding a second loss function determined by using the watermark vector O2 and the watermark label T2 to the first loss function set for target task learning, the weight update unit 22 Update the weight of N. The weight vector generation unit 23 may configure the second loss function using, for example, a known cross entropy.

ここで、埋込データ生成部24が重みベクトルWに乗じる行列は、情報処理装置1が生成する学習モデルの出所を特定するために利用する秘密鍵としての役割を果たす行列である。このため、情報処理装置1が学習する際に用いた行列は、学習モデルの管理者等の一部の者のみが管理し第三者には秘匿される。また、情報処理装置1を構成する重みのうち、重みベクトル生成部23がどの重みを用いて重みベクトルWを構成したかも秘匿される。   Here, the matrix by which the embedded data generation unit 24 multiplies the weight vector W is a matrix that serves as a secret key used to specify the origin of the learning model generated by the information processing apparatus 1. For this reason, the matrix used when the information processing apparatus 1 learns is managed only by some persons such as the administrator of the learning model and is kept secret from a third party. Moreover, it is also kept secret which weight vector generation part 23 used to comprise the weight vector W among the weights which comprise the information processing apparatus 1. FIG.

したがって、透かしラベルT2の改変ないし除去を試みる攻撃者は、まず、情報処理装置1を構成する重みのうちどの重みを用いて重みベクトルWが構成されているかを見極める必要がある。また、仮に、攻撃者が透かし用ベクトルO2を見出したとしても、学習に用いた行列又はその逆両列を知らなければ、透かし用ベクトルO2から透かしラベルT2を算出することは難しい。   Therefore, an attacker who attempts to modify or remove the watermark label T2 needs to first determine which weight among the weights constituting the information processing apparatus 1 is used to configure the weight vector W. Also, even if the attacker finds the watermark vector O2, it is difficult to calculate the watermark label T2 from the watermark vector O2 if the attacker does not know the matrix used for learning or the opposite both columns.

このように、情報処理装置1が生成した学習モデルは出所を特定することができる。また、透かしラベルT2には透かしラベルT2の冗長性を高めるための付加情報が付加されているため出所を示す情報の堅牢性を担保することができる。   Thus, the learning model generated by the information processing apparatus 1 can specify the source. Moreover, since additional information for increasing the redundancy of the watermark label T2 is added to the watermark label T2, the robustness of the information indicating the origin can be ensured.

上述したように、埋込データ生成部24が透かしラベルT2に付加する付加情報は、透かしラベルT2を冗長化するための情報である。具体的には、埋込データ生成部24は、透かしラベルT2の誤りを訂正するための誤り訂正符号を付加情報として透かしラベルT2に付加する。埋込データ生成部24はまた、透かしラベルT2の誤りを訂正するための誤り訂正符号に替えて、あるいはこれに加えて、誤り検出符号を付加情報として透かしラベルT2に付加してもよい。   As described above, the additional information added by the embedded data generation unit 24 to the watermark label T2 is information for making the watermark label T2 redundant. Specifically, the embedded data generation unit 24 adds an error correction code for correcting an error in the watermark label T2 to the watermark label T2 as additional information. The embedded data generation unit 24 may add an error detection code as additional information to the watermark label T2 instead of or in addition to the error correction code for correcting the error of the watermark label T2.

埋込データ生成部24は、誤り訂正符号としてはハミング符号やリードソロモン符号を用いることができる。また、埋込データ生成部24は、誤り検出符号としてはCRC(Cyclic Redundancy Check)等のチェックサムや、その他既知のハッシュ関数を用いることができる。   The embedded data generation unit 24 can use a Hamming code or a Reed-Solomon code as an error correction code. Further, the embedded data generation unit 24 can use a checksum such as CRC (Cyclic Redundancy Check) or other known hash functions as the error detection code.

このように、埋込データ生成部24が透かしラベルT2に付加情報を付加することにより、透かしラベルT2に対する攻撃者からの攻撃耐性を高めることができ、結果として情報処理装置1が生成する学習モデルの出所を示す情報の堅牢性を高めることができる。   As described above, the embedded data generation unit 24 adds the additional information to the watermark label T2, so that the attack resistance from the attacker against the watermark label T2 can be increased. As a result, the learning model generated by the information processing apparatus 1 The robustness of the information indicating the origin of the information can be improved.

以上、情報処理装置1が、第1ニューラルネットワークN1を構成する層Lの重みの一部を用いて作成した重みベクトルWに透かしラベルT2を埋め込むことにより、学習モデルに出所を特定可能な情報を埋め込むことについて説明した。次に、学習モデルに埋め込まれた透かしラベルT2について、第三者からの改変ないし除去の攻撃に対する耐性を高めるための重みの選択について説明する。   As described above, the information processing apparatus 1 embeds the watermark label T2 in the weight vector W created by using a part of the weight of the layer L that constitutes the first neural network N1, so that the information that can identify the source in the learning model is obtained. Explained about embedding. Next, with regard to the watermark label T2 embedded in the learning model, selection of weights for enhancing resistance to a modification or removal attack from a third party will be described.

実施の形態に係る情報処理装置1が利用する畳み込みニューラルネットワークの層の数は、数10層から100層のオーダーである。一般に、このような多層のニューラルネットワークにおいては、入力層に近い層は、出力層に近い層と比較して、攻撃者による改変のリスクが低いと考えられる。既成の学習モデルの改良ないし改変を目的として行われるファインチューニングは、一般に出力層に近い層について行われる。再学習を開始する層を入力層に近い層とするほど、それは学習をはじめからやり直すことに近づいてしまうからである。   The number of layers of the convolutional neural network used by the information processing apparatus 1 according to the embodiment is on the order of several tens to 100 layers. In general, in such a multilayer neural network, a layer close to the input layer is considered to have a lower risk of modification by an attacker than a layer close to the output layer. Fine tuning performed for the purpose of improving or modifying an existing learning model is generally performed for a layer close to the output layer. This is because the closer to the input layer the layer that starts re-learning is, the closer it is to start learning again.

そこで、埋込データ生成部24は、重みベクトル生成部23が選択した重みベクトルWがニューラルネットワークNの入力層に近い層である場合は、遠い層である場合と比較して透かしラベルT2に付加する付加情報のサイズを小さくする。これによって、攻撃に対する透かしラベルT2の堅牢性は低下する可能性があるが、重みベクトルWがニューラルネットワークNの入力層に近い層の重みから構成されていることによって、堅牢性は高まる。また、透かしラベルT2に付加する付加情報のサイズを小さいほど、一般に学習の収束は早まる。これにより、学習に係る時間と、透かしラベルT2の堅牢性とのバランスを取ることができる。   Therefore, the embedded data generation unit 24 adds the weight vector W selected by the weight vector generation unit 23 to the watermark label T2 when the layer is close to the input layer of the neural network N as compared with the case where it is a far layer. Reduce the size of additional information. This may reduce the robustness of the watermark label T2 against attack, but the robustness is enhanced by the fact that the weight vector W is composed of layer weights close to the input layer of the neural network N. In general, the smaller the size of the additional information added to the watermark label T2, the faster the learning converges. Thereby, it is possible to balance the learning time and the robustness of the watermark label T2.

実施の形態に係る情報処理装置1が利用する畳み込みニューラルネットワークの層の数は、数10層から100層のオーダーである。一般に、このような多層のニューラルネットワークを構成する重みは冗長性があり、必ずしも全ての重みが均等に学習に寄与しているわけではない。学習における貢献度が大きい重みは、貢献度が小さい重みと比較して、学習過程における変動が大きいと考えられる。言い換えると、学習における貢献度が大きい重みは、貢献度が小さい重みよりも、活性化していると考えられる。   The number of layers of the convolutional neural network used by the information processing apparatus 1 according to the embodiment is on the order of several tens to 100 layers. In general, the weights constituting such a multilayer neural network are redundant, and not all weights contribute to learning equally. A weight having a large contribution in learning is considered to have a larger variation in the learning process than a weight having a small contribution. In other words, a weight having a large contribution in learning is considered to be activated more than a weight having a small contribution.

また、仮に学習に関する貢献度が同程度の重みであっても、その重みが担う情報の質によって、学習過程における変動のしかたが変化すると考えられる。例えば、目的タスクが猫画像検出である場合、情報処理装置1は、多数の猫画像を訓練データとしてニューラルネットワークNに学習させる。このとき、多数の猫画像に共通する成分(一般的には画像の低周波成分)を担う重みは、ひとたび学習が安定すると変動しにくくなると考えられる。これに対し、多くの猫のバリエーションを吸収するための重みは、猫間の違いに敏感に反応するため、ファインチューニングによって大きく変動すると考えられる。   Moreover, even if the degree of contribution related to learning is the same weight, it is considered that the manner of variation in the learning process changes depending on the quality of information carried by the weight. For example, when the target task is cat image detection, the information processing apparatus 1 causes the neural network N to learn a large number of cat images as training data. At this time, it is considered that the weight that bears a component common to many cat images (generally, the low-frequency component of the image) is less likely to change once learning is stabilized. On the other hand, since the weight for absorbing variations of many cats reacts sensitively to differences between cats, it is considered that the weight varies greatly by fine tuning.

ここで、透かしラベルT2を埋め込むための重みベクトルWを構成する重みを、学習過程における変動が少ない重みとすることにより、透かしラベルT2の攻撃者からの攻撃の耐性を高めることができる。なぜなら、攻撃者は学習モデルを再学習することによって透かしラベルT2のスクランブルを試みても、透かしラベルT2を埋め込んだ重みベクトルWを構成する重みは、学習過程における変動が小さいため、スクランブルの度合いも小さくなるからである。   Here, by setting the weight constituting the weight vector W for embedding the watermark label T2 to a weight with little fluctuation in the learning process, it is possible to increase the resistance to attacks from the attacker of the watermark label T2. This is because even if the attacker tries to scramble the watermark label T2 by re-learning the learning model, the weight constituting the weight vector W in which the watermark label T2 is embedded has little variation in the learning process, so the degree of scrambling is also low. This is because it becomes smaller.

そのため、情報処理装置1は、目的タスク学習用の訓練データに基づいてあらかじめニューラルネットワークNの各層の重みを更新することによって各層Lの重みの変動を記録する変動記録部26を備える。   Therefore, the information processing apparatus 1 includes a variation recording unit 26 that records the variation of the weight of each layer L by updating the weight of each layer of the neural network N in advance based on the training data for target task learning.

図7は、学習過程における重みの変動の一例を模式的に示す図であり、変動記録部26が記録した重みの変動の一例を示す図である。図7では、重みW1、重みW2、重みW3、及び重みW4の4つの重みの変動を図示している。図7において、横軸は学習の反復回数を示し、縦軸は重みの値を示している。   FIG. 7 is a diagram schematically illustrating an example of weight variation in the learning process, and illustrates an example of weight variation recorded by the variation recording unit 26. In FIG. 7, fluctuations of four weights of weight W1, weight W2, weight W3, and weight W4 are illustrated. In FIG. 7, the horizontal axis indicates the number of learning iterations, and the vertical axis indicates the weight value.

図7において、重みW1及び重みW4は、重みW2及び重みW3と比較して、学習過程における変動が大きい。また、重みW3は、重みW2よりも学習過程における変動が小さい。図7に示す例では、学習過程における重みの変動の大きさの順に並べると、W1≒W4>W2>W3となる。したがって、重みベクトルWを構成する重みとして採用する場合、攻撃耐性の高さの順序は、W3>W2>W1≒W4となる。   In FIG. 7, the weight W1 and the weight W4 have a larger variation in the learning process than the weight W2 and the weight W3. Further, the weight W3 has a smaller variation in the learning process than the weight W2. In the example illustrated in FIG. 7, W1≈W4> W2> W3 when arranged in the order of the magnitude of the weight variation in the learning process. Therefore, when the weight vector W is employed as the weight constituting the weight vector W, the order of high attack resistance is W3> W2> W1≈W4.

重みベクトル生成部23は、学習過程における変動の小さい重みを、変動の大きい重みよりも優先して重みベクトルWの成分として選択する。これにより、万が一攻撃者がファインチューニングによって透かしラベルT2のスクランブルを試みても、重みベクトルWは学習による変動が小さい重みが採用されているため、スクランブルの影響を抑えることができる。   The weight vector generation unit 23 selects a weight having a small variation in the learning process as a component of the weight vector W in preference to a weight having a large variation. As a result, even if an attacker tries to scramble the watermark label T2 by fine tuning, the weight vector W employs a weight with a small variation due to learning, so that the influence of the scramble can be suppressed.

以上、透かしラベルT2に付加情報を付加することにより、透かしラベルT2の攻撃耐性を高めることについて説明した。これに替えて、あるいはこれに加えて、透かしラベルT2自体に冗長性をもよい。   In the foregoing, the description has been given of increasing the attack resistance of the watermark label T2 by adding additional information to the watermark label T2. Instead of this, or in addition to this, the watermark label T2 itself may have redundancy.

上述したように、透かしラベルT2はバイナリデータである。ここで、情報処理装置1は、学習モデルの管理者を特定するための文字列(例えば管理者の名前や識別番号等)を符号化したバイナリデータを、透かしラベルT2として採用する。一般に、文字列自体が冗長性を持っている。例えば、未知の学習データから取り出した透かしラベルT2を文字列に戻したとき、それが「pineuppme」という文字列であったとする。この場合、透かしラベルT2が意味のある文字列であることを仮定すれば「pineapple」であった蓋然性が高い。このように、透かしラベルT2自体に冗長性を持たせることにより、透かしラベルT2の攻撃耐性をさらに高めることができる。   As described above, the watermark label T2 is binary data. Here, the information processing apparatus 1 employs, as the watermark label T2, binary data obtained by encoding a character string (for example, a manager's name or identification number) for identifying the manager of the learning model. In general, the string itself has redundancy. For example, when the watermark label T2 taken out from unknown learning data is returned to a character string, it is assumed that it is a character string “pinepuppm”. In this case, if it is assumed that the watermark label T2 is a meaningful character string, there is a high probability that it was “pineapple”. Thus, by providing redundancy to the watermark label T2 itself, the attack resistance of the watermark label T2 can be further enhanced.

<情報処理装置1が実行する情報処理の処理フロー>
図8は、実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
<Processing flow of information processing executed by information processing apparatus 1>
FIG. 8 is a flowchart for explaining the flow of information processing executed by the information processing apparatus 1 according to the embodiment. The process in this flowchart starts when the information processing apparatus 1 is activated, for example.

訓練データ取得部21は、目的タスク学習用データD及び目的タスク用ラベルT1を含む目的タスク学習用の訓練データと透かしラベルT2とを取得する(S2)。重みベクトル生成部23は、複数の層Lを備えるニューラルネットワークNを構成する層Lの中から選択した層Lの重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルWを生成する(S4)。   The training data acquisition unit 21 acquires training data for target task learning including the target task learning data D and the target task label T1 and the watermark label T2 (S2). The weight vector generation unit 23 generates a weight vector W that is a vector having at least a part of the weights of the layer L selected from the layers L constituting the neural network N including the plurality of layers L as a component. (S4).

埋込データ生成部24は、透かしラベルT2に付加情報を付加して埋込データを生成する(S6)。埋込データ生成部24は、重みベクトルWに行列を乗じることによって埋込用ベクトルを生成する(S8)。重み更新部22は、訓練データと、目的タスク学習用に設定された第1損失関数に透かし用ベクトルO2と透かしラベルT2とを用いて定められた第2損失関数を加算した損失関数と、に基づいて、ニューラルネットワークNの各層Lの重みを更新する(S10)。   The embedded data generation unit 24 adds the additional information to the watermark label T2 to generate embedded data (S6). The embedded data generating unit 24 generates an embedding vector by multiplying the weight vector W by a matrix (S8). The weight update unit 22 includes training data and a loss function obtained by adding a second loss function determined using the watermark vector O2 and the watermark label T2 to the first loss function set for target task learning. Based on this, the weight of each layer L of the neural network N is updated (S10).

<実施の形態に係る情報処理装置1が奏する効果>
以上説明したように、実施の形態に係る情報処理装置1によれば、出所を特定することができる学習モデルを提供することができる。特に、実施の形態に係る情報処理装置1は、透かしラベルT2に透かしラベルT2を冗長化するための付加情報を埋め込むため、攻撃者による透かしラベルT2のスクランブル攻撃に対する耐性を高めることができる。
<Effects of information processing apparatus 1 according to the embodiment>
As described above, according to the information processing apparatus 1 according to the embodiment, a learning model that can specify the source can be provided. In particular, since the information processing apparatus 1 according to the embodiment embeds additional information for making the watermark label T2 redundant in the watermark label T2, it is possible to increase resistance to a scramble attack of the watermark label T2 by an attacker.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。特に、装置の分散・統合の具体的な実施の形態は以上に図示するものに限られず、その全部又は一部について、種々の付加等に応じて、又は、機能負荷に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. In particular, the specific embodiments of the distribution / integration of the devices are not limited to those illustrated above, and all or a part thereof may be in arbitrary units according to various additions or according to functional loads. Can be configured to be functionally or physically distributed and integrated.

例えば、埋込データ生成部24は、透かし用ベクトルO2を構成する各ビットと、第1ニューラルネットワークN1を構成する層Lの重みとの相関を導出し、透かし用ベクトルO2のうち、層Lの重みとの相関の低いビットに、付加情報を埋め込んでもよい。これは、例えば、情報処理装置1はまず適当に生成した学習データを学習させ、学習モデルを生成する。情報処理装置1は、学習によって変化した透かしラベルT2における埋め込みビットを記録しておき、これを実現可能な範囲で十分な回数繰り返して相関を求めればよい。透かし用ベクトルO2のうち、層Lの重みとの相関の低いビットに、付加情報を埋め込むことにより、透かしラベルT2の攻撃耐性をより高めることができる。   For example, the embedded data generation unit 24 derives a correlation between each bit constituting the watermark vector O2 and the weight of the layer L constituting the first neural network N1, and among the watermark vector O2, the embedded data of the layer L is derived. Additional information may be embedded in bits having a low correlation with the weight. For example, the information processing apparatus 1 first learns appropriately generated learning data to generate a learning model. The information processing apparatus 1 may record the embedded bits in the watermark label T2 that has been changed by learning, and obtain the correlation by repeating the number of times sufficiently within a range where this can be realized. By embedding additional information in bits having a low correlation with the weight of the layer L in the watermark vector O2, the attack resistance of the watermark label T2 can be further increased.

1・・・情報処理装置
10・・・記憶部
20・・・制御部
21・・・訓練データ取得部
22・・・重み更新部
23・・・重みベクトル生成部
24・・・埋込データ生成部
25・・・ベクトル変換部
26・・・変動記録部

DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus 10 ... Memory | storage part 20 ... Control part 21 ... Training data acquisition part 22 ... Weight update part 23 ... Weight vector generation part 24 ... Embedded data generation Unit 25... Vector conversion unit 26.

Claims (8)

目的タスク学習用の訓練データに基づいて、複数の層を備えるニューラルネットワークの各層の重みを更新する重み更新部と、
前記ニューラルネットワークを構成する層の中から選択した層の重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルを生成する重みベクトル生成部と、
前記重みベクトルに埋め込むためのデータであって、透かしラベルに付加情報を付加した埋込データを生成する埋込データ生成部と、
前記重みベクトルを線型変換して埋込用ベクトルを生成するベクトル変換部と、を備え、
前記重み更新部は、前記目的タスク学習用に設定された第1損失関数に、前記埋込用ベクトルと前記埋込データとを用いて定められた第2損失関数を加算した損失関数に基づいて、前記重みを更新する、
情報処理装置。
A weight updating unit that updates the weight of each layer of the neural network including a plurality of layers based on the training data for learning the target task;
A weight vector generating unit that generates a weight vector that is a vector having at least some of the weights of the layers selected from the layers constituting the neural network as components, and
Embedded data generation unit for generating embedded data that is embedded in the weight vector and has additional information added to a watermark label;
A vector conversion unit that linearly converts the weight vector to generate an embedding vector, and
The weight update unit is based on a loss function obtained by adding a second loss function determined using the embedding vector and the embedding data to the first loss function set for the target task learning. Update the weight,
Information processing device.
前記埋込データ生成部は、前記透かしラベルの誤りを訂正するための誤り訂正符号を前記付加情報として前記透かしラベルに付加する、
請求項1に記載の情報処理装置。
The embedded data generation unit adds an error correction code for correcting an error of the watermark label as the additional information to the watermark label.
The information processing apparatus according to claim 1.
前記埋込データ生成部は、前記重みベクトル生成部が選択した層が前記ニューラルネットワークの入力層に近い層である場合は、遠い層である場合と比較して前記透かしラベルに付加する付加情報のサイズを小さくする、
請求項1又は2に記載の情報処理装置。
When the layer selected by the weight vector generation unit is a layer close to the input layer of the neural network, the embedded data generation unit is configured to add additional information to be added to the watermark label as compared with a case where the layer is a distant layer. Reduce the size,
The information processing apparatus according to claim 1 or 2.
前記目的タスク学習用の訓練データに基づいて、あらかじめ前記ニューラルネットワークの各層の重みを更新することによって前記各層の重みの変動を記録する変動記録部をさらに備え、
前記重みベクトル生成部は、前記変動の小さい重みを、前記変動の大きい重みよりも優先して前記重みベクトルの成分として選択する、
請求項1から3のいずれか一項に記載の情報処理装置。
Based on the training data for the target task learning, further comprising a fluctuation recording unit that records the fluctuation of the weight of each layer by updating the weight of each layer of the neural network in advance,
The weight vector generation unit selects a weight with a small variation as a component of the weight vector in preference to a weight with a large variation.
The information processing apparatus according to any one of claims 1 to 3.
前記埋込データ生成部は、所定の文字列を符号化したバイナリデータである透かしラベルに、前記付加情報を付加する、
請求項1から4のいずれか一項に記載の情報処理装置。
The embedded data generation unit adds the additional information to a watermark label that is binary data obtained by encoding a predetermined character string.
The information processing apparatus according to any one of claims 1 to 4.
前記ベクトル変換部は、前記重みベクトルにアダマール行列を乗じて埋込用ベクトルを生成する、
請求項1から5のいずれか一項に記載の情報処理装置。
The vector conversion unit multiplies the weight vector by a Hadamard matrix to generate an embedding vector.
The information processing apparatus according to any one of claims 1 to 5.
プロセッサが、
複数の層を備えるニューラルネットワークを構成する層の中から選択した層の重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルを生成するステップと、
前記重みベクトルに埋め込むためのデータであって、透かしラベルに付加情報を付加した埋込データを生成するステップと、
前記重みベクトルを線型変換して埋込用ベクトルを生成するステップと、
目的タスク学習用の訓練データと、目的タスク学習用に設定された第1損失関数に前記埋込用ベクトルと前記埋込データとを用いて定められた第2損失関数を加算した損失関数と、に基づいて、前記ニューラルネットワークの各層の重みを更新するステップと、
を実行する、
情報処理方法。
Processor
Generating a weight vector that is a vector having at least some of the weights of the layers selected from the layers constituting the neural network having a plurality of layers as components;
Generating embedded data in which additional information is added to a watermark label, which is data to be embedded in the weight vector;
Linearly transforming the weight vector to generate an embedding vector;
Training data for target task learning; a loss function obtained by adding a second loss function determined using the embedding vector and the embedding data to a first loss function set for target task learning; Updating the weight of each layer of the neural network based on
Run the
Information processing method.
コンピュータに、
複数の層を備えるニューラルネットワークを構成する層の中から選択した層の重みのうち少なくとも一部の重みを成分とするベクトルである重みベクトルを生成する機能と、
前記重みベクトルに埋め込むためのデータであって、透かしラベルに付加情報を付加した埋込データを生成する機能と、
前記重みベクトルを線型変換して埋込用ベクトルを生成する機能と、
目的タスク学習用の訓練データと、目的タスク学習用に設定された第1損失関数に前記埋込用ベクトルと前記埋込データとを用いて定められた第2損失関数を加算した損失関数と、に基づいて、前記ニューラルネットワークの各層の重みを更新する機能と、
を実現させる、
プログラム。

On the computer,
A function of generating a weight vector that is a vector having at least some of the weights of the layers selected from the layers constituting the neural network having a plurality of layers as components,
Data for embedding in the weight vector, and a function for generating embedded data in which additional information is added to a watermark label;
A function of linearly converting the weight vector to generate an embedding vector;
Training data for target task learning; a loss function obtained by adding a second loss function determined using the embedding vector and the embedding data to a first loss function set for target task learning; Based on the function of updating the weight of each layer of the neural network;
To realize,
program.

JP2017177515A 2017-09-15 2017-09-15 Information processing apparatus, information processing method, and program Active JP6741636B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017177515A JP6741636B2 (en) 2017-09-15 2017-09-15 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017177515A JP6741636B2 (en) 2017-09-15 2017-09-15 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2019053542A true JP2019053542A (en) 2019-04-04
JP6741636B2 JP6741636B2 (en) 2020-08-19

Family

ID=66015055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017177515A Active JP6741636B2 (en) 2017-09-15 2017-09-15 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6741636B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091656A (en) * 2018-12-05 2020-06-11 Kddi株式会社 Learning device, learning system, learning method, and learning program
CN111490872A (en) * 2020-03-19 2020-08-04 清华大学深圳国际研究生院 Method for embedding and extracting deep learning model watermark based on public and private key pair
JP2022034752A (en) * 2020-08-19 2022-03-04 Kddi株式会社 Information processing device, information processing method, and program
JPWO2023286650A1 (en) * 2021-07-15 2023-01-19
WO2024042583A1 (en) * 2022-08-22 2024-02-29 日本電信電話株式会社 Information processing device, ai model authentication system, ai model authentication method, and program
US12045340B2 (en) 2019-11-26 2024-07-23 Nec Corporation Method for updating a neural network, terminal apparatus, computation apparatus, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11317860A (en) * 1998-05-06 1999-11-16 Nec Corp Electronic watermark insertion device
JP2000316083A (en) * 1999-04-28 2000-11-14 Canon Inc Information processor, information processing system, information processing method and storage medium
JP2004507177A (en) * 2000-08-18 2004-03-04 ヒューレット・パッカード・カンパニー How to embed a digital watermark in digital image data
JP2006086901A (en) * 2004-09-16 2006-03-30 Sanyo Electric Co Ltd Electronic watermark embedding apparatus and method thereof, and electronic watermark extracting apparatus and method thereof
JP2007529167A (en) * 2004-01-13 2007-10-18 インターデイジタル テクノロジー コーポレーション Watermark / Signature for wireless communication
JP2009295114A (en) * 2008-06-09 2009-12-17 Canon Inc Retrieval system, information processing apparatus and its control method
US20170206449A1 (en) * 2014-09-17 2017-07-20 Hewlett Packard Enterprise Development Lp Neural network verification

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11317860A (en) * 1998-05-06 1999-11-16 Nec Corp Electronic watermark insertion device
JP2000316083A (en) * 1999-04-28 2000-11-14 Canon Inc Information processor, information processing system, information processing method and storage medium
JP2004507177A (en) * 2000-08-18 2004-03-04 ヒューレット・パッカード・カンパニー How to embed a digital watermark in digital image data
JP2007529167A (en) * 2004-01-13 2007-10-18 インターデイジタル テクノロジー コーポレーション Watermark / Signature for wireless communication
JP2006086901A (en) * 2004-09-16 2006-03-30 Sanyo Electric Co Ltd Electronic watermark embedding apparatus and method thereof, and electronic watermark extracting apparatus and method thereof
JP2009295114A (en) * 2008-06-09 2009-12-17 Canon Inc Retrieval system, information processing apparatus and its control method
US20170206449A1 (en) * 2014-09-17 2017-07-20 Hewlett Packard Enterprise Development Lp Neural network verification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUSUKE UCHIDA ET AL.: "Embedding Watermarks into Deep Neural Networks", ARXIV [ONLINE], JPN6020016227, 20 April 2017 (2017-04-20), ISSN: 0004264739 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091656A (en) * 2018-12-05 2020-06-11 Kddi株式会社 Learning device, learning system, learning method, and learning program
US12045340B2 (en) 2019-11-26 2024-07-23 Nec Corporation Method for updating a neural network, terminal apparatus, computation apparatus, and program
CN111490872A (en) * 2020-03-19 2020-08-04 清华大学深圳国际研究生院 Method for embedding and extracting deep learning model watermark based on public and private key pair
CN111490872B (en) * 2020-03-19 2022-09-16 清华大学深圳国际研究生院 Method for embedding and extracting deep learning model watermark based on public and private key pair
JP2022034752A (en) * 2020-08-19 2022-03-04 Kddi株式会社 Information processing device, information processing method, and program
JP7339219B2 (en) 2020-08-19 2023-09-05 Kddi株式会社 Information processing device, information processing method, and program
JPWO2023286650A1 (en) * 2021-07-15 2023-01-19
WO2024042583A1 (en) * 2022-08-22 2024-02-29 日本電信電話株式会社 Information processing device, ai model authentication system, ai model authentication method, and program

Also Published As

Publication number Publication date
JP6741636B2 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
JP6741636B2 (en) Information processing apparatus, information processing method, and program
JP6657137B2 (en) Information processing apparatus, information processing method, and program
JP6778670B2 (en) Information processing device, information processing method, and program
US11163860B2 (en) Protecting deep learning models using watermarking
US11704391B2 (en) Machine learning model with watermarked weights
US20220385306A1 (en) Geometry-based compression for quantum computing devices
US9201733B2 (en) Systems and methods for data repair
WO2018179765A1 (en) Information processing device, information processing method, and computer-readable storage medium
JP6908553B2 (en) Information processing equipment, information processing methods, and programs
EP4053718A1 (en) Watermark information embedding method and apparatus
JP6901423B2 (en) Information processing equipment, information processing terminals, and programs
CN104794223B (en) A kind of subtitle matching process and system based on image retrieval
CN112613001A (en) Method for realizing integrity authentication of convolutional neural network through reversible watermark
CN116883545A (en) Picture data set expansion method, medium and device based on diffusion model
JP6920263B2 (en) Information processing equipment, information processing methods, and programs
JP6892844B2 (en) Information processing device, information processing method, watermark detection device, watermark detection method, and program
US8843521B2 (en) Method for analyzing data utilizing weighted suffix tree
JP6953376B2 (en) Neural networks, information addition devices, learning methods, information addition methods, and programs
US20220172108A1 (en) Iterative machine learning and relearning
KR20230021358A (en) Method And Apparatus for Performing Non-Maximum Suppression
Coleman et al. A comparison of soft-fault error models in the parallel preconditioned flexible GMRES
CN114510592A (en) Image classification method and device, electronic equipment and storage medium
CN117725565B (en) Data tracing method, device, equipment and medium based on digital watermark
Feng et al. Variable Rate Syndrome-Trellis Codes for Steganography on Bursty Channels
JP2019168911A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200721

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R150 Certificate of patent or registration of utility model

Ref document number: 6741636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150