JP7381942B2 - 制御方法、情報処理装置および制御プログラム - Google Patents
制御方法、情報処理装置および制御プログラム Download PDFInfo
- Publication number
- JP7381942B2 JP7381942B2 JP2021570588A JP2021570588A JP7381942B2 JP 7381942 B2 JP7381942 B2 JP 7381942B2 JP 2021570588 A JP2021570588 A JP 2021570588A JP 2021570588 A JP2021570588 A JP 2021570588A JP 7381942 B2 JP7381942 B2 JP 7381942B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- input
- model
- value
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 128
- 238000000034 method Methods 0.000 title claims description 83
- 238000013145 classification model Methods 0.000 claims description 154
- 238000011156 evaluation Methods 0.000 claims description 56
- 238000003860 storage Methods 0.000 claims description 37
- 238000006243 chemical reaction Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 24
- 239000000284 extract Substances 0.000 claims description 21
- 239000013598 vector Substances 0.000 description 290
- 238000012549 training Methods 0.000 description 81
- 238000010801 machine learning Methods 0.000 description 27
- 239000011159 matrix material Substances 0.000 description 26
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000004458 analytical method Methods 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 230000004069 differentiation Effects 0.000 description 3
- 238000010845 search algorithm Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- HEFNNWSXXWATRW-UHFFFAOYSA-N Ibuprofen Chemical compound CC(C)CC1=CC=C(C(C)C(O)=O)C=C1 HEFNNWSXXWATRW-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Probability & Statistics with Applications (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
[第1の実施の形態]
第1の実施の形態を説明する。
第1の実施の形態の情報処理装置10は、機械学習によって生成された学習済みモデルの攻撃耐性を評価する。学習済みモデルに対する攻撃には、モデルインバージョン攻撃が含まれる。モデルインバージョン攻撃は、学習済みモデルに様々な入力データを与えて、学習済みモデルの出力を監視することで、機械学習に使用された訓練データを推定するものである。訓練データの再現度は、モデルインバージョン攻撃を受ける学習済みモデルによって異なる。情報処理装置10は、モデルインバージョン攻撃を試行することで、訓練データの再現度を確認し、学習済みモデルの攻撃耐性を評価する。情報処理装置10は、クライアント装置でもよいしサーバ装置でもよい。情報処理装置10を、コンピュータ、制御装置、分析装置、評価装置、機械学習装置などと言うこともできる。
分類モデル13は、評価対象の学習済みモデルであり、画像データから確信度を算出する。画像データは、複数の画素値が格子状に並んだテンソル形式データであってもよい。確信度は、入力された画像データが特定のクラス(画像分類)に属する可能性を示す数値である。分類モデル13は、複数のクラスに対応する複数の確信度を算出してもよい。あるクラスの確信度は、入力された画像データが、複数のクラスのうち当該クラスに属する相対的な確からしさを示す確率であってもよい。複数のクラスの確信度の合計が1であってもよく、各クラスの確信度が0以上1以下の実数であってもよい。あるクラスの確信度が高いほど、入力された画像データが当該クラスに属する可能性が高い。
次に、第2の実施の形態を説明する。
第2の実施の形態の情報処理装置は、機械学習によって生成された分類モデルに対してモデルインバージョン攻撃を試行し、分類モデルの攻撃耐性を評価する。第2の実施の形態の情報処理装置は、クライアント装置でもよいしサーバ装置でもよい。
第2の実施の形態の情報処理装置100は、CPU101、RAM102、HDD103、画像インタフェース104、入力インタフェース105、媒体リーダ106および通信インタフェース107を有する。情報処理装置100が有するこれらのユニットは、バスに接続されている。情報処理装置100は、第1の実施の形態の情報処理装置10に対応する。CPU101は、第1の実施の形態の処理部12に対応する。RAM102またはHDD103は、第1の実施の形態の記憶部11に対応する。
図3は、分類モデルの入出力例を示す図である。
機械学習によって分類モデル141が生成される。分類モデル141は、画像142を受け付け、確信度データ143を出力する学習済みモデルである。分類モデル141は、画像142を何れかのクラスに分類するものであり、画像認識に用いられる。第2の実施の形態では主に、人物の顔写真から人物の名前を判定する顔認識を想定する。
変分オートエンコーダ151は、オートエンコーダの一種である。オートエンコーダは、入力データと出力データとが等しくなるように機械学習によって生成される多層ニューラルネットワークである。オートエンコーダは、入力データを、入力データよりも次元数の小さいベクトルに圧縮し、ベクトルから出力データを復元する。ただし、変分オートエンコーダ151は、ベクトルの集合が特定の確率分布に従うように生成される。変分オートエンコーダ151は、エンコーダ152およびデコーダ153を含む。
図5は、訓練データ推定の第1の例を示す図である。
第2の訓練データ推定方法では、情報処理装置100は、内側ループとして、第1の訓練データ推定方法と同様の処理を実行する。すなわち、情報処理装置100は、ベクトル集合161を生成し、デコーダ153を用いてベクトル集合161を画像集合162に変換し、分類モデル141を用いて画像集合162から確信度データ163を生成する。そして、情報処理装置100は、確信度が高くなるように画像集合162を更新する。
第3の訓練データ推定方法は、第1の訓練データ推定方法と同様にシングルループの探索を行う。ただし、探索中に更新される探索対象が、画像集合162の代わりにベクトル集合161となる。第3の訓練データ推定方法では画像集合162は、デコーダ153から分類モデル141に渡される中間データであり、それ以外の用途をもたない。よって、分類モデル141の前段にデコーダ153を結合したものを、仮想的に1つのモデルとみなすことができる。この仮想的なモデルは、潜在空間154のベクトルを入力として受け付け、入力されたベクトルに対応する確信度を出力するものである。
第4の訓練データ推定方法では、情報処理装置100は、内側ループとして、第3の訓練データ推定方法と同様の処理を実行する。すなわち、情報処理装置100は、ベクトル集合161を生成し、デコーダ153を用いてベクトル集合161を画像集合162に変換し、分類モデル141を用いて画像集合162から確信度データ163を生成する。そして、情報処理装置100は、確信度(または、確信度と正則化項の積)が高くなるように、ベクトル集合161を更新する。
図9は、確率分布のクリッピング例を示す図である。
ベクトルの確率密度は、ベクトルを確率変数とする確率分布171によって規定される。一般に、平均に近いベクトルほど確率密度が大きく、平均から遠いベクトルほど確率密度が小さい。平均から非常に遠いベクトルに対応する画像は、分類モデル141が想定する入力とはかけ離れた画像であることが多い。例えば、分類モデル141が顔認識を行う場合に、平均から非常に遠いベクトルに対応する画像は、人物の顔を表していないことが多い。また、分類モデル141が文字認識を行う場合に、平均から非常に遠いベクトルに対応する画像は、手書き文字を表していないことが多い。
図10は、情報処理装置の機能例を示すブロック図である。
情報処理装置100は、分類モデル記憶部121、画像記憶部122、VAE記憶部123および分析結果記憶部124を有する。これらの記憶部は、例えば、RAM102またはHDD103の記憶領域を用いて実現される。また、情報処理装置100は、VAE生成部131、訓練データ推定部132および分析結果表示部138を有する。これらの処理部は、例えば、CPU101が実行するプログラムを用いて実現される。
VAE記憶部123は、潜在空間154の確率分布に関する情報として、平均ベクトル125、分散共分散行列126および確率密度上限127を記憶する。
ベクトルテーブル128は、ベクトル選択部136によって保持される。ベクトルテーブル128は、ベクトルと確信度と確率密度と評価値とを対応付ける。ベクトルテーブル128に登録されるベクトルは、最新のベクトル集合161またはベクトル集合166に含まれるベクトルである。確信度は、分類モデル141によって算出される特定のクラスの確信度である。確率密度は、平均ベクトル125および分散共分散行列126によって特定される潜在空間154の確率分布における確率密度である。評価値は、確信度と正則化項の積である。正則化項は、例えば、確率密度を確率密度上限127でクリップしたものである。確率密度が確率密度上限127以下の場合、確率密度が正則化項になる。確率密度が確率密度上限127を超える場合、確率密度上限127が正則化項になる。
(S10)VAE生成部131は、分類モデル141の入力と同種の画像を収集する。画像の種類としては、顔写真や手書き文字などが挙げられる。VAE生成部131は、例えば、インターネットから画像を検索して収集するクローラプログラムを使用する。
(S17)デコード部134は、ステップS16で選択したベクトルを、ステップS11で生成されたデコーダ153に入力して画像に変換する。確信度算出部135は、変換された画像を分類モデル141に入力して、複数のクラスの確信度を算出する。
(S22)ベクトル選択部136は、ステップS16~S21のベクトル更新、すなわち、内側ループをL回繰り返したか判断する。例えば、L=4である。ベクトル更新の連続イテレーション回数がL回に達した場合はステップS23に進み、連続イテレーション回数がL回未満の場合はステップS16に戻る。ステップS16では、n個のベクトルを1つずつ選択することが再度実行されることになる。
(S26)ベクトル選択部136は、最新のn個のベクトルのうち評価値が低い半数のベクトル(下位n/2個のベクトル)を削除する。
なお、第3の訓練データ推定方法の場合、ステップS23~S27が省略される。ステップS22がYESのときは、ステップS28に進むことになる。
(S40)VAE生成部131は、分類モデル141の入力と同種の画像を収集する。
(S41)VAE生成部131は、ステップS10で収集した画像を用いて、機械学習により変分オートエンコーダ151を生成する。変分オートエンコーダ151は、エンコーダ152およびデコーダ153を含む。
(S44)ベクトル選択部136は、分類モデル141が確信度を出力する複数のクラスのうち、モデルインバージョン攻撃の対象とする対象クラスを選択する。
(S47)確信度算出部135は、n個の画像の中から画像を1つ選択する。
(S49)画像更新部137は、ステップS48で算出された複数のクラスの確信度のうち、ステップS44で選択された対象クラスの確信度を抽出する。画像更新部137は、画像を基準として確信度の勾配を算出する。勾配は、例えば、ステップS47で選択した画像の各画素値を微少量だけ変化させることで算出される。
(S52)ベクトル選択部136は、ステップS47~S51の画像更新、すなわち、内側ループをL回繰り返したか判断する。画像更新の連続イテレーション回数がL回に達した場合はステップS53に進み、連続イテレーション回数がL回未満の場合はステップS47に戻る。ステップS47では、n個の画像が再度1つずつ選択される。
(S55)ベクトル選択部136は、ステップS42の確率分布に基づいて、ステップS54で変換されたn個のベクトルそれぞれの確率密度を算出する。ベクトル選択部136は、算出した確率密度とステップS43で決定された確率密度上限127とを比較して、n個のベクトルそれぞれに対応する正則化項を決定する。正則化項は、確率密度が確率密度上限127以下の場合は確率密度であり、確率密度が確率密度上限127を超える場合は確率密度上限127である。
(S57)ベクトル選択部136は、ステップS56で算出された評価値に基づいて、n個のベクトルを評価値の降順にソートする。
(S59)ベクトル選択部136は、潜在空間154から、評価値が高い半数のベクトル(上位n/2個のベクトル)の近傍のn/2個の新たなベクトルを抽出する。上位n/2個のベクトルと追加したn/2個のベクトルとを合わせて、n個のベクトルとなる。
(S61)画像更新部137は、確信度または評価値が高い画像を推定画像として選択する。基準値として確信度を使用するか評価値を使用するかは、予め設定される。例えば、画像更新部137は、確信度または評価値が最大の画像を選択する。
なお、第1の訓練データ推定方法の場合、ステップS53~S60が省略される。ステップS52がYESのときは、ステップS61に進むことになる。
11 記憶部
12 処理部
13 分類モデル
14 変換モデル
15 確率分布
16,19 特徴値
17 画像データ
18 確信度
Claims (7)
- コンピュータが、
入力の画像データから、前記入力の画像データが特定のクラスに属する可能性を示す確信度を算出する分類モデルと、前記入力の画像データよりも次元数の小さい入力の特徴値を、前記入力の画像データに変換するモデルであって、画像データの集合に対応する特徴値の集合が特定の確率分布に従うように生成された変換モデルと、を取得し、
前記特定の確率分布に基づいて第1の特徴値を抽出し、
前記変換モデルを用いて前記第1の特徴値を第1の画像データに変換し、前記分類モデルを用いて前記第1の画像データに対応する第1の確信度を算出し、
前記特定の確率分布が示す前記第1の特徴値に対応する第1の確率密度を用いて重み係数を算出し、前記第1の確信度と前記重み係数との積を用いて、前記分類モデルによって算出される確信度が前記第1の確信度よりも高くなるように、前記変換モデルに入力する特徴値を前記第1の特徴値から第2の特徴値に更新する、
制御方法。 - 前記コンピュータが更に、
前記入力の画像データを前記入力の特徴値に変換するエンコーダと、前記入力の特徴値を前記入力の画像データに変換するデコーダと、を含む変分オートエンコーダを生成し、前記デコーダを前記変換モデルとして使用する、
請求項1記載の制御方法。 - 前記コンピュータが更に、
前記特定の確率分布が示す確率密度の最大値より小さい上限値を設定し、
前記第2の特徴値への更新では、前記第1の確率密度が前記上限値以下である場合、前記第1の確率密度を前記重み係数として使用し、前記第1の確率密度が前記上限値を超える場合、前記上限値を前記重み係数として使用する、
請求項1記載の制御方法。 - コンピュータが、
入力の画像データから、前記入力の画像データが特定のクラスに属する可能性を示す確信度を算出する分類モデルと、前記入力の画像データよりも次元数の小さい入力の特徴値を、前記入力の画像データに変換するモデルであって、画像データの集合に対応する特徴値の集合が特定の確率分布に従うように生成された変換モデルと、を取得し、
前記特定の確率分布に基づいて複数の第1の特徴値を抽出し、
前記変換モデルを用いて前記複数の第1の特徴値それぞれを第1の画像データに変換し、前記分類モデルを用いて前記第1の画像データに対応する第1の確信度を算出し、
前記特定の確率分布および前記複数の第1の特徴値に基づいて、前記分類モデルによって算出される確信度が前記第1の確信度よりもそれぞれ高くなるように、前記変換モデルに入力する特徴値を前記複数の第1の特徴値から複数の第2の特徴値に更新し、
前記複数の第2の特徴値それぞれから算出された第2の確信度に基づいて、前記複数の第2の特徴値それぞれの評価値を算出し、
前記評価値に基づいて、前記複数の第2の特徴値のうち少なくとも1つの第2の特徴値を選択し、前記少なくとも1つの第2の特徴値から所定範囲内にある他の第2の特徴値を抽出して、前記変換モデルに入力する特徴値として追加する、
制御方法。 - 入力の画像データから、前記入力の画像データが特定のクラスに属する可能性を示す確信度を算出する分類モデルと、前記入力の画像データよりも次元数の小さい入力の特徴値を、前記入力の画像データに変換するモデルであって、画像データの集合に対応する特徴値の集合が特定の確率分布に従うように生成された変換モデルと、を記憶する記憶部と、
前記特定の確率分布に基づいて第1の特徴値を抽出し、前記変換モデルを用いて前記第1の特徴値を第1の画像データに変換し、前記分類モデルを用いて前記第1の画像データに対応する第1の確信度を算出し、前記特定の確率分布が示す前記第1の特徴値に対応する第1の確率密度を用いて重み係数を算出し、前記第1の確信度と前記重み係数との積を用いて、前記分類モデルによって算出される確信度が前記第1の確信度よりも高くなるように、前記変換モデルに入力する特徴値を前記第1の特徴値から第2の特徴値に更新する処理部と、
を有する情報処理装置。 - コンピュータに、
入力の画像データから、前記入力の画像データが特定のクラスに属する可能性を示す確信度を算出する分類モデルと、前記入力の画像データよりも次元数の小さい入力の特徴値を、前記入力の画像データに変換するモデルであって、画像データの集合に対応する特徴値の集合が特定の確率分布に従うように生成された変換モデルと、を取得し、
前記特定の確率分布に基づいて第1の特徴値を抽出し、
前記変換モデルを用いて前記第1の特徴値を第1の画像データに変換し、前記分類モデルを用いて前記第1の画像データに対応する第1の確信度を算出し、
前記特定の確率分布が示す前記第1の特徴値に対応する第1の確率密度を用いて重み係数を算出し、前記第1の確信度と前記重み係数との積を用いて、前記分類モデルによって算出される確信度が前記第1の確信度よりも高くなるように、前記変換モデルに入力する特徴値を前記第1の特徴値から第2の特徴値に更新する、
処理を実行させる制御プログラム。 - コンピュータが、
複数の画像データの特徴に応じた複数の値を特定の分布で含んでおり、前記複数の値それぞれに含まれる変数が前記複数の画像データそれぞれに含まれる変数よりも少ない値集合から、前記分布に従って何れかの値を抽出し、
抽出した前記何れかの値を分類推定モデルへの入力値とした場合の前記分類推定モデルによる分類推定結果に含まれる分類の確信度のうち、特定の分類の確信度を取得し、
前記分布が示す前記何れかの値に対応する確率密度を用いて重み係数を算出し、取得した前記確信度と前記重み係数との積を用いて、前記分類推定モデルへの入力値とした場合に前記分類推定モデルによる分類推定結果に含まれる前記特定の分類の確信度が、取得した前記確信度よりも高くなる値を生成する、
制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/001409 WO2021144943A1 (ja) | 2020-01-17 | 2020-01-17 | 制御方法、情報処理装置および制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021144943A1 JPWO2021144943A1 (ja) | 2021-07-22 |
JP7381942B2 true JP7381942B2 (ja) | 2023-11-16 |
Family
ID=76864074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021570588A Active JP7381942B2 (ja) | 2020-01-17 | 2020-01-17 | 制御方法、情報処理装置および制御プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220301288A1 (ja) |
EP (1) | EP4092555A4 (ja) |
JP (1) | JP7381942B2 (ja) |
CN (1) | CN114868124A (ja) |
WO (1) | WO2021144943A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201718756D0 (en) * | 2017-11-13 | 2017-12-27 | Cambridge Bio-Augmentation Systems Ltd | Neural interface |
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
US20210279565A1 (en) * | 2020-03-04 | 2021-09-09 | WootCloud Inc. | Systems And Methods For Device Fingerprinting |
TWI785579B (zh) * | 2021-04-27 | 2022-12-01 | 和碩聯合科技股份有限公司 | 元件辨識模型之自動模型重建方法及系統 |
WO2023047562A1 (ja) * | 2021-09-27 | 2023-03-30 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106656981B (zh) | 2016-10-21 | 2020-04-28 | 东软集团股份有限公司 | 网络入侵检测方法和装置 |
-
2020
- 2020-01-17 WO PCT/JP2020/001409 patent/WO2021144943A1/ja unknown
- 2020-01-17 EP EP20913100.2A patent/EP4092555A4/en active Pending
- 2020-01-17 JP JP2021570588A patent/JP7381942B2/ja active Active
- 2020-01-17 CN CN202080087277.6A patent/CN114868124A/zh active Pending
-
2022
- 2022-06-01 US US17/830,171 patent/US20220301288A1/en active Pending
Non-Patent Citations (2)
Title |
---|
BASU, Samyadeep et al.,Membership Model Inversion Attacks for Deep Networks,v1,2019年10月09日,pp.1-7,[検索日 2020.02.07], インターネット:<URL:https://arxiv.org/pdf/1910.04257v1.pdf>,第2ページ第27行~第3ページ第4行 |
JALAL, Ajil et al.,The Robust Manifold Defense: Adversarial Training using Generative Models,v5,2019年07月10日,pp.1-19,[検索日 2020.02.07], インターネット:<URL:https://arxiv.org/pdf/1712.09196v5.pdf>,第4ページ第1行~第5ページ第17行 |
Also Published As
Publication number | Publication date |
---|---|
EP4092555A4 (en) | 2023-01-11 |
JPWO2021144943A1 (ja) | 2021-07-22 |
EP4092555A1 (en) | 2022-11-23 |
CN114868124A (zh) | 2022-08-05 |
WO2021144943A1 (ja) | 2021-07-22 |
US20220301288A1 (en) | 2022-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7381942B2 (ja) | 制御方法、情報処理装置および制御プログラム | |
Carlini et al. | Evading deepfake-image detectors with white-and black-box attacks | |
Gong et al. | Superpixel-based difference representation learning for change detection in multispectral remote sensing images | |
US9111375B2 (en) | Evaluation of three-dimensional scenes using two-dimensional representations | |
JP2008537198A (ja) | 人工知能を使用した外来のアプリケーションユーザインタフェースからの情報のインテリジェントインポート | |
JP2020087103A (ja) | 学習方法、コンピュータプログラム、分類器、及び生成器 | |
US11790492B1 (en) | Method of and system for customized image denoising with model interpretations | |
CN113919497A (zh) | 针对连续学习能力系统的基于特征操纵的攻击和防御方法 | |
Chakraborty | PRNU-based image manipulation localization with discriminative random fields | |
Sisaudia et al. | Copyright protection using KELM-PSO based multi-spectral image watermarking in DCT domain with local texture information based selection | |
Chen et al. | Image splicing localization using residual image and residual-based fully convolutional network | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
JP2010009517A (ja) | パターン検出器の学習装置、学習方法及びプログラム | |
Pang et al. | Salient object detection via effective background prior and novel graph | |
Yap et al. | A computational reinforced learning scheme to blind image deconvolution | |
VK et al. | Pixel prediction-based image steganography by support vector neural network | |
CN114124564A (zh) | 一种仿冒网站检测方法、装置、电子设备及存储介质 | |
WO2020075462A1 (ja) | 学習器推定装置、学習器推定方法、リスク評価装置、リスク評価方法、プログラム | |
CN113077525A (zh) | 一种基于频域对比学习的图像分类方法 | |
CN112131995A (zh) | 一种动作分类方法、装置、计算设备、以及存储介质 | |
Shrivastava et al. | Broad neural network for change detection in aerial images | |
Jeyaprakash et al. | Stego Detection: Image Steganalysis Using a Novel Hidden Stego Visual Geometry Group–Based CNN Classification | |
KR102615055B1 (ko) | 적대적 이미지 복원 시스템 및 적대적 이미지 복원 방법 | |
Manju et al. | Sparse decomposition technique for segmentation and compression of compound images | |
CN114723960B (zh) | 一种增强银行账号安全的附加验证方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231016 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7381942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |