JP7264410B2 - 「敵対的サンプル」に対するロバスト性を改善する装置及び方法 - Google Patents
「敵対的サンプル」に対するロバスト性を改善する装置及び方法 Download PDFInfo
- Publication number
- JP7264410B2 JP7264410B2 JP2021535830A JP2021535830A JP7264410B2 JP 7264410 B2 JP7264410 B2 JP 7264410B2 JP 2021535830 A JP2021535830 A JP 2021535830A JP 2021535830 A JP2021535830 A JP 2021535830A JP 7264410 B2 JP7264410 B2 JP 7264410B2
- Authority
- JP
- Japan
- Prior art keywords
- input signal
- classifier
- signal
- org
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 73
- 238000012549 training Methods 0.000 claims description 31
- 238000009826 distribution Methods 0.000 claims description 10
- 238000004519 manufacturing process Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000009977 dual effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005406 washing Methods 0.000 description 4
- 241000196324 Embryophyta Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 206010020400 Hostility Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000009187 flying Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000010413 gardening Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001429 stepping effect Effects 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Feedback Control In General (AREA)
Description
米国特許第10007866号明細書には、以下のことを含む方法、即ち、
複数のクラスについてラベル付けされた、入力空間からの複数のトレーニング画像を用いてトレーニング済みのニューラルネットワーク画像分類器に、メモリからアクセスし、
敵対的画像ごとに、トレーニング画像のうちの1つの周囲の入力空間において、ニューラルネットワークが線形である領域をサーチして、ニューラルネットワークにより複数のクラスに誤分類された1つの画像を見出すことによって、複数の敵対的画像を計算し、
トレーニング画像をニューラルネットワークに適用して、ニューラルネットワークの反応を観察し、
観察された反応を用いて、入力空間を表現する制約システムを計算し、
少なくともこれらの敵対的画像を用いて精度が改善されるように、ニューラルネットワーク画像分類器をさらにトレーニングする、
ことを含む方法が開示されている。
例えばニューラルネットワーク分類システムのような分類器は、容易に欺くことができる。また、ディープラーニングに基づくものとすることができる分類器は、微小摂動の影響を受けやすいものとなり得る、ということはよく知られている。このようなシステムを物理的世界に配備するために重要であることは、システムのロバスト性に関する証明を提供することである。
従って、第1の態様によれば、本発明は、分類器への入力信号(x)を分類する前記分類器に対する敵対的入力信号(xadv)を取得するためのコンピュータ実装方法に関し、前記入力信号(x)は、センサから取得されたものとすることができ、前記敵対的入力信号(xadv)は、前記センサから取得されたものとすることができる原入力信号(xorg)から取得され、前記敵対的入力信号(xadv)及び前記原入力信号(xorg)は、前記分類器に指示して、前記原入力信号(xorg)を第1のクラス(l0)に属するものとして分類させ、前記敵対的入力信号(xadv)を前記第1のクラス(l0)とは異なる第2のクラス(l)に属するものとして分類させ、
当該方法は、
前記原入力信号(xorg)を修正して、修正入力信号(xmod)を生じさるステップと、
前記修正入力信号(xmod)を、前記原入力信号(xorg)周囲の(例えば、周囲にセンタリングされた)メトリック球体上に投影して、投影入力信号(xproj)を生じさせるステップと、
前記投影入力信号(xproj)に依存して前記敵対的入力信号(xadv)を取得するステップと、
を備え、
前記メトリックは、少なくとも近似的なワッサースタイン距離であることを特徴としている。用語「所与の点をメトリック球体上に投影する」とは、「前記所与の点に最も近い点を前記メトリック球体から決定する」という意味であると解することができる。
図1には、アクチュエータ10の1つの実施形態がその環境20内において示されている。アクチュエータ10は、制御システム40と相互に作用する。アクチュエータ10とその環境20とが連帯的に、アクチュエータシステムと称される。好ましくは等間隔の距離で、センサ30がアクチュエータシステムの状態をセンシングする。センサ30は、複数のセンサを含み得る。好ましくは、センサ30は、環境20の画像を撮影する光学センサである。センシングされた状態を符号化するセンサ30の出力信号S(又はセンサ30が複数のセンサを有する場合においては、センサ各々の出力信号S)が、制御システム40に送信される。
WD(xmod,xorg)≦ε (4)
であるか否かが特定される。
WD α(xmod,xorg)≦ε (8)
であるか否かが特定される。
K=exp(-λ・ρ・D) (9)
のように計算される。
Ri=Pi/(K・S)i (10)
のように更新され、行列Sの要素Siが
Si=W0(exp(λQi-1/2)・tmpi)/tmpi (11)
のように更新され、
ただし、
tmp=λ・KTR (12)
である。
g=〈R,DKS〉-ε (13)
h=-λ〈R,DDKS〉 (14)
のように計算され、ここで、〈...〉は、スカラ積を表し、即ち、エントリごとの乗算及びそれに続き乗算された総てのエントリの和を表す。値αは、正の値、例えばα=1にセットされる。
Πij=〈Ri,K・Si〉 (15)
xproj=ΠT1 (16)
がセットされる。これにより、この方法は終了する。
Claims (20)
- センサ(30)から取得された入力信号(x)を分類するための分類器(60)に対する敵対的入力信号(xadv)を取得するためのコンピュータ実装方法であって、
前記敵対的入力信号(xadv)は、原入力信号(xorg)から取得され、
前記敵対的入力信号(xadv)及び前記原入力信号(xorg)は、前記分類器(60)に指示して、前記原入力信号(xorg)を第1のクラス(l0)に属するものとして分類させ、前記敵対的入力信号(xadv)を前記第1のクラス(l0)とは異なる第2のクラス(l)に属するものとして分類させ、
当該方法は、
前記原入力信号(xorg)を修正して、修正入力信号(xmod)を生じさせるステップと、
前記修正入力信号(xmod)を、前記原入力信号(xorg)周囲のメトリック球体上に投影して、投影入力信号(xproj)を生じさせるステップと、
前記投影入力信号(xproj)に依存して前記敵対的入力信号(xadv)を取得するステップと、
を備え、
少なくとも近似的なワッサースタイン距離(WD、WD λ)による距離が、前記メトリック球体の予め定義された半径(ε)よりも大きくない、という制約のもとで、前記修正入力信号(xmod)までの距離を最小化することにより、前記投影入力信号(xproj)を決定する、
ことを特徴とする方法。 - 前記少なくとも近似的なワッサースタイン距離は、ワッサースタイン距離(WD)である、
請求項1に記載の方法。 - 前記最小化は、前記制約のもとで前記最小化により与えられる主問題に対応する双対問題を最大化することによって取得される、
請求項1又は2に記載の方法。 - 前記少なくとも近似的なワッサースタイン距離は、エントロピー項(ET)によってワッサースタイン距離(WD)とは異なるシンクホーン距離(WD λ)であり、第1の分布(P)と第2の分布(Q)とから成る任意のペアについて、前記エントロピー項(ET)は、Π1n=P,ΠT1n=Qを満たす分布Πのエントロピーを表す、
請求項1に記載の方法。 - 前記投影入力信号(xproj)は、前記最小化に対応する凸最適化を解決することにより決定される、
請求項1乃至3のいずれか一項に記載の方法。 - 前記分類器(60)は、入力信号(x)が供給されると、前記第1のクラス(l0)に対応する第1の分類値(fl0)と、予め定義された前記第2のクラス(l)に対応する第2の分類値(fl)とを出力するように構成されており、前記修正入力信号(xmod)は、前記第1の分類値(fl0)と前記第2の分類値(fl)との差(g)を、前記原入力信号(xorg)によりもたらされる差(g)よりも小さくさせる、
請求項1乃至5のいずれか一項に記載の方法。 - 前記分類器(60)は、入力信号(x)が供給されると、前記第1のクラス(l0)に対応する第1の分類値(fl0)を出力するように構成されており、前記修正入力信号(xmod)は、前記第1の分類値(fl0)を、前記原入力信号(xorg)によりもたらされる前記第1の分類値(fl0)よりも小さくさせる、
請求項1乃至6のいずれか一項に記載の方法。 - 前記原入力信号(xorg)を修正して前記修正入力信号(xmod)を生じさせ、前記修正入力信号(xmod)を前記メトリック球体に投影して、前記投影入力信号(xproj)を生じさせるステップは、先行の反復の前記投影入力信号(xproj)を後続の反復の原入力信号(xorg)として使用することにより、繰り返し実行され、前記修正入力信号(xmod)を前記メトリック球体に投影する前記ステップは、前記原入力信号(xorg)を修正する各ステップの後に実行される、
請求項1乃至7のいずれか一項に記載の方法。 - センサ(30)から取得された入力信号(x)を分類するために改善された精度を有する分類器(60)をトレーニングするためのコンピュータ実装方法であって、
複数のクラスにラベル付けされた複数のトレーニング入力信号を用いてトレーニング済みの前記分類器(60)に、メモリ(146)からアクセスするステップと、
請求項1乃至8のいずれか一項に記載の方法によって、敵対的入力信号(xadv)を生成するステップと、
少なくとも前記敵対的入力信号(xadv)を用いて、改善された精度を有するように前記分類器(60)をさらにトレーニングするステップと、
を備える方法。 - センサ信号を分類するために、請求項9に記載の方法を用いてトレーニングされた分類器(60)を使用するためのコンピュータ実装方法であって、
センサ(30)からのデータを含むセンサ信号(S)を受信するステップと、
前記センサ信号(S)に依存する入力信号(x)を決定するステップと、
前記入力信号(x)を前記分類器(60)に供給して、前記入力信号(x)の分類を表す出力信号(y)を取得するステップと、
を備える方法。 - アクチュエータ(10)を制御するアクチュエータ制御信号(A)を供給するために、請求項9に記載の方法を用いてトレーニングされた分類器(60)を使用するためのコンピュータ実装方法であって、
請求項10に記載の方法の総てのステップを備え、さらに、
前記出力信号(y)に依存して前記アクチュエータ制御信号(A)を決定するステップを備える方法。 - センサ信号を分類するための分類器のロバスト性を評価するためのコンピュータ実装方法であって、
センサ(30)からのデータを含むセンサ信号(S)を受信するステップと、
前記センサ信号(S)に依存する原入力信号(xorg)を決定するステップと、
前記分類器(60)により、前記原入力信号(xorg)の分類を表す第1の出力信号(y1)を取得するステップと、
請求項1乃至8のいずれか一項に記載の方法によって、敵対的入力信号(xadv)を決定するステップと、
前記分類器(60)により、前記敵対的入力信号(xadv)の分類を表す第2の出力信号(y2)を決定するステップと、
前記第1の出力信号(y1)と前記第2の出力信号(y2)とに依存して、ロバスト性の値を決定するステップと、
を備える方法。 - 分類器(60)の出力信号(y)に依存してアクチュエータ(10)を制御するアクチュエータ制御信号(A)を供給するためのコンピュータ実装方法であって、
前記分類器(60)がロバストであるか否かを、請求項12に記載の方法を用いて評価するステップと、
前記評価の結果に従って、特に、前記評価の結果として前記分類器(60)がロバストではないとみなされたならば、前記アクチュエータ(10)をセーフモードで動作させるように、前記アクチュエータ制御信号(A)を決定することによって、前記アクチュエータ制御信号(A)を決定するステップと、
を備える方法。 - 前記アクチュエータ(10)は、少なくとも部分的に自律的なロボット(100)及び/又は製造機械(200)及び/又はアクセス制御システム(300)を制御する、
請求項11又は13に記載の方法。 - コンピュータプログラムであって、前記コンピュータプログラムがプロセッサ(45、145)によって実行されると、コンピュータに指示して、請求項1乃至14のいずれか一項に記載の方法を、当該方法の総てのステップと共に実施させるために構成されているコンピュータプログラム。
- 請求項15に記載のコンピュータプログラムが記憶されている機械可読記憶媒体(46、146)。
- センサ信号を分類するための分類器(60)であって、
請求項9に記載の方法を用いてトレーニングすることによって取得可能であることを特徴とする分類器(60)。 - アクチュエータ(10)を動作させるための制御システム(40)であって、
請求項17に記載の分類器(60)を備え、前記分類器(60)の出力に従って前記アクチュエータ(10)を動作させるように構成されている制御システム(40)。 - 請求項11乃至14のいずれか一項に記載の方法を実施するように構成されている制御システム(40)。
- 請求項9に記載の方法を実施するように構成されているトレーニングシステム(140)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18213925.3A EP3671574B1 (en) | 2018-12-19 | 2018-12-19 | Device and method to improve the robustness against adversarial examples |
EP18213925.3 | 2018-12-19 | ||
PCT/EP2019/082757 WO2020126372A1 (en) | 2018-12-19 | 2019-11-27 | Device and method to improve the robustness against 'adversarial examples' |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022515756A JP2022515756A (ja) | 2022-02-22 |
JP7264410B2 true JP7264410B2 (ja) | 2023-04-25 |
Family
ID=64746095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021535830A Active JP7264410B2 (ja) | 2018-12-19 | 2019-11-27 | 「敵対的サンプル」に対するロバスト性を改善する装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210326647A1 (ja) |
EP (1) | EP3671574B1 (ja) |
JP (1) | JP7264410B2 (ja) |
CN (1) | CN113302630A (ja) |
WO (1) | WO2020126372A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215292B (zh) * | 2020-10-19 | 2022-03-29 | 电子科技大学 | 一种基于迁移性的图像对抗样本生成装置及方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013477B2 (en) * | 2012-11-19 | 2018-07-03 | The Penn State Research Foundation | Accelerated discrete distribution clustering under wasserstein distance |
US10007866B2 (en) | 2016-04-28 | 2018-06-26 | Microsoft Technology Licensing, Llc | Neural network image classifier |
DE102018200724A1 (de) * | 2017-04-19 | 2018-10-25 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples" |
EP3599575B1 (en) * | 2017-04-27 | 2023-05-24 | Dassault Systèmes | Learning an autoencoder |
US10624558B2 (en) * | 2017-08-10 | 2020-04-21 | Siemens Healthcare Gmbh | Protocol independent image processing with adversarial networks |
US20200224172A1 (en) * | 2017-09-19 | 2020-07-16 | The Broad Institute, Inc. | Methods and systems for reconstruction of developmental landscapes by optimal transport analysis |
US10971142B2 (en) * | 2017-10-27 | 2021-04-06 | Baidu Usa Llc | Systems and methods for robust speech recognition using generative adversarial networks |
EP3673419B8 (en) * | 2017-11-22 | 2024-09-18 | DeepMind Technologies Limited | Population based training of neural networks |
US20200380364A1 (en) * | 2018-02-23 | 2020-12-03 | Robert Bosch Gmbh | Adversarial Probabilistic Regularization |
US10825219B2 (en) * | 2018-03-22 | 2020-11-03 | Northeastern University | Segmentation guided image generation with adversarial networks |
WO2019241155A1 (en) * | 2018-06-11 | 2019-12-19 | Arterys Inc. | Simulating abnormalities in medical images with generative adversarial networks |
CN108830334B (zh) * | 2018-06-25 | 2020-08-28 | 江西师范大学 | 一种基于对抗式迁移学习的细粒度目标判别方法 |
EP3874417A1 (en) * | 2018-10-29 | 2021-09-08 | HRL Laboratories, LLC | Systems and methods for few-shot transfer learning |
-
2018
- 2018-12-19 EP EP18213925.3A patent/EP3671574B1/en active Active
-
2019
- 2019-11-27 CN CN201980084684.9A patent/CN113302630A/zh active Pending
- 2019-11-27 US US17/267,638 patent/US20210326647A1/en not_active Abandoned
- 2019-11-27 JP JP2021535830A patent/JP7264410B2/ja active Active
- 2019-11-27 WO PCT/EP2019/082757 patent/WO2020126372A1/en active Application Filing
Non-Patent Citations (1)
Title |
---|
Serban, Alexandru Constantin et al.,"Adversarial Examples - A Complete Characterisation of the Phenomenon",arXiv.org [online],arXiv:1810.01185v1,米国,arXiv,2018年10月,pp.1-54,[令和4年8月9日 検索], インターネット:<URL: https://arxiv.org/abs/1810.01185v1>,DOI:10.48550/ARXIV.1810.01185 |
Also Published As
Publication number | Publication date |
---|---|
WO2020126372A1 (en) | 2020-06-25 |
EP3671574A1 (en) | 2020-06-24 |
CN113302630A (zh) | 2021-08-24 |
US20210326647A1 (en) | 2021-10-21 |
EP3671574B1 (en) | 2024-07-10 |
JP2022515756A (ja) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3576021B1 (en) | Method, apparatus and computer program for generating robust automated learning systems and testing trained automated learning systems | |
US20220100850A1 (en) | Method and system for breaking backdoored classifiers through adversarial examples | |
CN113962399A (zh) | 用于机器学习中学习扰动集的方法和系统 | |
US20230244924A1 (en) | System and method for robust pseudo-label generation for semi-supervised object detection | |
JP7060762B2 (ja) | 拡充識別器を訓練するための装置および方法 | |
TWI845580B (zh) | 用於訓練神經網路的方法 | |
JP2023138492A (ja) | ランダム化およびサンプル拒否を使用して、ディープニューラルネットワークにおける事前トレーニング済みシステムのロバストネスを向上させるためのシステムおよび方法 | |
JP7264410B2 (ja) | 「敵対的サンプル」に対するロバスト性を改善する装置及び方法 | |
EP3754557A1 (en) | Robustness indicator unit, certificate determination unit, training unit, control unit and computer-implemented method to determine a robustness indicator | |
CN114358276A (zh) | 使用自标准化梯度训练标准化流的设备和方法 | |
US20230259658A1 (en) | Device and method for determining adversarial patches for a machine learning system | |
US20230107463A1 (en) | Method and system for probably robust classification with multiclass enabled detection of adversarial examples | |
US20220101116A1 (en) | Method and system for probably robust classification with detection of adversarial examples | |
CN113168572A (zh) | 分类传感器数据和确定操控执行器的操控信号的方法和设备 | |
US20210319268A1 (en) | Device and method to improve the robustness against 'adversarial examples' | |
KR20230175128A (ko) | 기계 학습 시스템의 적대적 섭동들을 결정하기 위한 디바이스 및 방법 | |
US20240135699A1 (en) | Device and method for determining an encoder configured image analysis | |
US20220230416A1 (en) | Training of machine learning systems for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210618 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210618 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7264410 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |