JP2022552243A - トレーニングされた機械学習モデルへの敵対的ロバスト性の追加 - Google Patents
トレーニングされた機械学習モデルへの敵対的ロバスト性の追加 Download PDFInfo
- Publication number
- JP2022552243A JP2022552243A JP2022521116A JP2022521116A JP2022552243A JP 2022552243 A JP2022552243 A JP 2022552243A JP 2022521116 A JP2022521116 A JP 2022521116A JP 2022521116 A JP2022521116 A JP 2022521116A JP 2022552243 A JP2022552243 A JP 2022552243A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- learning models
- adversarial
- trained machine
- protection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 149
- 230000004224 protection Effects 0.000 claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 33
- 238000003860 storage Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 238000012805 post-processing Methods 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims 2
- 230000006870 function Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 22
- 238000005457 optimization Methods 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 9
- 230000006855 networking Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 6
- 230000001965 increasing effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000007123 defense Effects 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003121 nonmonotonic effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000000246 remedial effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000009781 safety test method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/552—Detecting local intrusion or implementing counter-measures involving long-term monitoring or reporting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1471—Saving, restoring, recovering or retrying involving logging of persistent data for recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
- Debugging And Monitoring (AREA)
Abstract
Description
オン・デマンドのセルフサービス:クラウド消費者は、サービス・プロバイダとの人間の対話を必要とすることなく、自動的に必要に応じて、サーバ時間およびネットワーク・ストレージ等のコンピューティング能力を一方的にプロビジョニングすることができる。
ブロード・ネットワーク・アクセス:能力は、ネットワークを介して利用可能にされ、異種シンまたはシック・クライアント・プラットフォーム(例えば、携帯電話、ラップトップおよびPDA)による使用を促進する標準的なメカニズムを通じてアクセスされる。
リソース・プーリング:マルチ・テナント・モデルを用いて複数の消費者にサービングするために、プロバイダのコンピューティング・リソースがプールされ、異なる物理的リソースおよび仮想リソースは、要求に従って動的に割当ておよび再割当てされる。消費者が、通常、提供されるリソースの厳密な場所に対する制御も知識も有しないが、より高い抽象化度(例えば、国、州またはデータセンタ)で場所を指定することが可能であり得るという点で、場所独立性の意義がある。
高速な弾力性(Rapid Elasticity):能力は、場合によっては自動的に、即座にスケール・アウトするように高速かつ弾力的にプロビジョニングされ、即座にスケール・インするように高速に解放され得る。消費者に対しては、プロビジョニングに利用可能な能力が、多くの場合無制限であるように見え、いつでも任意の量で購入可能である。
測定されるサービス:クラウド・システムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、アクティブなユーザ・アカウント)に適したある抽象化度において計測能力を活用することによって、リソース使用を自動的に制御し、最適化する。リソース使用量は、モニタリングされ、制御され、報告することができ、利用サービスのプロバイダおよび消費者の両方に透明性がもたらされる。
サービスとしてのソフトウェア(SaaS):消費者に提供される能力は、クラウド・インフラ上で実行中のプロバイダのアプリケーションを使用する能力である。アプリケーションは、ウェブ・ブラウザ等のシン・クライアント・インターフェース(例えば、ウェブ・ベースの電子メール)を通して、様々なクライアント・デバイスからアクセス可能である。消費者は、限定されたユーザ固有アプリケーションの構成設定は例外である可能性があるが、ネットワーク、サーバ、オペレーティング・システム、ストレージ、または更には個々のアプリケーション能力を含む、基礎となるクラウド・インフラを管理または制御しない。
サービスとしてのプラットフォーム(PaaS):消費者に提供される能力は、プロバイダによってサポートされるプログラミング言語およびツールを使用して生成された、消費者が作成または取得したアプリケーションを、クラウド・インフラ上に展開する能力である。消費者は、ネットワーク、サーバ、オペレーティング・システム、またはストレージを含む基礎となるクラウド・インフラを管理または制御しないが、展開されたアプリケーション、および、場合によっては、アプリケーション・ホスティング環境構成に対して制御を行う。
サービスとしてのインフラ(IaaS):消費者に提供される能力は、処理、ストレージ、ネットワーク、ならびに消費者がオペレーティング・システムおよびアプリケーションを含み得る任意のソフトウェアを展開および実行することが可能な、他の基本コンピューティング・リソースをプロビジョニングする能力である。消費者は、基礎となるクラウド・インフラを管理または制御しないが、オペレーティング・システム、ストレージ、配置されたアプリケーションに対して制御を行い、かつ場合によっては、選択ネットワーキング・コンポーネント(例えば、ホスト・ファイアウォール)の限定的な制御を行う。
プライベート・クラウド:クラウド・インフラは、組織のためだけに動作される。クラウド・インフラは、その組織または第三者によって管理されてもよく、構内または構外に存在し得る。
コミュニティ・クラウド:クラウド・インフラは、複数の組織によって共有され、共有の関心事(例えば、任務、セキュリティ要件、ポリシー、およびコンプライアンスの考慮事項)を有する特定のコミュニティをサポートする。クラウド・インフラは、その組織または第三者によって管理されてもよく、構内または構外に存在し得る。
パブリック・クラウド:クラウド・インフラは、一般公衆または大きな業界団体に利用可能とされ、クラウド・サービスを販売する組織によって所有される。
ハイブリッド・クラウド:クラウド・インフラは、一意なエンティティのままであるが、データおよびアプリケーション・ポータビリティを可能にする標準化技術または独自技術(例えば、クラウド間のロード・バランシングのためのクラウド・バースティング)によって結合された、2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)の合成物である。
Claims (16)
- 1つまたは複数のプロセッサによって、コンピューティング環境におけるトレーニングされた機械学習モデルをセキュア化するための方法であって、前記方法は、
1つまたは複数のトレーニングされた機械学習モデルに敵対的保護を加えることによって、敵対的攻撃に対しセキュア化された1つまたは複数の強化された機械学習モデルを提供することを含む、方法。 - 前記1つまたは複数のトレーニングされた機械学習モデルを受信することと、
1つまたは複数の敵対的保護プロトコルに基づいて、前記敵対的保護を含むように前記1つまたは複数のトレーニングされた機械学習モデルを再トレーニングすることと、
を更に含む、請求項1に記載の方法。 - 1つまたは複数の前処理層を1つまたは複数のトレーニングされた機械学習モデルに加えることを更に含み、敵対的保護の強さの度合いが調整される、請求項1または2に記載の方法。
- 1つまたは複数のニューラル・ネットワーク層を1つまたは複数のトレーニングされた機械学習モデルに加えることを更に含む、請求項1ないし3のいずれかに記載の方法。
- 1つまたは複数の後処理出力層を前記1つまたは複数のトレーニングされた機械学習モデルに加えることを更に含み、前記1つまたは複数のトレーニングされた機械学習モデルは、1つまたは複数の敵対的保護プロトコルに基づいて前記敵対的保護により再トレーニングされる、請求項1ないし4のいずれかに記載の方法。
- 前記1つもしくは複数の強化された機械学習モデルを提供するために用いられる1つもしくは複数の敵対的保護プロトコルを自動的に実施すること、または
ユーザから、前記1つもしくは複数の強化された機械学習モデルを提供するために用いられる1つもしくは複数の敵対的保護プロトコルを受信すること、
を更に含む、請求項1ないし5のいずれかに記載の方法。 - 再トレーニングされている間、前記1つもしくは複数のトレーニングされた機械学習モデルの各状態をモニタリングおよび追跡すること、
前記再トレーニング中の前記1つもしくは複数のトレーニングされた機械学習モデルに対するトレーニング崩壊を検出すること、または
再トレーニング動作中、前記1つもしくは複数のトレーニングされた機械学習モデルについて1つもしくは複数のロール・バック戦略を可能にすること、
を更に含む、請求項1ないし6のいずれかに記載の方法。 - コンピューティング環境におけるトレーニングされた機械学習モデルをセキュア化するためのシステムであって、
実行可能な命令を有する1つまたは複数のコンピュータを備え、前記実行可能な命令は、実行されると、前記システムに、
1つまたは複数のトレーニングされた機械学習モデルに敵対的保護を加えることによって、敵対的攻撃に対しセキュア化された1つまたは複数の強化された機械学習モデルを提供させる、システム。 - 前記実行可能な命令は、
前記1つまたは複数のトレーニングされた機械学習モデルを受信し、
1つまたは複数の敵対的保護プロトコルに基づいて前記敵対的保護を含むように前記1つまたは複数のトレーニングされた機械学習モデルを再トレーニングする、
請求項8に記載のシステム。 - 前記実行可能な命令は、1つまたは複数の前処理層を1つまたは複数のトレーニングされた機械学習モデルに加え、敵対的保護の強さの度合いが調整される、請求項8または9に記載のシステム。
- 前記実行可能な命令は、1つまたは複数のニューラル・ネットワーク層を1つまたは複数のトレーニングされた機械学習モデルに加える、請求項8ないし10のいずれかに記載のシステム。
- 前記実行可能な命令は、1つまたは複数の後処理出力層を前記1つまたは複数のトレーニングされた機械学習モデルに加え、前記1つまたは複数のトレーニングされた機械学習モデルは、1つまたは複数の敵対的保護プロトコルに基づいて前記敵対的保護により再トレーニングされる、請求項8ないし11のいずれかに記載のシステム。
- 前記実行可能な命令は、
前記1つもしくは複数の強化された機械学習モデルを提供するために用いられる1つもしくは複数の敵対的保護プロトコルを自動的に実施するか、または
ユーザから、前記1つもしくは複数の強化された機械学習モデルを提供するために用いられる1つもしくは複数の敵対的保護プロトコルを受信する、請求項8ないし12のいずれかに記載のシステム。 - 前記実行可能な命令は、
再トレーニングされている間、前記1つもしくは複数のトレーニングされた機械学習モデルの各状態をモニタリングおよび追跡するか、
前記再トレーニング中の前記1つもしくは複数のトレーニングされた機械学習モデルに対するトレーニング崩壊を検出するか、または
再トレーニング動作中、前記1つもしくは複数のトレーニングされた機械学習モデルについて1つもしくは複数のロール・バック戦略を可能にする、請求項8ないし13のいずれかに記載のシステム。 - 1つまたは複数のプロセッサによって、コンピューティング環境におけるトレーニングされた機械学習モデルをセキュア化するためのコンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品は、
処理回路によって読み出し可能であり、請求項1ないし7のいずれかに記載の方法を実行するための、前記処理回路による実行のための命令を記憶する、コンピュータ可読ストレージ媒体を備える、コンピュータ・プログラム製品。 - コンピュータ可読媒体上に記憶され、デジタル・コンピュータの内部メモリにロード可能なコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行されるとき、請求項1ないし7のいずれかに記載の方法を実行するためのソフトウェア・コード部分を備える、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/601,451 US11334671B2 (en) | 2019-10-14 | 2019-10-14 | Adding adversarial robustness to trained machine learning models |
US16/601,451 | 2019-10-14 | ||
PCT/IB2020/059559 WO2021074770A1 (en) | 2019-10-14 | 2020-10-12 | Adding adversarial robustness to trained machine learning models |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022552243A true JP2022552243A (ja) | 2022-12-15 |
JPWO2021074770A5 JPWO2021074770A5 (ja) | 2022-12-22 |
Family
ID=75383118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521116A Pending JP2022552243A (ja) | 2019-10-14 | 2020-10-12 | トレーニングされた機械学習モデルへの敵対的ロバスト性の追加 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11334671B2 (ja) |
JP (1) | JP2022552243A (ja) |
KR (1) | KR20220054812A (ja) |
CN (1) | CN114503108A (ja) |
AU (1) | AU2020368222B2 (ja) |
GB (1) | GB2604791B (ja) |
WO (1) | WO2021074770A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112021010468A2 (pt) * | 2018-12-31 | 2021-08-24 | Intel Corporation | Sistemas de segurança que empregam inteligência artificial |
US11675896B2 (en) * | 2020-04-09 | 2023-06-13 | International Business Machines Corporation | Using multimodal model consistency to detect adversarial attacks |
US20220114259A1 (en) * | 2020-10-13 | 2022-04-14 | International Business Machines Corporation | Adversarial interpolation backdoor detection |
US11785024B2 (en) * | 2021-03-22 | 2023-10-10 | University Of South Florida | Deploying neural-trojan-resistant convolutional neural networks |
IL307781A (en) * | 2021-04-19 | 2023-12-01 | Deepkeep Ltd | Device, system and method for protecting machine learning, artificial intelligence, and deep learning units |
EP4348508A1 (en) * | 2021-05-31 | 2024-04-10 | Microsoft Technology Licensing, LLC | Merging models on an edge server |
US20230134546A1 (en) * | 2021-10-29 | 2023-05-04 | Oracle International Corporation | Network threat analysis system |
CN114355936A (zh) * | 2021-12-31 | 2022-04-15 | 深兰人工智能(深圳)有限公司 | 智能体的控制方法、装置、智能体及计算机可读存储介质 |
CN114694222B (zh) * | 2022-03-28 | 2023-08-18 | 马上消费金融股份有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
GB2621838A (en) * | 2022-08-23 | 2024-02-28 | Mindgard Ltd | Method and system |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150134966A1 (en) | 2013-11-10 | 2015-05-14 | Sypris Electronics, Llc | Authentication System |
US9619749B2 (en) | 2014-03-06 | 2017-04-11 | Progress, Inc. | Neural network and method of neural network training |
US20160321523A1 (en) | 2015-04-30 | 2016-11-03 | The Regents Of The University Of California | Using machine learning to filter monte carlo noise from images |
WO2017120336A2 (en) | 2016-01-05 | 2017-07-13 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
US20180005136A1 (en) | 2016-07-01 | 2018-01-04 | Yi Gai | Machine learning in adversarial environments |
US11526601B2 (en) | 2017-07-12 | 2022-12-13 | The Regents Of The University Of California | Detection and prevention of adversarial deep learning |
CN107390949B (zh) * | 2017-09-13 | 2020-08-07 | 广州视源电子科技股份有限公司 | 获取触摸屏基准资料的方法和装置、存储介质及触摸显示系统 |
CN108304858B (zh) | 2017-12-28 | 2022-01-04 | 中国银联股份有限公司 | 对抗样本识别模型生成方法、验证方法及其系统 |
US11315012B2 (en) | 2018-01-12 | 2022-04-26 | Intel Corporation | Neural network training using generated random unit vector |
CN108099598A (zh) | 2018-01-29 | 2018-06-01 | 三汽车起重机械有限公司 | 用于起重机的驱动装置及起重机 |
US11562244B2 (en) * | 2018-02-07 | 2023-01-24 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
CN108322349B (zh) | 2018-02-11 | 2021-04-06 | 浙江工业大学 | 基于对抗式生成网络的深度学习对抗性攻击防御方法 |
CN108537271B (zh) | 2018-04-04 | 2021-02-05 | 重庆大学 | 一种基于卷积去噪自编码机防御对抗样本攻击的方法 |
CN108615048B (zh) | 2018-04-04 | 2020-06-23 | 浙江工业大学 | 基于扰动进化对图像分类器对抗性攻击的防御方法 |
CA3043809A1 (en) * | 2018-05-17 | 2019-11-17 | Royal Bank Of Canada | System and method for machine learning architecture with adversarial attack defence |
US10861439B2 (en) * | 2018-10-22 | 2020-12-08 | Ca, Inc. | Machine learning model for identifying offensive, computer-generated natural-language text or speech |
US20200125928A1 (en) * | 2018-10-22 | 2020-04-23 | Ca, Inc. | Real-time supervised machine learning by models configured to classify offensiveness of computer-generated natural-language text |
US11526746B2 (en) * | 2018-11-20 | 2022-12-13 | Bank Of America Corporation | System and method for incremental learning through state-based real-time adaptations in neural networks |
US11481617B2 (en) * | 2019-01-22 | 2022-10-25 | Adobe Inc. | Generating trained neural networks with increased robustness against adversarial attacks |
EP3944159A1 (en) * | 2020-07-17 | 2022-01-26 | Tata Consultancy Services Limited | Method and system for defending universal adversarial attacks on time-series data |
-
2019
- 2019-10-14 US US16/601,451 patent/US11334671B2/en active Active
-
2020
- 2020-10-12 WO PCT/IB2020/059559 patent/WO2021074770A1/en active Application Filing
- 2020-10-12 AU AU2020368222A patent/AU2020368222B2/en active Active
- 2020-10-12 JP JP2022521116A patent/JP2022552243A/ja active Pending
- 2020-10-12 CN CN202080070524.1A patent/CN114503108A/zh active Pending
- 2020-10-12 GB GB2207000.7A patent/GB2604791B/en active Active
- 2020-10-12 KR KR1020227008142A patent/KR20220054812A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
KR20220054812A (ko) | 2022-05-03 |
GB2604791B (en) | 2024-03-13 |
GB2604791A (en) | 2022-09-14 |
US20210110045A1 (en) | 2021-04-15 |
CN114503108A (zh) | 2022-05-13 |
GB202207000D0 (en) | 2022-06-29 |
US11334671B2 (en) | 2022-05-17 |
WO2021074770A1 (en) | 2021-04-22 |
AU2020368222B2 (en) | 2023-11-23 |
AU2020368222A1 (en) | 2022-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022552243A (ja) | トレーニングされた機械学習モデルへの敵対的ロバスト性の追加 | |
US10909327B2 (en) | Unsupervised learning of interpretable conversation models from conversation logs | |
US11681796B2 (en) | Learning input preprocessing to harden machine learning models | |
US11397891B2 (en) | Interpretability-aware adversarial attack and defense method for deep learnings | |
US11176508B2 (en) | Minimizing compliance risk using machine learning techniques | |
US11803657B2 (en) | Generation of representative data to preserve membership privacy | |
US20190065284A1 (en) | Hybrid acceleration in a processing environment | |
US11625487B2 (en) | Framework for certifying a lower bound on a robustness level of convolutional neural networks | |
US20220358358A1 (en) | Accelerating inference of neural network models via dynamic early exits | |
US11836220B2 (en) | Updating of statistical sets for decentralized distributed training of a machine learning model | |
US20210064982A1 (en) | Cross-domain homophily quanitifcation for transfer learning | |
US11741296B2 (en) | Automatically modifying responses from generative models using artificial intelligence techniques | |
US11573785B2 (en) | Predicting code vulnerabilities using machine learning classifier models trained on internal analysis states | |
US20210216858A1 (en) | Training machine learning systems | |
US11321611B2 (en) | Deployment verification of authenticity of machine learning results | |
US11164078B2 (en) | Model matching and learning rate selection for fine tuning | |
US20230169176A1 (en) | Graph exploration framework for adversarial example generation | |
US20220335217A1 (en) | Detecting contextual bias in text | |
US20220156297A1 (en) | Efficient and compact text matching system for sentence pairs | |
CN114424216A (zh) | 域特定模型压缩 | |
US20240037439A1 (en) | Quantum system selection via coupling map comparison | |
US20220198268A1 (en) | Estimated online hard negative mining via probabilistic selection and scores history consideration | |
US20220398452A1 (en) | Supervised similarity learning for covariate matching and treatment effect estimation via self-organizing maps | |
US11763082B2 (en) | Accelerating inference of transformer-based models | |
US20230325469A1 (en) | Determining analytical model accuracy with perturbation response |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |