KR102692100B1 - 훈련된 머신 러닝 모델에 적대적 견고성 추가 - Google Patents
훈련된 머신 러닝 모델에 적대적 견고성 추가 Download PDFInfo
- Publication number
- KR102692100B1 KR102692100B1 KR1020227008142A KR20227008142A KR102692100B1 KR 102692100 B1 KR102692100 B1 KR 102692100B1 KR 1020227008142 A KR1020227008142 A KR 1020227008142A KR 20227008142 A KR20227008142 A KR 20227008142A KR 102692100 B1 KR102692100 B1 KR 102692100B1
- Authority
- KR
- South Korea
- Prior art keywords
- machine learning
- learning models
- adversarial
- trained machine
- training
- Prior art date
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 172
- 230000004224 protection Effects 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims description 55
- 238000012549 training Methods 0.000 claims description 54
- 238000013528 artificial neural network Methods 0.000 claims description 51
- 238000003860 storage Methods 0.000 claims description 37
- 238000007781 pre-processing Methods 0.000 claims description 22
- 238000012805 post-processing Methods 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims 3
- 230000006870 function Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 19
- 230000015654 memory Effects 0.000 description 16
- 238000004590 computer program Methods 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 7
- 230000006855 networking Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000007123 defense Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003121 nonmonotonic effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000012517 data analytics Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/552—Detecting local intrusion or implementing counter-measures involving long-term monitoring or reporting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1471—Saving, restoring, recovering or retrying involving logging of persistent data for recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Debugging And Monitoring (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
다양한 실시 예들이 컴퓨팅 시스템에서 하나 또는 그 이상의 프로세서들에 의해 훈련된 머신 러닝 모델들을 보호하기 위해 제공된다. 하나 또는 그 이상의 강화된 머신 러닝 모델들이 하나 또는 그 이상의 훈련된 머신 러닝 모델들에 적대적 보호를 추가하여 적대적 공격들에 대해서 보호된다.
Description
[0010] 도 1은 본 발명의 일 실시 예에 따른 예시적인 클라우드 컴퓨팅 노드를 도시하는 블록도이다;
[0011] 도 2는 본 발명의 일 실시 예에 따른 예시적인 클라우드 컴퓨팅 환경을 도시하는 추가의 블록도이다;
[0012] 도 3은 본 발명의 일 실시 예에 따른 추상화 모델 계층들을 나타내는 추가의 블록도이다;
[0013] 도 4는 본 발명의 실시 예들이 실현될 수 있는 컴퓨팅 환경에서 적대적 시스템들에 대해 훈련된 머신 러닝 모델들을 프로세서에 의해 보호하기 위한 예시적인 방법을 도시하는 플로차트다;
[0014] 도 5는 본 발명의 실시 예들이 실현될 수 있는 컴퓨팅 환경에서 적대자들/적대적 시스템들에 대해 훈련된 머신 러닝 모델들을 프로세서에 의해 보호하기 위한 예시적인 시스템 및 기능을 도시하는 블록도이다;
[0015] 도 6은 본 발명의 실시 예들이 실현될 수 있는 컴퓨팅 환경의 이미지들에 대한 적대자들/적대적 시스템들에 대해서 훈련된 머신 러닝 모델을 프로세서에 의해 보호하기 위한 추가의 예시적인 시스템 및 기능을 도시하는 블록도이다;
[0016] 도 7은 본 발명의 실시 예들이 실현될 수 있는 컴퓨팅 환경에서 적대자들/적대적 시스템들에 대해서 훈련된 머신 러닝 모델들을 프로세서에 의해 보호하기 위한 추가의 예시적인 작업들을 도시하는 블록도이다; 그리고
[0017] 도 8은 본 발명의 실시 예들이 실현될 수 있는 컴퓨팅 환경에서 적대자들/적대적 시스템들에 대해서 훈련된 머신 러닝 모델들을 프로세서에 의해 보호하기 위한 예시적인 방법을 도시하는 플로차트이다.
Claims (16)
- 하나 또는 그 이상의 프로세서들에 의해 컴퓨팅 환경에서 훈련된 머신 러닝 모델을 보호하는 방법에 있어서, 상기 방법은:
하나 또는 그 이상의 이전에(previously) 훈련된 머신 러닝 모델들에 적대적 보호(adversarial protection)를 추가하여 적대적 공격들에 대해서(against) 보호되는 하나 또는 그 이상의 강화된 머신 러닝 모델들을 제공하는 단계 - 상기 하나 또는 그 이상의 강화된 머신 러닝 모델들은, 적대적 샘플들에 대한 무한 놈(an infinity norm) 제약을 갖는 프로젝트된 경사 하강 화이트-박스 공격(a projected gradient descent white-box attack)을 사용하는 명시된 프로토콜에 따라, 반복적으로 재-훈련함으로써 생성되며, 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들은 현재 재-훈련 반복 전에 상기 하나 또는 그 이상의 훈련된 머신 러닝 모델들에 이전에 입력되지 않은 훈련 데이터의 미니-배치들로부터 선택된 우호적 샘플들(benign examples)에 대한 상기 적대적 샘플들의 비율을 사용하고, 상기 적대적 샘플들의 비율은 각각의 후속 재-훈련 반복들을 위해 사용할 상기 훈련 데이터의 미니-배치들로부터 선택하기 위한 상기 적대적 샘플들 및 우호적 샘플들(benign samples)의 양을 나타내는 코사인 스케줄(a cosine schedule)에 따라 각각의 재-훈련 반복 동안 점진적으로 증가됨-;
재-훈련되는 동안 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들의 각 상태를 모니터하고 추적하는 단계(monitoring and tracking);
상기 재-훈련 동안 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 대한 훈련 붕괴(a training collapse)를 감지하는 단계(detecting); 및
상기 재-훈련 동안 상기 하나 또는 그 이상의 훈련된 머신 러닝 모델들에 대해 하나 또는 그 이상의 롤백 전략들(roll-back strategies)을 활성화하는 단계(enabling)를 포함하는
방법. - 제1항에 있어서, 상기 방법은:
상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들을 수신하는 단계; 그리고
하나 또는 그 이상의 적대적 보호 프로토콜들에 기초하여 상기 적대적 보호를 포함하도록 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들을 재-훈련을 수행하는 단계를 더 포함하는
방법. - 제1항에 있어서, 상기 방법은 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 전-처리 계층들(preprocessing layers)을 추가하는 단계를 더 포함하고, 적대적 보호 강도의 정도는 상기 하나 또는 그 이상의 전-처리 계층들 각각에서 조정되는(adjusted)
방법. - 제1항에 있어서, 상기 방법은 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 신경망 계층들을 추가하는 단계를 더 포함하는 방법.
- 제1항에 있어서, 상기 방법은 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 후-처리 출력 계층들(post-processing output layers)을 추가하는 단계를 더 포함하고, 상기 하나 또는 그 이상의 후-처리 출력 계층들은 하나 또는 그 이상의 적대적 보호 프로토콜들에 기초하여 상기 적대적 보호로 재-훈련되는
방법. - 제1항에 있어서, 상기 방법은:
상기 하나 또는 그 이상의 강화된 머신 러닝 모델들을 제공하기 위해 사용될 하나 또는 그 이상의 적대적 보호 프로토콜들을 자동으로 구현하는 단계; 또는
상기 하나 또는 그 이상의 강화된 머신 러닝 모델들을 제공하기 위해 사용될 하나 또는 그 이상의 적대적 보호 프로토콜들을, 사용자로부터, 수신하는 단계를 더 포함하는
방법. - 컴퓨팅 환경에서 훈련된 머신 러닝 모델들을 보호하기 위한 시스템에 있어서, 상기 시스템은:
실행 가능한 명령들을 갖는 하나 또는 그 이상의 컴퓨터들을 포함하고, 상기 실행 가능한 명령들은 실행될 때 상기 시스템이:
하나 또는 그 이상의 이전에(previously) 훈련된 머신 러닝 모델들에 적대적 보호(adversarial protection)를 추가하여 적대적 공격들에 대해서(against) 보호되는 하나 또는 그 이상의 강화된 머신 러닝 모델들을 제공하는 단계 - 상기 하나 또는 그 이상의 강화된 머신 러닝 모델들은, 적대적 샘플들에 대한 무한 놈(an infinity norm) 제약을 갖는 프로젝트된 경사 하강 화이트-박스 공격(a projected gradient descent white-box attack)을 사용하는 명시된 프로토콜에 따라, 반복적으로 재-훈련함으로써 생성되며, 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들은 현재 재-훈련 반복 전에 상기 하나 또는 그 이상의 훈련된 머신 러닝 모델들에 이전에 입력되지 않은 훈련 데이터의 미니-배치들로부터 선택된 우호적 샘플들(benign examples)에 대한 상기 적대적 샘플들의 비율을 사용하고, 상기 적대적 샘플들의 비율은 각각의 후속 재-훈련 반복들을 위해 사용할 상기 훈련 데이터의 미니-배치들로부터 선택하기 위한 상기 적대적 샘플들 및 우호적 샘플들(benign samples)의 양을 나타내는 코사인 스케줄(a cosine schedule)에 따라 각각의 재-훈련 반복 동안 점진적으로 증가됨-;
재-훈련되는 동안 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들의 각 상태를 모니터하고 추적하는 단계(monitoring and tracking);
상기 재-훈련 동안 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 대한 훈련 붕괴(a training collapse)를 감지하는 단계(detecting); 및
상기 재-훈련 동안 상기 하나 또는 그 이상의 훈련된 머신 러닝 모델들에 대해 하나 또는 그 이상의 롤백 전략들(roll-back strategies)을 활성화하는 단계(enabling)를 수행하게 하는
시스템. - 제7항에 있어서, 상기 실행 가능한 명령들은:
상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들을 수신하는 단계; 그리고
하나 또는 그 이상의 적대적 보호 프로토콜들에 기초하여 상기 적대적 보호를 포함하도록 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들을 재-훈련을 수행하는 단계를 더 수행하게 하는
시스템. - 제7항에 있어서, 상기 실행 가능한 명령들은 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 전-처리 계층들(preprocessing layers)을 추가하는 단계를 더 수행하게 하고, 적대적 보호 강도의 정도는 상기 하나 또는 그 이상의 전-처리 계층들 각각에서 조정되는(adjusted)
시스템. - 제7항에 있어서, 상기 실행 가능한 명령들은 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 신경망 계층들을 추가하는 단계를 더 수행하게 하는
시스템. - 제7항에 있어서, 상기 실행 가능한 명령들은 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 후-처리 출력 계층들(post-processing output layers)을 추가하는 단계를 더 수행하게 하고, 상기 하나 또는 그 이상의 후-처리 출력 계층들은 하나 또는 그 이상의 적대적 보호 프로토콜들에 기초하여 상기 적대적 보호로 재-훈련되는
시스템. - 제7항에 있어서, 상기 실행 가능한 명령들은:
상기 하나 또는 그 이상의 강화된 머신 러닝 모델들을 제공하기 위해 사용될 하나 또는 그 이상의 적대적 보호 프로토콜들을 자동으로 구현하는 단계; 또는
상기 하나 또는 그 이상의 강화된 머신 러닝 모델들을 제공하기 위해 사용될 하나 또는 그 이상의 적대적 보호 프로토콜들을, 사용자로부터, 수신하는 단계를 더 수행하게 하는
시스템. - 하나의 프로세서에 의해 컴퓨팅 환경에서 훈련된 머신 러닝 모델을 보호하기 위한 컴퓨터 판독가능 프로그램 코드 부분들을 저장하는 비-일시적인 컴퓨터 판독가능 스토리지 매체에 있어서, 상기 컴퓨터 판독가능 프로그램 코드 부분들은:
하나 또는 그 이상의 이전에(previously) 훈련된 머신 러닝 모델들에 적대적 보호(adversarial protection)를 추가하여 적대적 공격들에 대해서(against) 보호되는 하나 또는 그 이상의 강화된 머신 러닝 모델들을 제공하는 단계 - 상기 하나 또는 그 이상의 강화된 머신 러닝 모델들은, 적대적 샘플들에 대한 무한 놈(an infinity norm) 제약을 갖는 프로젝트된 경사 하강 화이트-박스 공격(a projected gradient descent white-box attack)을 사용하는 명시된 프로토콜에 따라, 반복적으로 재-훈련함으로써 생성되며, 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들은 현재 재-훈련 반복 전에 상기 하나 또는 그 이상의 훈련된 머신 러닝 모델들에 이전에 입력되지 않은 훈련 데이터의 미니-배치들로부터 선택된 우호적 샘플들(benign examples)에 대한 상기 적대적 샘플들의 비율을 사용하고, 상기 적대적 샘플들의 비율은 각각의 후속 재-훈련 반복들을 위해 사용할 상기 훈련 데이터의 미니-배치들로부터 선택하기 위한 상기 적대적 샘플들 및 우호적 샘플들(benign samples)의 양을 나타내는 코사인 스케줄(a cosine schedule)에 따라 각각의 재-훈련 반복 동안 점진적으로 증가됨-;
재-훈련되는 동안 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들의 각 상태를 모니터하고 추적하는 단계(monitoring and tracking);
상기 재-훈련 동안 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 대한 훈련 붕괴(a training collapse)를 감지하는 단계(detecting); 또는
상기 재-훈련 동안 상기 하나 또는 그 이상의 훈련된 머신 러닝 모델들에 대해 하나 또는 그 이상의 롤백 전략들(roll-back strategies)을 활성화하는 단계(enabling)를 수행하는 실행가능 부분을 포함하는
비-일시적인 컴퓨터 판독가능 스토리지 매체. - 제 13항에 있어서, 상기 컴퓨터 판독가능 프로그램 코드 부분들은:
상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들을 수신하는 단계; 그리고
하나 또는 그 이상의 적대적 보호 프로토콜들에 기초하여 상기 적대적 보호를 포함하도록 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들을 재-훈련을 수행하는 단계를 수행하는 실행가능 부분을 더 포함하는
비-일시적인 컴퓨터 판독가능 스토리지 매체. - 제 13항에 있어서, 상기 컴퓨터 판독가능 프로그램 코드 부분들은 상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 전-처리 계층들(preprocessing layers)을 추가하는 단계를 수행하는 실행가능 부분을 더 포함하고, 적대적 보호 강도의 정도는 상기 하나 또는 그 이상의 전-처리 계층들 각각에서 조정되는(adjusted)
비-일시적인 컴퓨터 판독가능 스토리지 매체. - 제 13항에 있어서, 상기 컴퓨터 판독가능 프로그램 코드 부분들은:
상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 신경망 계층들을 추가하는 단계; 또는
상기 하나 또는 그 이상의 이전에 훈련된 머신 러닝 모델들에 하나 또는 그 이상의 후-처리 출력 계층들(post-processing output layers)을 추가하는 단계를 수행하는 실행가능 부분을 더 포함하고, 상기 하나 또는 그 이상의 후-처리 출력 계층들은 하나 또는 그 이상의 적대적 보호 프로토콜들에 기초하여 상기 적대적 보호로 재-훈련되는
비-일시적인 컴퓨터 판독가능 스토리지 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/601,451 US11334671B2 (en) | 2019-10-14 | 2019-10-14 | Adding adversarial robustness to trained machine learning models |
US16/601,451 | 2019-10-14 | ||
PCT/IB2020/059559 WO2021074770A1 (en) | 2019-10-14 | 2020-10-12 | Adding adversarial robustness to trained machine learning models |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220054812A KR20220054812A (ko) | 2022-05-03 |
KR102692100B1 true KR102692100B1 (ko) | 2024-08-05 |
Family
ID=75383118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227008142A KR102692100B1 (ko) | 2019-10-14 | 2020-10-12 | 훈련된 머신 러닝 모델에 적대적 견고성 추가 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11334671B2 (ko) |
JP (1) | JP7537709B2 (ko) |
KR (1) | KR102692100B1 (ko) |
CN (1) | CN114503108A (ko) |
AU (1) | AU2020368222B2 (ko) |
GB (1) | GB2604791B (ko) |
WO (1) | WO2021074770A1 (ko) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112334917A (zh) * | 2018-12-31 | 2021-02-05 | 英特尔公司 | 对采用人工智能的系统进行防护 |
US20230067824A1 (en) * | 2020-03-06 | 2023-03-02 | Nec Corporation | Preference inference device, preference inference method, and preference inference program |
US11675896B2 (en) * | 2020-04-09 | 2023-06-13 | International Business Machines Corporation | Using multimodal model consistency to detect adversarial attacks |
US20220100867A1 (en) * | 2020-09-30 | 2022-03-31 | International Business Machines Corporation | Automated evaluation of machine learning models |
US12019747B2 (en) * | 2020-10-13 | 2024-06-25 | International Business Machines Corporation | Adversarial interpolation backdoor detection |
US11785024B2 (en) * | 2021-03-22 | 2023-10-10 | University Of South Florida | Deploying neural-trojan-resistant convolutional neural networks |
JP2024517124A (ja) * | 2021-04-19 | 2024-04-19 | ディープキープ リミテッド | 機械学習、人工知能、および深層学習のユニットを保護するためのデバイス、システム、および方法 |
EP4348508A1 (en) * | 2021-05-31 | 2024-04-10 | Microsoft Technology Licensing, LLC | Merging models on an edge server |
US20230134546A1 (en) * | 2021-10-29 | 2023-05-04 | Oracle International Corporation | Network threat analysis system |
CN114355936A (zh) * | 2021-12-31 | 2022-04-15 | 深兰人工智能(深圳)有限公司 | 智能体的控制方法、装置、智能体及计算机可读存储介质 |
CN114358282B (zh) * | 2022-01-05 | 2024-10-29 | 深圳大学 | 深度网络对抗鲁棒性提升模型、构建方法、设备、介质 |
CN114694222B (zh) * | 2022-03-28 | 2023-08-18 | 马上消费金融股份有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
GB2621838A (en) * | 2022-08-23 | 2024-02-28 | Mindgard Ltd | Method and system |
KR102753131B1 (ko) * | 2022-09-19 | 2025-01-14 | 호서대학교 산학협력단 | 악성코드 변종 분석을 위한 ai 모델의 견고성 측정 시스템 및 어플리케이션 |
EP4425384A1 (en) * | 2023-02-28 | 2024-09-04 | Fujitsu Limited | Training deep belief networks |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019014487A1 (en) * | 2017-07-12 | 2019-01-17 | The Regents Of The University Of California | DETECTION AND PREVENTION OF DEEP ANTAGONIST LEARNING |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08339360A (ja) * | 1995-06-13 | 1996-12-24 | Hitachi Ltd | ニューラルネットを応用した学習システム |
EP0974660A1 (en) | 1998-06-19 | 2000-01-26 | Stichting Instituut voor Dierhouderij en Diergezondheid (ID-DLO) | Newcastle disease virus infectious clones, vaccines and diagnostic assays |
JP2000181893A (ja) | 1998-12-11 | 2000-06-30 | Toshiba Mach Co Ltd | ニューラルネットワークの構成方法 |
US20150134966A1 (en) | 2013-11-10 | 2015-05-14 | Sypris Electronics, Llc | Authentication System |
US9619749B2 (en) | 2014-03-06 | 2017-04-11 | Progress, Inc. | Neural network and method of neural network training |
US20160321523A1 (en) | 2015-04-30 | 2016-11-03 | The Regents Of The University Of California | Using machine learning to filter monte carlo noise from images |
EP3400419A2 (en) | 2016-01-05 | 2018-11-14 | Mobileye Vision Technologies Ltd. | Trained navigational system with imposed constraints |
US20180005136A1 (en) | 2016-07-01 | 2018-01-04 | Yi Gai | Machine learning in adversarial environments |
CN107463951A (zh) * | 2017-07-19 | 2017-12-12 | 清华大学 | 一种提高深度学习模型鲁棒性的方法及装置 |
CN107390949B (zh) * | 2017-09-13 | 2020-08-07 | 广州视源电子科技股份有限公司 | 获取触摸屏基准资料的方法和装置、存储介质及触摸显示系统 |
US10657259B2 (en) | 2017-11-01 | 2020-05-19 | International Business Machines Corporation | Protecting cognitive systems from gradient based attacks through the use of deceiving gradients |
CN108304858B (zh) | 2017-12-28 | 2022-01-04 | 中国银联股份有限公司 | 对抗样本识别模型生成方法、验证方法及其系统 |
US11315012B2 (en) | 2018-01-12 | 2022-04-26 | Intel Corporation | Neural network training using generated random unit vector |
CN108099598A (zh) | 2018-01-29 | 2018-06-01 | 三汽车起重机械有限公司 | 用于起重机的驱动装置及起重机 |
CA3033014A1 (en) * | 2018-02-07 | 2019-08-07 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
CN108322349B (zh) | 2018-02-11 | 2021-04-06 | 浙江工业大学 | 基于对抗式生成网络的深度学习对抗性攻击防御方法 |
CN108537271B (zh) | 2018-04-04 | 2021-02-05 | 重庆大学 | 一种基于卷积去噪自编码机防御对抗样本攻击的方法 |
CN108615048B (zh) | 2018-04-04 | 2020-06-23 | 浙江工业大学 | 基于扰动进化对图像分类器对抗性攻击的防御方法 |
US11520899B2 (en) * | 2018-05-17 | 2022-12-06 | Royal Bank Of Canada | System and method for machine learning architecture with adversarial attack defense |
US10861439B2 (en) * | 2018-10-22 | 2020-12-08 | Ca, Inc. | Machine learning model for identifying offensive, computer-generated natural-language text or speech |
US20200125928A1 (en) * | 2018-10-22 | 2020-04-23 | Ca, Inc. | Real-time supervised machine learning by models configured to classify offensiveness of computer-generated natural-language text |
US11526746B2 (en) * | 2018-11-20 | 2022-12-13 | Bank Of America Corporation | System and method for incremental learning through state-based real-time adaptations in neural networks |
US11481617B2 (en) * | 2019-01-22 | 2022-10-25 | Adobe Inc. | Generating trained neural networks with increased robustness against adversarial attacks |
CN110008680B (zh) * | 2019-04-03 | 2020-11-13 | 华南师范大学 | 基于对抗样本的验证码生成系统及方法 |
EP3944159A1 (en) * | 2020-07-17 | 2022-01-26 | Tata Consultancy Services Limited | Method and system for defending universal adversarial attacks on time-series data |
-
2019
- 2019-10-14 US US16/601,451 patent/US11334671B2/en active Active
-
2020
- 2020-10-12 CN CN202080070524.1A patent/CN114503108A/zh active Pending
- 2020-10-12 KR KR1020227008142A patent/KR102692100B1/ko active IP Right Grant
- 2020-10-12 JP JP2022521116A patent/JP7537709B2/ja active Active
- 2020-10-12 GB GB2207000.7A patent/GB2604791B/en active Active
- 2020-10-12 WO PCT/IB2020/059559 patent/WO2021074770A1/en active Application Filing
- 2020-10-12 AU AU2020368222A patent/AU2020368222B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019014487A1 (en) * | 2017-07-12 | 2019-01-17 | The Regents Of The University Of California | DETECTION AND PREVENTION OF DEEP ANTAGONIST LEARNING |
Non-Patent Citations (1)
Title |
---|
Jonathan Hui, "GAN - Unrolled GAN (How to reduce mode collapse)"(2018.06.)* |
Also Published As
Publication number | Publication date |
---|---|
GB202207000D0 (en) | 2022-06-29 |
JP2022552243A (ja) | 2022-12-15 |
GB2604791A (en) | 2022-09-14 |
US20210110045A1 (en) | 2021-04-15 |
CN114503108A (zh) | 2022-05-13 |
KR20220054812A (ko) | 2022-05-03 |
JP7537709B2 (ja) | 2024-08-21 |
WO2021074770A1 (en) | 2021-04-22 |
GB2604791B (en) | 2024-03-13 |
AU2020368222B2 (en) | 2023-11-23 |
AU2020368222A1 (en) | 2022-03-31 |
US11334671B2 (en) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102692100B1 (ko) | 훈련된 머신 러닝 모델에 적대적 견고성 추가 | |
US11036857B2 (en) | Protecting a machine learning model | |
CN111476264B (zh) | 访问受限的系统的对抗鲁棒性的测试 | |
CN114270349B (zh) | 用于加固机器学习模型的学习输入预处理 | |
US11397891B2 (en) | Interpretability-aware adversarial attack and defense method for deep learnings | |
US11681914B2 (en) | Determining multivariate time series data dependencies | |
US12101341B2 (en) | Quantum computing machine learning for security threats | |
US11468334B2 (en) | Closed loop model-based action learning with model-free inverse reinforcement learning | |
US11847546B2 (en) | Automatic data preprocessing | |
US20230206029A1 (en) | Graph Neural Network Ensemble Learning | |
US20210279621A1 (en) | Methods and systems for graph computing with hybrid reasoning | |
US11573785B2 (en) | Predicting code vulnerabilities using machine learning classifier models trained on internal analysis states | |
US11526791B2 (en) | Methods and systems for diverse instance generation in artificial intelligence planning | |
US11275974B2 (en) | Random feature transformation forests for automatic feature engineering | |
US20210056457A1 (en) | Hyper-parameter management | |
US20230325469A1 (en) | Determining analytical model accuracy with perturbation response | |
CN114424216A (zh) | 域特定模型压缩 | |
KR102765579B1 (ko) | 보안 위협에 대한 양자 컴퓨팅 머신 러닝 | |
US20230108135A1 (en) | Neuro-symbolic reinforcement learning with first-order logic |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20220311 Patent event code: PA01051R01D Comment text: International Patent Application |
|
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220331 Comment text: Request for Examination of Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240229 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240625 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240731 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240801 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |