KR20230051952A - 이미지 적대적 공격에 강인한 이미지 학습 장치 및 방법 - Google Patents
이미지 적대적 공격에 강인한 이미지 학습 장치 및 방법 Download PDFInfo
- Publication number
- KR20230051952A KR20230051952A KR1020210134957A KR20210134957A KR20230051952A KR 20230051952 A KR20230051952 A KR 20230051952A KR 1020210134957 A KR1020210134957 A KR 1020210134957A KR 20210134957 A KR20210134957 A KR 20210134957A KR 20230051952 A KR20230051952 A KR 20230051952A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- neural network
- filter
- convolutional neural
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000013528 artificial neural network Methods 0.000 claims abstract description 84
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 76
- 238000013138 pruning Methods 0.000 claims abstract description 29
- 244000141353 Prunus domestica Species 0.000 claims abstract description 7
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 241000282326 Felis catus Species 0.000 description 7
- 230000007257 malfunction Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000000644 propagated effect Effects 0.000 description 6
- 241000283690 Bos taurus Species 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 4
- 241000272184 Falconiformes Species 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 학습 장치 및 방법이 적용되는 신경망의 구조를 나타낸 도면.
도 3은 본 발명의 일 실시예에 따른 이미지 적대적 공격에 강인한 학습 장치의 구조를 나타낸 블록도.
도 4는 본 발명의 일 실시예에 따른 정상 이미지 학습부의 구조를 나타낸 블록도.
도 5는 본 발명의 일 실시예에 따른 적대적 이미지 그래디언트 획득부의 구조를 나타낸 도면.
도 6은 본 발명의 일 실시예에 따른 필터 프루닝이 이루어지는 개념을 나타낸 도면.
도 7은 본 발명의 일 실시예에 따른 이미지 적대적 공격에 대응하기 위한 학습 방법의 전체적인 흐름을 도시한 순서도.
Claims (12)
- 정상적인 이미지에 대한 학습을 통해 콘볼루션 신경망 및 FC 신경망의 가중치를 설정하는 정상 이미지 학습부;
상기 학습된 콘볼루션 신경망에 적대적 공격으로 훼손된 이미지를 입력하고 상기 적대적 공격으로 훼손된 이미지로 인해 발생하는 손실 그래디언트 크기를 상기 콘볼루션 신경망의 필터별로 획득하는 적대적 이미지 그래디언트 획득부;
상기 필터별 손실 그래디언트 크기에 기초하여 상기 콘볼루션 신경망의 필터들 중 일부를 프루닝하는 필터 프루닝부;
상기 필터 프루닝에 수정된 콘볼루션 신경망 및 상기 FC 신경망을 상기 정상적인 이미지를 이용하여 재학습하는 재학습부를 포함하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 장치
- 제1항에 있어서,
상기 적대적 이미지 그래디언트 획득부는 상기 적대적 공격으로 훼손된 이미지를 입력하여 상기 FC 신경망에서 출력하는 특징값과 정답 라벨과의 손실을 역전파하면서 발생하는 손실 그래디언트들을 연산하는 손실 그래디언트 연산부; 및
상기 콘볼루션 신경망의 필터별로 상기 손실 그래디언트들을 획득하고, 상기 획득된 손실 그래디언트들의 크기를 필터별로 획득하는 필터별 그래디언트 크기 획득부를 포함하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 장치.
- 제2항에 있어서,
상기 필터별 그래디언트 크기 획득부는 상기 필터별 그래디언트들의 L2 norm을 연산하여 상기 필터별 그래디언트 크기를 획득하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 장치.
- 제2항에 있어서,
상기 필터 프루닝부는 그래디언트의 크기가 경계값 이상인 필터들을 프루닝하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 장치.
- 제4항에 있어서,
상기 경계값은 필터들의 그래디언트 크기들에 기초하여 적응적으로 설정되는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 장치.
- 제2항에 있어서,
상기 재학습부는 상기 수정된 콘볼루션 신경망 및 상기 FC 신경망을 통해 출력되는 특징값과 상기 정답 라벨과의 비교를 통해 상기 수정된 콘볼루션 신경망의 가중치를 재설정하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 장치.
- 정상적인 이미지에 대한 학습을 통해 콘볼루션 신경망 및 FC 신경망의 가중치를 설정하는 단계(a);
상기 학습된 콘볼루션 신경망에 적대적 공격으로 훼손된 이미지를 입력하고 상기 적대적 공격으로 훼손된 이미지로 인해 발생하는 손실 그래디언트 크기를 상기 콘볼루션 신경망의 필터별로 획득하는 단계(b);
상기 필터별 손실 그래디언트 크기에 기초하여 상기 콘볼루션 신경망의 필터들 중 일부를 프루닝하는 단계(c);
상기 단계(c)에 의해 수정된 콘볼루션 신경망 및 상기 FC 신경망을 상기 정상적인 이미지를 이용하여 재학습하는 단계(d)를 포함하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 방법.
- 제7항에 있어서,
상기 단계(b)는 상기 적대적 공격으로 훼손된 이미지를 입력하여 상기 FC 신경망에서 출력하는 특징값과 정답 라벨과의 손실을 역전파하면서 발생하는 손실 그래디언트들을 연산하는 단계; 및
상기 콘볼루션 신경망의 필터별로 상기 손실 그래디언트들을 획득하고, 상기 획득된 손실 그래디언트들의 크기를 필터별로 획득하는 단계를 포함하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 방법.
- 제8항에 있어서,
상기 손실 그래디언트들의 크기를 필터별로 획득하는 단계는 상기 필터별 그래디언트들의 L2 norm을 연산하여 상기 필터별 그래디언트 크기를 획득하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 방법.
- 제8항에 있어서,
상기 단계(c)는 그래디언트의 크기가 경계값 이상인 필터들을 프루닝하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 방법.
- 제8항에 있어서,
상기 단계(c)는 그래디언트의 크기가 경계값 이상인 필터들을 프루닝하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 방법.
- 제8항에 있어서,
상기 단계(d)는 상기 수정된 콘볼루션 신경망 및 상기 FC 신경망을 통해 출력되는 특징값과 상기 정답 라벨과의 비교를 통해 상기 수정된 콘볼루션 신경망의 가중치를 재설정하는 것을 특징으로 하는 이미지 적대적 공격에 강인한 이미지 학습 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210134957A KR102613916B1 (ko) | 2021-10-12 | 2021-10-12 | 이미지 적대적 공격에 강인한 이미지 학습 장치 및 방법 |
PCT/KR2022/015326 WO2023063693A1 (ko) | 2021-10-12 | 2022-10-12 | 이미지 적대적 공격에 강인한 이미지 학습 장치 및 방법 |
US18/700,261 US20250021824A1 (en) | 2021-10-12 | 2022-10-12 | Image training device and method robust to image adversarial attack |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210134957A KR102613916B1 (ko) | 2021-10-12 | 2021-10-12 | 이미지 적대적 공격에 강인한 이미지 학습 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230051952A true KR20230051952A (ko) | 2023-04-19 |
KR102613916B1 KR102613916B1 (ko) | 2023-12-13 |
Family
ID=85988437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210134957A Active KR102613916B1 (ko) | 2021-10-12 | 2021-10-12 | 이미지 적대적 공격에 강인한 이미지 학습 장치 및 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20250021824A1 (ko) |
KR (1) | KR102613916B1 (ko) |
WO (1) | WO2023063693A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2025037688A1 (ko) * | 2023-08-14 | 2025-02-20 | 한국과학기술원 | 적대적 강인성을 위한 특징 분리 및 재보정 방법 및 시스템 |
KR20250084396A (ko) | 2023-12-04 | 2025-06-11 | 한국전자통신연구원 | 적대적 공격에 강인한 딥러닝 네트워크 학습 장치 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190244103A1 (en) * | 2018-02-07 | 2019-08-08 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102225308B1 (ko) * | 2017-11-28 | 2021-03-09 | 주식회사 날비컴퍼니 | 컨볼루션 신경망 내 필터 프루닝 장치 및 방법 |
-
2021
- 2021-10-12 KR KR1020210134957A patent/KR102613916B1/ko active Active
-
2022
- 2022-10-12 US US18/700,261 patent/US20250021824A1/en active Pending
- 2022-10-12 WO PCT/KR2022/015326 patent/WO2023063693A1/ko active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190244103A1 (en) * | 2018-02-07 | 2019-08-08 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
Non-Patent Citations (1)
Title |
---|
HAO LI Et al., Pruning Filters for Efficient Convnets, arXiv:1608.08710v3 [cs.CV], 1-13pages (2017.03.10.)* * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2025037688A1 (ko) * | 2023-08-14 | 2025-02-20 | 한국과학기술원 | 적대적 강인성을 위한 특징 분리 및 재보정 방법 및 시스템 |
KR20250084396A (ko) | 2023-12-04 | 2025-06-11 | 한국전자통신연구원 | 적대적 공격에 강인한 딥러닝 네트워크 학습 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2023063693A1 (ko) | 2023-04-20 |
US20250021824A1 (en) | 2025-01-16 |
KR102613916B1 (ko) | 2023-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488789B (zh) | 用于基于图像分析的监视的行人检测方法及装置 | |
US12327404B2 (en) | Object detection apparatus using an image preprocessing artificial neural network model | |
US20100121798A1 (en) | Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method | |
EP3861482A1 (en) | Verification of classification decisions in convolutional neural networks | |
US20250021824A1 (en) | Image training device and method robust to image adversarial attack | |
CN110349190A (zh) | 自适应学习的目标跟踪方法、装置、设备及可读存储介质 | |
KR20200027887A (ko) | 복수의 비디오 프레임을 이용하여 cnn의 파라미터를 최적화하기 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20190080818A (ko) | 부분 확률맵을 포함하는 딥 러닝 기반 객체 검출 방법 및 장치 | |
CN114549913A (zh) | 一种语义分割方法、装置、计算机设备和存储介质 | |
KR102727359B1 (ko) | 이미지 적대적 공격에 대비하기 위한 이미지 학습 장치 및 방법 | |
CN116206151A (zh) | 一种图像分类残差神经网络训练实现方法 | |
JP7047778B2 (ja) | ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、及び、ニューラルネットワーク学習プログラム | |
CN112733754A (zh) | 红外夜视图像行人检测方法、电子设备及存储介质 | |
US12340550B2 (en) | Techniques for unsupervised anomaly classification using an artificial intelligence model | |
CN117892802A (zh) | 模型增量学习方法、设备及存储介质 | |
CN117557835A (zh) | 基于形式化验证的图像分类神经网络后门移除方法及装置 | |
CN115203690A (zh) | 一种基于异常偏差类神经元的深度学习模型安全加固方法 | |
CN113806754A (zh) | 一种后门防御方法和系统 | |
WO2022063840A1 (en) | A method of training a submodule and preventing capture of an ai module | |
CN113255768A (zh) | 一种提升卷积神经网络鲁棒性能的方法 | |
KR102763479B1 (ko) | 재귀 구조를 가지는 이미지 분류용 다중 확장 컨볼루션 심층 신경망 구성 방법 및 이러한 방법을 수행하는 장치 | |
US20240061932A1 (en) | A Method of Training a Submodule and Preventing Capture of an AI Module | |
JP7365261B2 (ja) | コンピュータシステムおよびプログラム | |
KR102754972B1 (ko) | 차량 번호판 문자열 인식을 위한 장치 및 방법 | |
KR102322927B1 (ko) | 인공신경망을 이용한 진단 영상을 구분하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211012 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230616 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20231002 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20231211 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20231211 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |