KR102306081B1 - 위장패턴 생성 장치 및 방법 - Google Patents

위장패턴 생성 장치 및 방법 Download PDF

Info

Publication number
KR102306081B1
KR102306081B1 KR1020210087265A KR20210087265A KR102306081B1 KR 102306081 B1 KR102306081 B1 KR 102306081B1 KR 1020210087265 A KR1020210087265 A KR 1020210087265A KR 20210087265 A KR20210087265 A KR 20210087265A KR 102306081 B1 KR102306081 B1 KR 102306081B1
Authority
KR
South Korea
Prior art keywords
deep learning
learning model
loss function
camouflage pattern
image
Prior art date
Application number
KR1020210087265A
Other languages
English (en)
Inventor
이형근
이경민
김정훈
오세윤
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020210087265A priority Critical patent/KR102306081B1/ko
Application granted granted Critical
Publication of KR102306081B1 publication Critical patent/KR102306081B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H3/00Camouflage, i.e. means or methods for concealment or disguise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

일 실시예에 따른 위장패턴 생성 장치가 수행하는 위장패턴 생성 방법은, 적대적 공격을 위한 임의의 위장패턴이 포함된 객체를 이미지로 렌더링하는 단계와, 물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하는 단계와, 상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하는 단계와, 상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는 단계를 포함한다.

Description

위장패턴 생성 장치 및 방법{METHOD AND APPARATUS FOR GENERATING CAMOUFLAGE PATTERNS}
본 발명은 위장패턴을 생성하는 장치와 이러한 장치에서 위장패턴을 생성하는 방법에 관한 것이다.
주지하고 있는 바와 같이, 딥러닝 모델은 이미지 인식, 물체 탐지, 자연어 처리 등 여러 분야에서 빠르게 발전하고 있지만, 적대적 공격(Adversarial Attack)에 취약하다. 적대적 공격이란 사람이 인지하기 어려운 아주 작은 노이즈를 고의적으로 생성해 이미지에 더하거나 물체에 패치를 붙여 모델을 기만하는 방법을 일컫는다. 따라서 적대적 공격은 딥러닝 모델의 보안 및 안정성에 큰 위협이 되며, 이는 무기체계에 딥러닝을 도입할 때 큰 문제로 작용된다. 하지만 반대로 적대적 공격을 통해서 적군의 딥러닝 모델을 기만할 수 있기 때문에 적대적 공격 기술에 대한 수요는 증가하고 있다.
종래의 딥러닝 모델에 대한 적대적 공격은 크게 이미지에 대한 공격을 수행하는 디지털 공격과 물체에 직접 위장패턴을 입히거나 패치를 붙여 수행하는 물리적 공격이 있다. 적대적 공격은 최적화를 통해 진행되는데, 디지털 공격은 최적화가 수월하기 때문에 그 공격 성능이 우수하지만, 실제 적용되기엔 어렵다. 반대로 물리적 공격은 실제 물체를 조작하기 때문에 최적화가 매우 어렵지만, 실제 적용될 경우에 그 파급효과가 매우 클 것임을 쉽게 유추할 수 있다.
적대적 공격은 특정 모델에 대해 수행되는데, 이는 여러 모델을 합쳐놓은 앙상블(ensemble) 모델을 공격함으로써 적용이 확장될 수 있다. 하지만 특정 물체에 대해 적대적 공격을 수행하게 되면, 적대적 공격을 수행하는 대상 또한 탐지 및 인식이 어려워진다. 예를 들어, 적대적 위장패턴을 생성한 이후에 무기체계에 배치했을 때, 적군이 아군의 물체를 탐지하지 못하게 할 수 있지만, 아군의 모델 또한 아군의 물체를 탐지하기 어려워 지능형 무기체계의 운용에 큰 제약이 될 수 있다.
대한민국 등록특허공보 제10-1810479호, 등록일자 2017년 12월 13일.
일 실시예에 따르면, 특정 모델에 대해서는 적대적 공격을 수행하고, 반대로 특정 모델에 대해서는 우호적인 위장패턴을 생성함으로써, 적군의 모델을 기만하며 아군의 모델은 성능을 강화시킬 수 있는 위장패턴을 생성하는 장치 및 방법을 제공한다.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
제 1 관점에 따른 위장패턴 생성 장치가 수행하는 위장패턴 생성 방법은, 적대적 공격을 위한 임의의 위장패턴(camouflage c)이 포함된 객체(object)를 이미지로 렌더링하는 단계와, 물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하는 단계와, 상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하는 단계와, 상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는 단계를 포함한다.
제 2 관점에 따른 위장패턴 생성 장치는, 이미지 데이터가 입력되는 입력부와, 물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들을 포함하는 딥러닝 모델부와, 상기 이미지 데이터를 이용하여 상기 딥러닝 모델들을 학습시키는 프로세서부를 포함하고, 상기 프로세서부는, 적대적 공격을 위한 임의의 위장패턴이 포함된 객체를 이미지로 렌더링하며, 상기 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하고, 상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하며, 상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화한다.
제 3 관점에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이, 프로세서에 의해 실행되면, 적대적 공격을 위한 임의의 위장패턴이 포함된 객체를 이미지로 렌더링하는 단계와, 물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하는 단계와, 상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하는 단계와, 상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.
제 4 관점에 따른 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램은, 상기 컴퓨터 프로그램이, 프로세서에 의해 실행되면, 적대적 공격을 위한 임의의 위장패턴이 포함된 객체를 이미지로 렌더링하는 단계와, 물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하는 단계와, 상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하는 단계와, 상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.
본 발명의 일 실시예에 의하면, 특정 모델에 대해서는 적대적 공격을 수행하고, 반대로 특정 모델에 대해서는 우호적인 위장패턴을 생성함으로써, 적군의 모델을 기만하며 아군의 모델은 성능을 강화시킬 수 있다.
일 실시예에 따라 생성한 위장패턴을 물체에 입히면 특정 모델의 성능을 극대화시킬 수 있다. 또한 이를 통해 안개, 눈, 비와 같은 극한의 환경에서도 그 성능 하락을 최소화할 수 있다.
동시에, 반대로 특정 모델에 대해서는 적대적 공격을 수행할 수 있다. 따라서 이는 적군의 감시체계를 기만하는 기술로 파생될 수 있다. 예를 들어, 전차나 장갑차 등 대형 무기체계 및 군복과 같은 소형 무기체계에 위장무늬로 활용되어 아군의 모델에서는 잘 인지되나, 적군의 모델을 기만할 수 있다.
이러한 본 발명의 실시예에 따르면, 특정 모델이 편향되어 있는 특징(feature)을 분석할 수 있다. 적대적 공격은 모델과 사람의 추출된 특징들이 올바르게 매칭되지 않아서 생기는 문제다. 따라서 본 발명의 실시예에 따라 생성한 위장패턴을 분석한 결과에 기초하여 모델 별로 어떤 특징에 편향이 되어있는지를 확인해, 추후에 사람의 판단과 더 유사한 판단을 내리는 인공지능 모델을 개발할 때 큰 도움이 될 수 있다.
도 1은 본 발명의 일 실시예에 따른 위장패턴 생성 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 위장패턴 생성 장치가 수행하는 위장패턴 생성 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따라 생성한 적대적 위장의 위장 적용 효과를 설명하기 위한 개념도이다.
도 4는 본 발명의 일 실시예에 따라 생성한 적대적 위장 및 패치 적용에 따른 데이터 분포의 변화를 나타낸 개념도이다.
도 5는 원본 이미지와 본 발명의 일 실시예에 따른 적대적 위장패턴이 적용된 이미지의 예시도이다.
도 6은 본 발명의 일 실시예에 따른 적대적 위장패턴을 통한 탐지 모델의 성능 조절 결과를 나타낸 그래프들이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 ‘포함’한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 ‘부’라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, ‘부’는 어떤 역할들을 수행한다. 그렇지만 ‘부’는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. ‘부’는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 ‘부’는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 ‘부’들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 ‘부’들로 결합되거나 추가적인 구성요소들과 ‘부’들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1은 본 발명의 일 실시예에 따른 위장패턴 생성 장치(100)의 구성도이다.
도 1을 참조하면, 일 실시예에 따른 위장패턴 생성 장치(100)는 입력부(110), 딥러닝 모델부(120) 및 프로세서부(130)를 포함한다. 그리고, 위장패턴 생성 장치(100)는 저장부(140) 및/또는 제공부(150)를 더 포함할 수 있다.
입력부(110)로는 이미지 데이터가 입력되고, 입력부(110)는 입력된 이미지 데이터를 딥러닝 모델부(120) 및/또는 프로세서부(130)에 제공한다.
딥러닝 모델부(120)는 물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들을 포함한다. 예를 들어, 딥러닝 모델부(120)는 심층신경망(Deep Neural Network; DNN), 나선형 신경망(즉, Convolutional Neural Network; CNN), 순환형 신경망(Recurrent Neural Network; RNN) 중 적어도 하나를 포함하는 신경망 구조로 형성될 수 있다. 다만, 신경망의 구조가 예시된 것들에 한정되는 것은 아니다.
프로세서부(130)는 입력부(110)로부터 제공받은 이미지 데이터를 이용하여 딥러닝 모델들을 학습시킨다. 예를 들어, 프로세서부(130)는 마이크로프로세서 등과 같은 컴퓨팅연산수단을 포함할 수 있다.
이러한 프로세서부(130)는 적대적 공격을 위한 임의의 위장패턴이 포함된 객체를 이미지로 렌더링한다. 예를 들어, 프로세서부(130)는 객체의 표면에 임의의 위장패턴을 부착한 객체에 대한 복수의 뷰(view) 중 어느 하나의 뷰를 랜덤하게 선택해 이미지로 렌더링할 수 있다.
그리고, 프로세서부(130)는 딥러닝 모델부(120)의 딥러닝 모델들 중 성능 상향이 요구되는 제 1 딥러닝 모델을 성능 상향 대상으로 선정하고, 성능 하향이 요구되는 제 2 딥러닝 모델을 성능 하향 대상으로 선정한다.
그리고, 프로세서부(130)는 렌더링된 이미지를 제 1 딥러닝 모델과 제 2 딥러닝 모델에 각각 입력한 결과에 기초하여, 제 1 딥러닝 모델과 제 2 딥러닝 모델의 대표 손실함수를 각각 정의한다. 예를 들어, 프로세서부(130)는 제 1 딥러닝 모델과 제 2 딥러닝 모델에 입력한 i번째 이미지에 대한 손실함수를 정의하고, 각 이미지들에 대해 정의된 손실함수들의 평균값을 제 1 딥러닝 모델과 제 2 딥러닝 모델의 대표 손실함수로 정의할 수 있다.
그리고, 프로세서부(130)는 제 1 딥러닝 모델과 제 2 딥러닝 모델에 대해 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의한다. 예를 들어, 프로세서부(130)는 제 1 딥러닝 모델에 대한 대표 손실함수에 1을 곱한 값과 제 2 딥러닝 모델에 대한 대표 손실함수에 -1을 곱한 값을 합산한 결과를 전체 손실함수로 정의할 수 있다. 여기서, 상황에 따라 각각의 대표 손실함수에 가중치를 더할 수 있다. 예컨대, 프로세서부(130)는 제 1 딥러닝 모델에 대한 대표 손실함수와 제 2 딥러닝 모델에 대한 대표 손실함수 중 적어도 하나에 가중치를 더하여 전체 손실함수를 정의할 수 있다.
다음으로, 프로세서부(130)는 정의된 전체 손실함수가 최소화되도록 위장패턴을 최적화한다. 그리고, 프로세서부(130)는 최적화 결과물을 저장부(140)에 저장할 수 있다. 또는, 프로세서부(130)는 제공부(150)를 제어하여 최적화 결과물을 외부에 제공할 수 있다.
저장부(140)에는 프로세서부(130)에 의한 각종 처리 결과가 저장될 수 있다. 예를 들어, 저장부(140)는 EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 롬(Read-Only Memory, ROM), 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory) 중 적어도 하나의 컴퓨터 판독 가능한 저장매체를 포함할 수 있다.
제공부(150)는 프로세서부(130)에 의한 각종 처리 결과를 프로세서부(130)의 제어에 따라 외부에 제공할 수 있다. 예를 들어, 제공부(150)는 직렬인터페이스를 포함할 수 있고, 프로세서부(130)의 제어에 따라 직렬인터페이스를 통해 각종 처리 결과를 주변기기에 전송할 수 있다. 또는 제공부(150)는 통신모듈을 포함할 수 있고, 프로세서부(130)의 제어에 따라 통신모듈을 통해 각종 처리 결과를 외부에 송신할 수 있다.
도 2는 본 발명의 일 실시예에 따른 위장패턴 생성 장치100)가 수행하는 위장패턴 생성 방법을 설명하기 위한 흐름도이고, 도 3은 본 발명의 일 실시예에 따라 생성한 적대적 위장의 위장 적용 효과를 설명하기 위한 개념도이며, 도 4는 본 발명의 일 실시예에 따라 생성한 적대적 위장 및 패치 적용에 따른 데이터 분포의 변화를 나타낸 개념도이고, 도 5는 원본 이미지와 본 발명의 일 실시예에 따른 적대적 위장패턴이 적용된 이미지의 예시도이며, 도 6은 본 발명의 일 실시예에 따른 적대적 위장패턴을 통한 탐지 모델의 성능 조절 결과를 나타낸 그래프들이다.
이하, 도 1 내지 도 6을 참조하여 본 발명의 일 실시예에 따른 위장패턴 생성 장치100)가 수행하는 위장패턴 생성 방법에 대하여 자세히 살펴보기로 한다.
먼저, 위장패턴 생성 장치(100)의 프로세서부(130)는 적대적 공격을 위한 임의의 위장패턴이 포함된 객체를 이미지로 렌더링한다. 예를 들어, 프로세서부(130)는 객체의 표면에 임의의 위장패턴을 부착한 객체에 대한 복수의 뷰 중 어느 하나의 뷰를 랜덤하게 선택해 이미지로 렌더링할 수 있다(S210).
그리고, 프로세서부(130)는 딥러닝 모델부(120)의 딥러닝 모델들 중 성능 상향이 요구되는 제 1 딥러닝 모델(
Figure 112021076761464-pat00001
)을 성능 상향 대상으로 선정하고, 성능 하향이 요구되는 제 2 딥러닝 모델(
Figure 112021076761464-pat00002
)을 성능 하향 대상으로 선정한다.
그리고, 프로세서부(130)는 렌더링된 이미지를 제 1 딥러닝 모델(
Figure 112021076761464-pat00003
)과 제 2 딥러닝 모델(
Figure 112021076761464-pat00004
)에 각각 입력한 결과에 기초하여, 제 1 딥러닝 모델(
Figure 112021076761464-pat00005
)과 제 2 딥러닝 모델(
Figure 112021076761464-pat00006
)의 대표 손실함수를 각각 정의한다.
여기서, 프로세서부(130)는 제 1 딥러닝 모델(
Figure 112021076761464-pat00007
)과 제 2 딥러닝 모델(
Figure 112021076761464-pat00008
)에 입력한 i번째 이미지에 대한 손실함수를 정의한다. 여기서, 프로세서부(130)는 단계 S210에서 렌더링된 이미지를 실제 레이블(label), 즉 실측 자료(Ground Truth)와 비교하여 i번째 이미지에 대한 손실함수를 정의할 수 있다.
그리고, 프로세서부(130)는 각 이미지들에 대해 정의된 손실함수들의 평균값을 제 1 딥러닝 모델(
Figure 112021076761464-pat00009
)과 제 2 딥러닝 모델(
Figure 112021076761464-pat00010
)의 대표 손실함수로 정의할 수 있다(S220).
그리고, 프로세서부(130)는 제 1 딥러닝 모델(
Figure 112021076761464-pat00011
)과 제 2 딥러닝 모델(
Figure 112021076761464-pat00012
)에 대해 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의한다. 예를 들어, 프로세서부(130)는 제 1 딥러닝 모델(
Figure 112021076761464-pat00013
)에 대한 대표 손실함수에 1을 곱한 값과 제 2 딥러닝 모델(
Figure 112021076761464-pat00014
)에 대한 대표 손실함수에 -1을 곱한 값을 합산한 결과를 전체 손실함수로 정의할 수 있다. 여기서, 상황에 따라 각각의 대표 손실함수에 가중치를 더할 수 있다. 예컨대, 프로세서부(130)는 제 1 딥러닝 모델(
Figure 112021076761464-pat00015
)에 대한 대표 손실함수와 제 2 딥러닝 모델(
Figure 112021076761464-pat00016
)에 대한 대표 손실함수 중 적어도 하나에 가중치를 더하여 전체 손실함수를 정의할 수 있다(S230).
다음으로, 프로세서부(130)는 정의된 전체 손실함수가 최소화되도록 위장패턴을 최적화한다. 이러한 최적화 과정을 통해, 기합습된 제 1 딥러닝 모델(
Figure 112021076761464-pat00017
)에서는 더 강건하게 객체를 탐지할 수 있지만 기학습된 제 2 딥러닝 모델(
Figure 112021076761464-pat00018
)에서는 낮은 성능으로 객체를 탐지하게 만드는 최적의 적대적 위장패턴을 생성할 수 있다. 그리고, 프로세서부(130)는 최적화 결과물을 저장부(140)에 저장할 수 있다. 또는, 프로세서부(130)는 제공부(150)를 제어하여 최적화 결과물을 외부에 제공할 수 있다. 예를 들어, 프로세서부(130)는 제공부(150)의 직렬인터페이스를 통해 각종 처리 결과를 주변기기에 전송할 수 있다. 또는 프로세서부(130)는 제공부(150)의 통신모듈을 통해 각종 처리 결과를 외부에 송신할 수 있다(S240).
도 3은 본 발명의 일 실시예에 따라 생성한 적대적 위장의 위장 적용 효과를 설명하기 위한 개념도이다. 제 1 딥러닝 모델(
Figure 112021076761464-pat00019
)은 적대적 위장패턴에 최적화하여 학습 성능을 올릴 모델이고, 제 2 딥러닝 모델(
Figure 112021076761464-pat00020
)은 적대적 위장패턴을 통해 공격할 모델이다. 기학습된 제 1 딥러닝 모델(
Figure 112021076761464-pat00021
)과 제 2 딥러닝 모델(
Figure 112021076761464-pat00022
)로 객체를 탐지했을 때 각각 50% 정도의 정확도와 70% 정도의 정확도가 나온다. 각각의 모델의 손실함수를 적용하여 적대적 위장패턴을 적용하게 되면, 성능을 높이고자 한 제 1 딥러닝 모델(
Figure 112021076761464-pat00023
)에 대해서는 80%의 정확도가 도출되며, 성능을 낮추고자 한 제 2 딥러닝 모델(
Figure 112021076761464-pat00024
)에 대해서는 0%의 정확도가 도출된다.
도 4는 본 발명의 일 실시예에 따라 생성한 적대적 위장 및 패치 적용에 따른 데이터 분포의 변화를 나타낸 개념도로서, 본 발명의 일 실시예에 따라 적대적 공격패턴을 생성했을 때, 데이터 분포의 변화 모습을 도식화한 것이다. 2개의 클래스(class)에 대해 각각 기존에 확보된 학습데이터에 불균형이 존재한다고 가정하자. 클래스 1의 학습데이터가 클래스 2의 학습데이터보다 많기 때문에 학습 모델의 편향이 존재하고 상대적으로 클래스 1의 테스트 데이터세트(test dataset)를 높은 성능으로 탐지하게 된다. 두 클래스 간 학습모델 성능 향상을 위해 도메인 랜덤화(domain randomization)를 이용하여 클래스 2의 학습 데이터를 추가 확보한 후 학습하게 되면 클래스 1에 대한 편향이 해소되어 클래스 2에 대한 성능이 올라가지만, 클래스 1의 성능이 하락될 수 있다. 하지만 본 발명의 실시예에 따른 방법을 이용하여 적대적 패턴을 생성한 후 클래스 1 데이터에 적용하게 된다면 기학습된 모델의 성능을 별도의 학습이 없이 증가시킬 수 있다. 추가로 특정 모델에 대해서 성능을 낮추기 위해서는 적대적 패턴을 생성할 시 특정 모델의 손실함수를 추가하면 된다. 위 예시는 피아식별 문제에 적용될 수 있는데, 적군의 데이터 확보가 어렵기 때문에 현재 다양한 데이터 불균형 해소 방법이 제기되고 있지만, 이는 아군 데이터에 대한 성능을 감소시킬 수 있다. 하지만 본 발명의 일 실시예에 따른 방법을 통해서 아군 데이터에 대한 성능을 극대화 시킬 수 있기 때문에, 데이터 불균형 해소를 위한 여러 가지 방법을 유효하게 적용할 수 있다.
도 5는 원본 이미지와 본 발명의 일 실시예에 따른 적대적 위장패턴이 적용된 이미지의 예시도이다. 왼쪽은 CIFAR-10 원본 이미지 예시이고, 오른쪽은 적대적 위장패턴을 적용한 이미지 예시이다. 적대적 위장패턴이 적용된 이미지와 원본 이미지의 차이는
Figure 112021076761464-pat00025
를 만족하는데, 이는 사람이 인식하기 어려운 차이임을 알 수 있다. 하지만 모델의 성능은 크게 개선됨을 실험을 통해 확인할 수 있다.
도 6은 본 발명의 일 실시예에 따른 적대적 위장패턴을 통한 탐지 모델의 성능 조절 결과를 나타낸 그래프들이다. 도 6의 모델 1은 Wide-Resnet이고, 모델 2는 기본 CNN(Convolutional Neural Network)이며, 각각 CIFAR-10 테스트 데이터세트에 대해 각각 74.66%의 정확도 및 41.08%의 정확도를 가지고 있다. 두 모델을 통해 모델 1의 성능을 강화하고 모델 2의 성능을 하락시키는 적대적 공격 생성을 실험해보았으며, 반대로 모델 2의 성능을 강화하고 모델 1의 성능을 하락시키는 공격 생성 실험도 진행하였다. 도 6에는 그 결과가 나타나 있는데, 두 경우 모두 원하는 모델의 성능을 증가시키거나 하락시킬 수 있음을 확인할 수 있다. 적대적 공격패턴을 생성해 이미지에 적용함으로써 모델의 탐지 정확도를 100%와 0%에 가깝게 변형시킬 수 있다. 도 6의 위쪽 그래프에서는 모델 1의 최종 탐지 정확도가 99.58%로 수렴하였고, 모델 2는 0%로 수렴하였으며, 아래쪽 그래프에서는 반대로 모델 1의 최종 탐지 정확도가 5.27%에 도달하였고, 모델 2는 96.63%에 도달함을 확인할 수 있다. 따라서 디지털 공격에 대해 본 발명의 일 실시예에 따른 방법이 유효함을 입증하였으며, 물리적 공격에 대해서도 그 유효함이 유지될 것임은 쉽게 유추할 수 있다.
한편, 전술한 일 실시예에 따른 위장패턴 생성 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록매체에서 구현될 수 있다.
지금까지 설명한 바와 같이, 본 발명의 실시예에 따르면, 특정 모델에 대해서는 적대적 공격을 수행하고, 반대로 특정 모델에 대해서는 우호적인 위장패턴을 생성함으로써, 적군의 모델을 기만하며 아군의 모델은 성능을 강화시킬 수 있다. 일 실시예에 따라 생성한 위장패턴을 물체에 입히면 특정 모델의 성능을 극대화시킬 수 있다. 또한 이를 통해 안개, 눈, 비와 같은 극한의 환경에서도 그 성능 하락을 최소화할 수 있다. 동시에, 반대로 특정 모델에 대해서는 적대적 공격을 수행할 수 있다. 따라서 이는 적군의 감시체계를 기만하는 기술로 파생될 수 있다. 예를 들어, 전차나 장갑차 등 대형 무기체계 및 군복과 같은 소형 무기체계에 위장무늬로 활용되어 아군의 모델에서는 잘 인지되나, 적군의 모델을 기만할 수 있다.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 위장패턴 생성 장치
110: 입력부
120: 딥러닝 모델부
130: 프로세서부
140: 저장부
150: 제공부

Claims (12)

  1. 위장패턴 생성 장치가 수행하는 위장패턴 생성 방법으로서,
    적대적 공격(Adversarial Attack)을 위한 임의의 위장패턴(camouflage c)이 포함된 객체(object)를 이미지로 렌더링하는 단계와,
    물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하는 단계와,
    상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하는 단계와,
    상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는 단계를 포함하는
    위장패턴 생성 방법.
  2. 제 1 항에 있어서,
    상기 렌더링하는 단계는,
    상기 객체의 표면에 상기 임의의 위장패턴을 부착한 객체에 대한 복수의 뷰(view) 중 어느 하나의 뷰를 랜덤하게 선택해 상기 이미지로 렌더링하는
    위장패턴 생성 방법.
  3. 제 1 항에 있어서,
    상기 대표 손실함수를 각각 정의하는 단계는,
    상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델에 입력한 i번째 이미지에 대한 손실함수를 정의하는 단계와,
    각 이미지들에 대해 정의된 손실함수들의 평균값을 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 상기 대표 손실함수로 정의하는 단계를 포함하는
    위장패턴 생성 방법.
  4. 제 3 항에 있어서,
    상기 전체 손실함수를 정의하는 단계는,
    상기 제 1 딥러닝 모델에 대한 대표 손실함수에 1을 곱한 값과 상기 제 2 딥러닝 모델에 대한 대표 손실함수에 -1을 곱한 값을 합산한 결과를 상기 전체 손실함수로 정의하는
    위장패턴 생성 방법.
  5. 제 4 항에 있어서,
    상기 전체 손실함수를 정의하는 단계는,
    상기 제 1 딥러닝 모델에 대한 대표 손실함수와 상기 제 2 딥러닝 모델에 대한 대표 손실함수 중 적어도 하나에 가중치를 더하여 상기 전체 손실함수를 정의하는
    위장패턴 생성 방법.
  6. 이미지 데이터가 입력되는 입력부와,
    물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들을 포함하는 딥러닝 모델부와,
    상기 이미지 데이터를 이용하여 상기 딥러닝 모델들을 학습시키는 프로세서부를 포함하고,
    상기 프로세서부는,
    적대적 공격(Adversarial Attack)을 위한 임의의 위장패턴(camouflage c)이 포함된 객체(object)를 이미지로 렌더링하며, 상기 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하고, 상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하며, 상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는
    위장패턴 생성 장치.
  7. 제 6 항에 있어서,
    상기 프로세서부는,
    상기 객체의 표면에 상기 임의의 위장패턴을 부착한 객체에 대한 복수의 뷰(view) 중 어느 하나의 뷰를 랜덤하게 선택해 상기 이미지로 렌더링하는
    위장패턴 생성 장치.
  8. 제 6 항에 있어서,
    상기 프로세서부는,
    상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델에 입력한 i번째 이미지에 대한 손실함수를 정의하고, 각 이미지들에 대해 정의된 손실함수들의 평균값을 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 상기 대표 손실함수로 정의하는
    위장패턴 생성 장치.
  9. 제 8 항에 있어서,
    상기 프로세서부는,
    상기 제 1 딥러닝 모델에 대한 대표 손실함수에 1을 곱한 값과 상기 제 2 딥러닝 모델에 대한 대표 손실함수에 -1을 곱한 값을 합산한 결과를 상기 전체 손실함수로 정의하는
    위장패턴 생성 장치.
  10. 제 9 항에 있어서,
    상기 프로세서부는,
    상기 제 1 딥러닝 모델에 대한 대표 손실함수와 상기 제 2 딥러닝 모델에 대한 대표 손실함수 중 적어도 하나에 가중치를 더하여 상기 전체 손실함수를 정의하는
    위장패턴 생성 장치.
  11. 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
    상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
    적대적 공격(Adversarial Attack)을 위한 임의의 위장패턴(camouflage c)이 포함된 객체(object)를 이미지로 렌더링하는 단계와,
    물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하는 단계와,
    상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하는 단계와,
    상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
  12. 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
    적대적 공격(Adversarial Attack)을 위한 임의의 위장패턴(camouflage c)이 포함된 객체(object)를 이미지로 렌더링하는 단계와,
    물체 탐지를 위한 학습용 이미지가 미리 학습된 딥러닝 모델들 중 성능 상향 대상으로 선정한 제 1 딥러닝 모델과 성능 하향 대상으로 선정한 제 2 딥러닝 모델에 상기 렌더링된 이미지를 각각 입력한 결과에 기초하여, 상기 제 1 딥러닝 모델과 상기 제 2 딥러닝 모델의 대표 손실함수를 각각 정의하는 단계와,
    상기 각각 정의된 대표 손실함수를 이용하여 전체 손실함수를 정의하는 단계와,
    상기 전체 손실함수가 최소화되도록 상기 위장패턴을 최적화하는 단계를 포함하는 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.
KR1020210087265A 2021-07-02 2021-07-02 위장패턴 생성 장치 및 방법 KR102306081B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210087265A KR102306081B1 (ko) 2021-07-02 2021-07-02 위장패턴 생성 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210087265A KR102306081B1 (ko) 2021-07-02 2021-07-02 위장패턴 생성 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102306081B1 true KR102306081B1 (ko) 2021-09-28

Family

ID=77923063

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210087265A KR102306081B1 (ko) 2021-07-02 2021-07-02 위장패턴 생성 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102306081B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102441490B1 (ko) * 2021-11-25 2022-09-07 주식회사 스마트엠투엠 적대적 공격 패턴 생성 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101810479B1 (ko) 2017-06-19 2017-12-19 국방과학연구소 위장 패턴 변화를 이용한 능동형 시각 위장 시스템
KR20190076479A (ko) * 2017-12-22 2019-07-02 한국과학기술원 무선 Wi-Fi 망에서 딥러닝을 이용한 위장 공격 특장점 분석 장치 및 방법
KR20190140824A (ko) * 2018-05-31 2019-12-20 한국과학기술원 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치
KR20200119333A (ko) * 2018-02-20 2020-10-19 하이퍼스틸스 바이오테크놀로지 코포레이션 디스플레이 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101810479B1 (ko) 2017-06-19 2017-12-19 국방과학연구소 위장 패턴 변화를 이용한 능동형 시각 위장 시스템
KR20190076479A (ko) * 2017-12-22 2019-07-02 한국과학기술원 무선 Wi-Fi 망에서 딥러닝을 이용한 위장 공격 특장점 분석 장치 및 방법
KR20200119333A (ko) * 2018-02-20 2020-10-19 하이퍼스틸스 바이오테크놀로지 코포레이션 디스플레이 시스템
KR20190140824A (ko) * 2018-05-31 2019-12-20 한국과학기술원 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102441490B1 (ko) * 2021-11-25 2022-09-07 주식회사 스마트엠투엠 적대적 공격 패턴 생성 방법 및 시스템

Similar Documents

Publication Publication Date Title
Liu et al. Reflection backdoor: A natural backdoor attack on deep neural networks
CN109948658B (zh) 面向特征图注意力机制的对抗攻击防御方法及应用
US10641585B2 (en) System and method for integrated and synchronized planning and response to defeat disparate threats over the threat kill chain with combined cyber, electronic warfare and kinetic effects
KR102306081B1 (ko) 위장패턴 생성 장치 및 방법
CN113643278A (zh) 面向无人机影像目标检测的对抗样本生成方法
US20200050962A1 (en) Method for training and testing data embedding network to generate marked data by integrating original data with mark data, and training device and testing device using the same
US20230132330A1 (en) Adversarial image generator to improve dnn image segmentation model robustness for autonomous vehicle
KR20220025455A (ko) 적대적 공격에 대한 방어 방법 및 그 장치
Khan et al. A hybrid defense method against adversarial attacks on traffic sign classifiers in autonomous vehicles
CN117253161A (zh) 基于特征校正和多级对抗防御的遥感图像深度识别方法
CN115861695A (zh) 一种基于空间变换的后门攻击方法、装置和介质
Majadas et al. Disturbing reinforcement learning agents with corrupted rewards
Pavate et al. Analyzing probabilistic adversarial samples to attack cloud vision image classifier service
Yao et al. Reverse backdoor distillation: Towards online backdoor attack detection for deep neural network models
Luo et al. Defective convolutional layers learn robust cnns
CN110807795B (zh) 一种基于MDnet的无人机遥感目标跟踪方法及装置
Hui et al. Torpedo performance Markov model
Hou et al. M-to-n backdoor paradigm: A stealthy and fuzzy attack to deep learning models
Wang et al. Harden deep convolutional classifiers via k-means reconstruction
Xu et al. Inconspicuous data augmentation based backdoor attack on deep neural networks
Tao Meta Learning Enabled Adversarial Defense
Sharma Multi-SAP Adversarial Defense for Deep Neural Networks
Yang et al. Using lip to gloss over faces in single-stage face detection networks
Kumar et al. Fuzzy inference based feature selection and optimized deep learning for Advanced Persistent Threat attack detection
Buhrii et al. Adversarial attacks on object detection systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant