KR102073808B1 - 심층 신경망 기반의 정보 처리 장치 및 방법 - Google Patents

심층 신경망 기반의 정보 처리 장치 및 방법 Download PDF

Info

Publication number
KR102073808B1
KR102073808B1 KR1020170139269A KR20170139269A KR102073808B1 KR 102073808 B1 KR102073808 B1 KR 102073808B1 KR 1020170139269 A KR1020170139269 A KR 1020170139269A KR 20170139269 A KR20170139269 A KR 20170139269A KR 102073808 B1 KR102073808 B1 KR 102073808B1
Authority
KR
South Korea
Prior art keywords
classifier
generator
data
hostile
perturbation
Prior art date
Application number
KR1020170139269A
Other languages
English (en)
Other versions
KR20190046099A (ko
Inventor
이정우
이형일
Original Assignee
서울대학교 산학협력단
호두에이아이랩 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교 산학협력단, 호두에이아이랩 주식회사 filed Critical 서울대학교 산학협력단
Priority to KR1020170139269A priority Critical patent/KR102073808B1/ko
Publication of KR20190046099A publication Critical patent/KR20190046099A/ko
Application granted granted Critical
Publication of KR102073808B1 publication Critical patent/KR102073808B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 기술의 일 실시예에 의한 정보 처리 장치는 입력 데이터의 미분 정보에 기초하여 섭동 데이터를 생성하도록 구성되는 생성기, 섭동 데이터와 입력 데이터를 제공받아 섭동 데이터와 입력 데이터 모두를 올바른 레이블인 것으로 예측하도록 구성되는 분류기, 분류기의 예측 결과에 대한 미분 이미지를 생성하도록 구성되는 미분 이미지 생성부 및 기 설정된 생성기 손실함수 및 기 설정된 분류기 손실함수가 각각 최소화되도록 생성기 파라미터 및 분류기 파라미터를 조정하도록 구성되는 파라미터 조정부를 포함할 수 있다.

Description

심층 신경망 기반의 정보 처리 장치 및 방법{Apparatus and Method for Data Processing Based on Deep Neural Network}
본 기술은 정보 처리 장치 및 방법에 관한 것으로, 보다 구체적으로는 심층 신경망 기반의 정보 처리 장치 및 방법에 관한 것이다.
딥러닝(Deep learning)은 기계학습 기술의 한 종류이다. 다층 구조로 설계하여 깊어진 인공신경망은 학습이 잘 이루어지지 않지만 학습을 위한 데이터들을 비지도 학습을 통해 전처리하면 신경망이 깊어져도 학습이 잘된다는 것으로부터 시작되었다.
최근 딥러닝은 이미지 분류, 음성 인식 등 인공지능의 여러 분야에서 사용되고 있다.
심층 신경망(Deep Neural Network)이 에러 역전파(backpropagation) 알고리즘이라는 학습 방법을 도입하여 복잡한 확률분포를 효과적으로 학습할 수 있게 됨으로써 딥러닝은 한층 더 발전하게 되었다.
하지만 현재까지의 심층 신경망은 적대적(경쟁적) 섭동(Adversarial perturbation)에 취약하다는 단점이 있다. 적대적 섭동은 심층 신경망이 잘못 동작하도록 하는 악의적인 샘플로서, 사람 눈은 원래 데이터(이미지)와 적대적 섭동 데이터(이미지)와의 차이를 전혀 못 느끼지만 심층 신경망은 적대적 섭동 데이터(이미지)를 전혀 다른 클래스로 예측하게 된다.
그러므로 악의적인 적대적 섭동 데이터에 강인한 데이터 구분 기술이 필요한 실정이다.
본 기술의 실시예는 적대적 섭동 데이터를 올바른 레이블로 예측하도록 훈련되는 심층 신경망 기반의 정보 처리 장치 및 방법을 제공할 수 있다.
본 기술의 일 실시예에 의한 심층 신경망 기반의 정보처리 장치는 입력 데이터의 미분 정보에 기초하여 적대적 섭동 데이터를 생성하도록 구성되는 생성기; 상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터 모두를 올바른 레이블인 것으로 예측하도록 구성되는 분류기; 상기 분류기의 예측 결과에 대한 미분 이미지를 생성하도록 구성되는 미분 이미지 생성부; 및 기 설정된 생성기 손실함수 및 기 설정된 분류기 손실함수가 각각 최소화되도록 생성기 파라미터 및 분류기 파라미터를 조정하도록 구성되는 파라미터 조정부;를 포함하도록 구성될 수 있다.
본 기술의 일 실시예에 의한 심층 신경망 기반의 정보처리 방법은 입력 데이터의 미분 정보에 기초하여 적대적 섭동 데이터를 생성하도록 구성되는 생성기 및 상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터를 원래의 레이블로 예측하도록 구성되는 분류기를 포함하는 정보 처리 장치의 정보 처리 방법으로서, 상기 분류기의 예측 결과에 기초하여 생성되는 미분 이미지를 이용하여 상기 분류기가 분류하지 못하는 적대적 섭동 데이터를 생성하는 생성기 학습 과정; 및 상기 생성기가 생성한 적대적 섭동 데이터와 원래 데이터를 모두 상기 분류기가 정확히 분류하도록 학습하는 분류기 학습 과정;을 포함하도록 구성될 수 있다.
본 기술에 의하면 생성기는 분류기를 속일 수 있는 적대적 섭동 데이터를 만들도록 학습하고, 분류기는 원래 데이터와 적대적 섭동 데이터를 올바로 된 레이블로 예측하도록 재훈련 된다. 이를 통해 분류기는 적대적 섭동 데이터에 점차적으로 강인해질 수 있게 된다.
또한, 본 기술은 정규화(regularization) 효과가 우수하기 때문에, 섭동이 없는 상황에서도 분류기의 예측 성능을 효과적으로 높일 수 있다.
본 기술은 얼굴인식 기반 보안 시스템에 적용 가능하여, 얼굴인식 시스템이 입력 데이터를 오인식하게 하는 보안 공격에 강인한 시스템을 만드는 데 유용하게 적용될 수 있다.
도 1은 일 실시예에 의한 심층 신경망 기반의 정보 처리 장치의 구성도이다.
도 2는 일 실시예에 의한 심층 신경망 기반의 정보 처리 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 기술의 실시예를 보다 구체적으로 설명한다.
도 1은 일 실시예에 의한 심층 신경망 기반의 정보 처리 장치의 구성도이다.
도 1을 참조하면, 일 실시예에 의한 정보 처리 장치(10)는 생성기(110), 분류기(120), 미분 이미지 생성부(130) 및 파라미터 조정부(140)를 포함할 수 있다.
생성기(110)는 생성적 적대적 훈련기(generative adversarial trainer; GAT)라 칭할 수 있다. 생성기(110)의 목적은 입력되는 데이터의 경사(미분, gradient) 정보를 이용하여 분류기(120)를 속일 수 있는 가장 강력한 적대적(perturbation) 데이터를 만들어 내는 것이다.
보다 구체적으로, 생성기(110)는 입력 데이터(x) 및 미분 이미지(Δ)를 제공받으며, 생성기 함수(G())를 이용하여 미분 이미지(Δ)를 적대적 섭동 데이터(x+G(Δ))로 변환하도록 구성될 수 있다.
분류기(120)는 생성기(110)가 생성한 적대적 섭동 데이터(x+G(Δ))와 입력 데이터(x)를 제공받아 두 데이터 모두를 원래의 레이블(label)로 예측할 수 있게 재학습하도록 구성될 수 있다.
미분 이미지 생성부(130)는 분류기(120)의 예측 결과에 대한 확률값의 미분 이미지(Δ)를 생성하도록 구성될 수 있다.
일 실시예에서, 분류기(120)는 입력 데이터(x)에 대하여 y번째 클래스의 확률값(F(x)y)을 예측할 수 있으며, 미분 이미지 생성부(130)는 이에 대한 미분 이미지(Δ=
Figure 112017105499516-pat00001
)를 생성하도록 구성될 수 있다.
미분 이미지(Δ)는 생성기(110)로 제공되어 생성기(110)가 적대적 섭동 데이터(x+G(Δ))를 재생성하는 데 이용될 수 있다.
파라미터 조정부(140)는 기 정의된 생성기 손실함수(LG) 및 분류기 손실함수(LF)에 기초하여 손실함수가 최소화되도록 생성기 파라미터(θg) 및 분류기 파라미터(θf)를 조정하도록 구성될 수 있다.
일 실시예에서, 파라미터 조정부(140)는 생성기 파라미터 및 분류기 파라미터를 조정하기 위하여 확률적 경사 하강법(Stochastic gradient descent; SGD)을 이용할 수 있으나 이에 한정되는 것은 아니다.
생성기 손실함수(LG)는 예를 들어 [수학식 1]과 같이 기 정의될 수 있다.
Figure 112017105499516-pat00002
X는 입력 데이터, y는 분류할 레이블을 나타낸다. 입력 데이터가 컬러 이미지인 경우 x는 가로(w)*세로(h)*채널(c)의 3차원 텐서가 될 수 있다. y는 분류기가 입력 데이터를 분류할 수 있는 레이블의 개수에 따른 값을 가질 수 있다.
F()는 분류기 함수를 나타낸다. 일 실시예에서, 분류기 함수(F())는 입력 데이터를 확률벡터로 변환시키도록 구성될 수 있다. 입력 데이터가 이미지인 경우 분류기 함수(F())는 컨볼루션 신경망(convolutional Neural Network; CNN) 이 사용될 수 있으나 이에 한정되는 것은 아니다.
G()는 생성기 함수를 나타낸다. 일 실시예에서, 생성기 함수(G())는 컨볼루션 신경망(convolutional Neural Network; CNN) 이 사용될 수 있으나 이에 한정되는 것은 아니다.
[수학식 1]에서 알 수 있는 바와 같이, 생성기 손실함수(LG)는 두 개의 비용 함수(cost function)로 구성된다. 첫 번째 비용 함수는 분류기(120)의 예측 성능을 줄이는 방향으로의 비용 함수이다. 즉, 분류기(120)의 분류 확률을 낮추는 섭동 데이터를 찾는 데 사용되는 손실함수이다. 두 번째 비용 함수는 섭동 데이터의 파워를 줄이기 위한 것이다. 즉, 섭동 데이터의 파워가 너무 크지 않도록 적대적 섭동 데이터의 파워를 제한하는 비용함수이다.
Cg는 두 비용 함수 간의 비율을 조정하는 하이퍼파라미터이다. Cg가 너무 작으면 생성기(110)는 아무 높은 파워의 의미 없는(trivial) 섭동 데이터만을 만들 것이고, Cg가 너무 높으면 생성기(110) 영(0) 섭동 데이터만을 생성할 것이다.
따라서, 하이퍼파라미터 탐색을 통해 적절한 크기의 Cg값을 찾는 것이 매우 중요하다.
분류기 손실함수(LF)는 예를 들어 [수학식 2]와 같이 기 정의될 수 있다.
Figure 112017105499516-pat00003
α는 원래 데이터와 섭동 데이터에 대한 가중치 하이퍼파라미터이다. 이는 임의로 설정될 수 있으며, 0.5로 설정될 수 있다.
θf는 분류기(120)에 사용되는 학습 파라미터들을 의미한다.
J는 분류기(120)의 손실함수로 교차 엔트로피 손실함수가 사용될 수 있음을 나타낸다. 분류기(120)의 손실함수는 교차 엔트로피 손실함수 외에 힌지(Hinge) 손실함수 등 다양한 비선형 손실함수 중에서 채택될 수 있다.
본 기술에 의한 정보 처리 장치(10)에서, 생성기(110)를 학습 과정에서 완벽히 최적화시킬 필요는 없다. 생성기(110)를 k번, 분류기(120)를 1번 학습시키는 과정을 m회 번갈아 수행함으로써 분류기가 최적 해(optimal solution) 근처에서 유지되도록 할 수 있다. K의 값은 1로 설정하여도 충분히 좋은 성능을 기대할 수 있다.
도 2는 일 실시예에 의한 심층 신경망 기반의 정보 처리 방법을 설명하기 위한 흐름도이다.
먼저, 생성기(110) 및 분류기(120)의 모든 파라미터(θg, θf)를 초기화한다(S101).
그리고, 학습 데이터로부터 기 설정된 개수의 샘플을 선택하고(S103), 생성기(110)를 최적화한다(S105).
생성기(110)를 최적화하기 위하여, 생성기 손실함수(LG)가 최소화되도록 생성기 파라미터(θg)를 조정한다. 학습 데이터의 일부를 선택하여(S103) 생성기를 최적화하는(SS105) 과정을 기 설정된 횟수(k회) 반복하여(S107, S109) 생성기(110)를 훈련시킬 수 있다. 일 실시예에서, 생성기 파라미터(θg)를 조정하기 위하여 확률적 경사 하강법(SGD)이 이용될 수 있으나 이에 한정되는 것은 아니다.
생성기(110)를 훈련시키는 과정은 분류기(120)로부터 제공되는 미분 이미지(Δ)를 이용하여 분류기(120)가 제대로 분류하지 못할만한 적대적 섭동 데이터를 생성하도록 학습시키는 과정으로 이해할 수 있다.
그리고, 학습 데이터로부터 기 설정된 개수의 샘플을 선택하고(S111), 분류기(120)를 최적화한다(S113).
분류기(120)를 최적화하기 위하여, 분류기 손실함수(LF)가 최소화되도록 분류기 파라미터(θf)를 조정한다. 분류기 파라미터(θf)를 조정하기 위하여 확률적 경사 하강법(SGD)이 이용될 수 있으나 이에 한정되는 것은 아니다.
분류기(120)를 최적화하는 과정은 생성기(110)가 생성한 적대적 섭동 데이터와 원래 데이터를 모두 정확히 분류할 수 있도록 학습하는 과정으로 이해할 수 있다.
생성기 훈련 과정(S103~S109) 및 분류기 훈련 과정(S111~S113)을 학습이 끝날 때까지 기 설정된 횟수(m회) 반복할 수 있다(S115, S117).
도 2에 도시한 정보 처리 방법은 하기 [표 1]과 같이 코딩될 수 있다.
Figure 112017105499516-pat00004
본 기술에 의하면, 분류기는 각각의 데이터(이미지)들에 대해서 다른 강인함을 보인다. 어떠한 데이터(이미지)에서는 아주 적은 파워만을 가지고도 분류기를 쉽게 속일 수 있지만, 다른 데이터(이미지)에서는 아무리 많은 파워를 주더라도 분류기를 쉽게 속일 수 없다. 기존의 심층 신경망 기반의 데이터 분류 알고리즘들은 미분값(gradient)을 정규화(normalize)하기 때문에 모든 데이터(이미지)에 대해서 같은 섭동 파워(perturbation power)를 갖는 데이터(이미지)들을 만들어 분류기의 학습을 방해하지만, 본 기술에서는 각각의 데이터(이미지)에 맞는 적당한 크기의 섭동 파워를 갖는 데이터(이미지)를 생성해 낼 수 있다.
심층 신경망을 이용한 분류기는 비선형 함수이다. 기존의 데이터 분류 알고리즘들은 모두 학습 데이터 근처에서 분류기가 선형적이라는 가정하에 섭동 데이터들을 만들었지만, 본 기술에서는 분류기가 비선형일 때, 거기에 최적화된 섭동 데이터를 만들 수 있다.
따라서, 본 기술에 의한 정보 처리 장치는 적대적 섭동을 방어하는 효과가 우수하다. 더욱이, 이러한 과정은 신경망을 매우 잘 정규화할 수 있기 때문에 적대적 섭동을 방어하는 목적이 아니어도, 오버피팅(overfitting)을 방지하여 예측 정밀도를 높일 때도 효과적으로 사용될 수 있다.
본 기술은 심층 신경망 기반 얼굴인식, 지문인식, 홍채인식 등의 생체인식 시스템의 오류 가능성을 낮출 수 있는 획기적인 알고리즘이며, 이를 적용하면 생체인식 시스템을 공격하는 보안공격을 막을 수 있고 인식 오류율을 낮출 수 있다.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10 : 정보 처리 장치
110 : 생성기
120 : 분류기
130 : 미분 이미지 생성부
140 : 파라미터 조정부

Claims (10)

  1. 입력 데이터 및 미분 이미지를 제공받아 상기 미분 이미지를 상기 입력 데이터에 대한 적대적 섭동 데이터로 변환하도록 구성되는 생성기;
    상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터 모두를 올바른 레이블인 것으로 예측하도록 구성되는 분류기;
    상기 분류기의 예측 결과로부터 상기 미분 이미지를 생성하도록 구성되는 미분 이미지 생성부; 및
    상기 분류기의 예측 성능을 줄이기 위한 비용함수 및, 상기 적대적 섭동 데이터의 파워를 줄이기 위한 손실함수를 포함하는 생성기 손실함수 및 기 설정된 분류기 손실함수가 각각 최소화되도록 생성기 파라미터 및 분류기 파라미터를 조정하도록 구성되는 파라미터 조정부;
    를 포함하는 심층 신경망 기반의 정보 처리 장치.
  2. 제 1 항에 있어서,
    상기 생성기는, 상기 입력 데이터 및 상기 미분 이미지를 제공받아 기 설정된 생성기 함수를 이용하여 상기 미분 이미지를 상기 적대적 섭동 데이터로 변환하도록 구성되는 심층 신경망 기반의 정보 처리 장치.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 파라미터 조정부는 확률적 경사 하강법에 기초하여 상기 생성기 파라미터 및 상기 분류기 파라미터를 조정하도록 구성되는 심층 신경망 기반의 정보 처리 장치.
  5. 입력 데이터 및 미분 이미지를 제공받아 상기 미분 이미지를 상기 입력 데이터에 대한 적대적 섭동 데이터로 변환하도록 구성되는 생성기 및 상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터 모두를 올바른 레이블로 예측하도록 구성되는 분류기를 포함하는 정보 처리 장치의 정보 처리 방법으로서,
    상기 분류기의 예측 결과에 기초하여 생성되는 상기 미분 이미지를 이용하여 상기 분류기가 분류하지 못하는 적대적 섭동 데이터를 생성하는 생성기 학습 과정; 및
    상기 생성기가 생성한 적대적 섭동 데이터와 상기 입력 데이터를 모두 상기 분류기가 상기 올바른 레이블로 정확히 분류하도록 학습하는 분류기 학습 과정;
    을 포함하고,
    상기 생성기 학습 과정은 상기 분류기의 예측 성능을 줄이기 위한 비용함수 및, 상기 적대적 섭동 데이터의 파워를 줄이기 위한 손실함수를 포함하는 생성기 손실함수가 최소화되도록 생성기 파라미터를 조정하는 생성기 최적화 과정을 포함하도록 구성되는 심층 신경망 기반의 정보 처리 방법.
  6. 제 5 항에 있어서,
    상기 생성기 학습 과정을 기 설정된 횟수만큼 반복 수행한 후 상기 분류기 학습 과정이 수행되고,
    상기 기 설정된 횟수의 생성기 학습 과정 및 상기 분류기 학습 과정은 기 설정된 횟수만큼 반복 수행되는 심층 신경망 기반의 정보 처리 방법.
  7. 제 5 항에 있어서,
    상기 생성기 학습과정은 상기 생성기의 상기 생성기 파라미터 및 상기 분류기의 분류기 파라미터를 초기화하는 단계; 및
    학습 데이터 중 기 설정된 개수의 학습 데이터를 선택하여 상기 생성기 최적화 과정을 수행하는 단계;
    을 포함하는 심층 신경망 기반의 정보 처리 방법.
  8. 삭제
  9. 제 5 항에 있어서,
    상기 분류기 학습과정은 상기 생성기의 상기 생성기 파라미터 및 상기 분류기의 분류기 파라미터를 초기화하는 단계; 및
    학습 데이터 중 기 설정된 개수의 학습 데이터를 선택하여 상기 분류기를 최적화하는 과정;
    을 포함하는 심층 신경망 기반의 정보 처리 방법.
  10. 제 9 항에 있어서,
    상기 분류기를 최적화하는 과정은 분류기 손실함수가 최소화되도록 상기 분류기 파라미터를 조정하는 과정을 포함하는 심층 신경망 기반의 정보 처리 방법.
KR1020170139269A 2017-10-25 2017-10-25 심층 신경망 기반의 정보 처리 장치 및 방법 KR102073808B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170139269A KR102073808B1 (ko) 2017-10-25 2017-10-25 심층 신경망 기반의 정보 처리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170139269A KR102073808B1 (ko) 2017-10-25 2017-10-25 심층 신경망 기반의 정보 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190046099A KR20190046099A (ko) 2019-05-07
KR102073808B1 true KR102073808B1 (ko) 2020-03-02

Family

ID=66655996

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170139269A KR102073808B1 (ko) 2017-10-25 2017-10-25 심층 신경망 기반의 정보 처리 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102073808B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102363769B1 (ko) 2020-09-16 2022-02-16 광운대학교 산학협력단 전자화 문서를 단계별로 분류하여 제공하기 위한 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
KR20240024679A (ko) 2022-08-17 2024-02-26 국방과학연구소 적대적 강인성을 위한 신경망모델의 학습방법 및 이를 위한 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102149132B1 (ko) * 2017-11-28 2020-08-31 공주대학교 산학협력단 딥 러닝 환경에서의 적대적 예제 생성 장치 및 방법, 컴퓨터 프로그램
US20200248355A1 (en) 2019-02-01 2020-08-06 Lg Electronics Inc. Laundry treating machine and control method for the same
KR102365150B1 (ko) * 2019-10-23 2022-02-18 서울대학교 산학협력단 생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치
KR102354145B1 (ko) * 2020-10-23 2022-01-24 광주과학기술원 증가 학습을 위한 Logit 조정 및 메모리 관리 기법
CN113627597B (zh) * 2021-08-12 2023-10-13 上海大学 一种基于通用扰动的对抗样本生成方法及系统
WO2024043541A1 (ko) * 2022-08-25 2024-02-29 삼성전자주식회사 무선 통신 시스템에서 블라인드 검출을 수행하는 수신기 및 그 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001272994A (ja) * 2000-03-27 2001-10-05 Ricoh Co Ltd 学習装置および学習方法およびパターン認識装置およびパターン認識方法および記録媒体
JP2007299387A (ja) * 1994-10-13 2007-11-15 Stephen L Thaler 有用な情報の自律的発生装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170083419A (ko) * 2016-01-08 2017-07-18 마우키스튜디오 주식회사 레이블링되지 않은 다수의 학습 데이터를 이용하여 딥 러닝의 모델을 트레이닝하는 방법 및 이를 수행하는 딥 러닝 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299387A (ja) * 1994-10-13 2007-11-15 Stephen L Thaler 有用な情報の自律的発生装置
JP2001272994A (ja) * 2000-03-27 2001-10-05 Ricoh Co Ltd 学習装置および学習方法およびパターン認識装置およびパターン認識方法および記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102363769B1 (ko) 2020-09-16 2022-02-16 광운대학교 산학협력단 전자화 문서를 단계별로 분류하여 제공하기 위한 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
KR20240024679A (ko) 2022-08-17 2024-02-26 국방과학연구소 적대적 강인성을 위한 신경망모델의 학습방법 및 이를 위한 장치

Also Published As

Publication number Publication date
KR20190046099A (ko) 2019-05-07

Similar Documents

Publication Publication Date Title
KR102073808B1 (ko) 심층 신경망 기반의 정보 처리 장치 및 방법
Dong et al. Efficient decision-based black-box adversarial attacks on face recognition
Jandial et al. Advgan++: Harnessing latent layers for adversary generation
Sarkar et al. UPSET and ANGRI: Breaking high performance image classifiers
US10474929B2 (en) Cyclic generative adversarial network for unsupervised cross-domain image generation
CN108960080B (zh) 基于主动防御图像对抗攻击的人脸识别方法
CN110929679B (zh) 一种基于gan的无监督自适应行人重识别方法
Mohemmed et al. Particle swarm optimization based adaboost for face detection
Chacon et al. Deep learning poison data attack detection
Bootkrajang et al. Boosting in the presence of label noise
Zhang et al. Deep neural network for face recognition based on sparse autoencoder
Yap et al. Addressing catastrophic forgetting in few-shot problems
KR20060089376A (ko) Pca와 역전파 알고리즘을 이용한 얼굴인식 방법
CN114048843A (zh) 一种基于选择性特征迁移的小样本学习网络
Zhang et al. Attention-based adversarial robust distillation in radio signal classifications for low-power IoT devices
Tan et al. Wide Residual Network for Vision-based Static Hand Gesture Recognition.
Du et al. LC-GAN: Improving adversarial robustness of face recognition systems on edge devices
KR102183672B1 (ko) 합성곱 신경망에 대한 도메인 불변 사람 분류기를 위한 연관성 학습 시스템 및 방법
Zhang et al. Adversarial learning in transformer based neural network in radio signal classification
Yu et al. Comparative study on face recognition based on SVM of one-against-one and one-against-rest methods
Agrawal et al. Bmim: Generating adversarial attack on face recognition via binary mask
Zuo et al. Adaptive quality-based performance prediction and boosting for iris authentication: methodology and its illustration
Jirathampradub et al. A 3D-CNN siamese network for motion gesture Sign Language alphabets recognition
Sheikholeslami et al. Efficient randomized defense against adversarial attacks in deep convolutional neural networks
Olubunmi et al. Performance evaluation of selected principal component analysis-based techniques for face image recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant