KR20190046099A - 심층 신경망 기반의 정보 처리 장치 및 방법 - Google Patents
심층 신경망 기반의 정보 처리 장치 및 방법 Download PDFInfo
- Publication number
- KR20190046099A KR20190046099A KR1020170139269A KR20170139269A KR20190046099A KR 20190046099 A KR20190046099 A KR 20190046099A KR 1020170139269 A KR1020170139269 A KR 1020170139269A KR 20170139269 A KR20170139269 A KR 20170139269A KR 20190046099 A KR20190046099 A KR 20190046099A
- Authority
- KR
- South Korea
- Prior art keywords
- classifier
- generator
- data
- hostile
- parameter
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
본 기술의 일 실시예에 의한 정보 처리 장치는 입력 데이터의 미분 정보에 기초하여 섭동 데이터를 생성하도록 구성되는 생성기, 섭동 데이터와 입력 데이터를 제공받아 섭동 데이터와 입력 데이터 모두를 올바른 레이블인 것으로 예측하도록 구성되는 분류기, 분류기의 예측 결과에 대한 미분 이미지를 생성하도록 구성되는 미분 이미지 생성부 및 기 설정된 생성기 손실함수 및 기 설정된 분류기 손실함수가 각각 최소화되도록 생성기 파라미터 및 분류기 파라미터를 조정하도록 구성되는 파라미터 조정부를 포함할 수 있다.
Description
본 기술은 정보 처리 장치 및 방법에 관한 것으로, 보다 구체적으로는 심층 신경망 기반의 정보 처리 장치 및 방법에 관한 것이다.
딥러닝(Deep learning)은 기계학습 기술의 한 종류이다. 다층 구조로 설계하여 깊어진 인공신경망은 학습이 잘 이루어지지 않지만 학습을 위한 데이터들을 비지도 학습을 통해 전처리하면 신경망이 깊어져도 학습이 잘된다는 것으로부터 시작되었다.
최근 딥러닝은 이미지 분류, 음성 인식 등 인공지능의 여러 분야에서 사용되고 있다.
심층 신경망(Deep Neural Network)이 에러 역전파(backpropagation) 알고리즘이라는 학습 방법을 도입하여 복잡한 확률분포를 효과적으로 학습할 수 있게 됨으로써 딥러닝은 한층 더 발전하게 되었다.
하지만 현재까지의 심층 신경망은 적대적(경쟁적) 섭동(Adversarial perturbation)에 취약하다는 단점이 있다. 적대적 섭동은 심층 신경망이 잘못 동작하도록 하는 악의적인 샘플로서, 사람 눈은 원래 데이터(이미지)와 적대적 섭동 데이터(이미지)와의 차이를 전혀 못 느끼지만 심층 신경망은 적대적 섭동 데이터(이미지)를 전혀 다른 클래스로 예측하게 된다.
그러므로 악의적인 적대적 섭동 데이터에 강인한 데이터 구분 기술이 필요한 실정이다.
본 기술의 실시예는 적대적 섭동 데이터를 올바른 레이블로 예측하도록 훈련되는 심층 신경망 기반의 정보 처리 장치 및 방법을 제공할 수 있다.
본 기술의 일 실시예에 의한 심층 신경망 기반의 정보처리 장치는 입력 데이터의 미분 정보에 기초하여 적대적 섭동 데이터를 생성하도록 구성되는 생성기; 상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터 모두를 올바른 레이블인 것으로 예측하도록 구성되는 분류기; 상기 분류기의 예측 결과에 대한 미분 이미지를 생성하도록 구성되는 미분 이미지 생성부; 및 기 설정된 생성기 손실함수 및 기 설정된 분류기 손실함수가 각각 최소화되도록 생성기 파라미터 및 분류기 파라미터를 조정하도록 구성되는 파라미터 조정부;를 포함하도록 구성될 수 있다.
본 기술의 일 실시예에 의한 심층 신경망 기반의 정보처리 방법은 입력 데이터의 미분 정보에 기초하여 적대적 섭동 데이터를 생성하도록 구성되는 생성기 및 상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터를 원래의 레이블로 예측하도록 구성되는 분류기를 포함하는 정보 처리 장치의 정보 처리 방법으로서, 상기 분류기의 예측 결과에 기초하여 생성되는 미분 이미지를 이용하여 상기 분류기가 분류하지 못하는 적대적 섭동 데이터를 생성하는 생성기 학습 과정; 및 상기 생성기가 생성한 적대적 섭동 데이터와 원래 데이터를 모두 상기 분류기가 정확히 분류하도록 학습하는 분류기 학습 과정;을 포함하도록 구성될 수 있다.
본 기술에 의하면 생성기는 분류기를 속일 수 있는 적대적 섭동 데이터를 만들도록 학습하고, 분류기는 원래 데이터와 적대적 섭동 데이터를 올바로 된 레이블로 예측하도록 재훈련 된다. 이를 통해 분류기는 적대적 섭동 데이터에 점차적으로 강인해질 수 있게 된다.
또한, 본 기술은 정규화(regularization) 효과가 우수하기 때문에, 섭동이 없는 상황에서도 분류기의 예측 성능을 효과적으로 높일 수 있다.
본 기술은 얼굴인식 기반 보안 시스템에 적용 가능하여, 얼굴인식 시스템이 입력 데이터를 오인식하게 하는 보안 공격에 강인한 시스템을 만드는 데 유용하게 적용될 수 있다.
도 1은 일 실시예에 의한 심층 신경망 기반의 정보 처리 장치의 구성도이다.
도 2는 일 실시예에 의한 심층 신경망 기반의 정보 처리 방법을 설명하기 위한 흐름도이다.
도 2는 일 실시예에 의한 심층 신경망 기반의 정보 처리 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 기술의 실시예를 보다 구체적으로 설명한다.
도 1은 일 실시예에 의한 심층 신경망 기반의 정보 처리 장치의 구성도이다.
도 1을 참조하면, 일 실시예에 의한 정보 처리 장치(10)는 생성기(110), 분류기(120), 미분 이미지 생성부(130) 및 파라미터 조정부(140)를 포함할 수 있다.
생성기(110)는 생성적 적대적 훈련기(generative adversarial trainer; GAT)라 칭할 수 있다. 생성기(110)의 목적은 입력되는 데이터의 경사(미분, gradient) 정보를 이용하여 분류기(120)를 속일 수 있는 가장 강력한 적대적(perturbation) 데이터를 만들어 내는 것이다.
보다 구체적으로, 생성기(110)는 입력 데이터(x) 및 미분 이미지(Δ)를 제공받으며, 생성기 함수(G())를 이용하여 리분 이미지(Δ)를 적대덕 섭동 데이터(x+G(Δ))로 변환하도록 구성될 수 있다.
분류기(120)는 생성기(110)가 생성한 벅대적 섭동 데이터(x+G(Δ))와 입력 데이터(x)를 제공받아 두 데이터 모두를 원래의 레이블(label)로 예측할 수 있게 재학습하도록 구성될 수 있다.
미분 이미지 생성부(130)는 분류기(120)의 예측 결과에 대한 확률값의 미분 이미지(Δ)를 생성하도록 구성될 수 있다.
일 실시예에서, 분류기(120)는 입력 데이터(x)에 대하여 y번째 클래스의 확률값(F(x)y)을 예측할 수 있으며, 미분 이미지 생성부(130)는 이에 대한 미분 이미지(Δ=)를 생성하도록 구성될 수 있다.
미분 이미지(Δ)는 생성기(110)로 제공되어 생성기(110)가 적대적 섭동 데이터(x+G(Δ))를 재생성하는 데 이용될 수 있다.
파라미터 조정부(140)는 기 정의된 생성기 손실함수(LG) 및 분류기 손실함수(LF)에 기초하여 손실함수가 최소화되도록 생성기 파라미터(θg) 및 분류기 파라미터(θf)를 조정하도록 구성될 수 있다.
일 실시예에서, 파라미터 조정부(140)는 생성기 파라미터 및 분류기 파라미터를 조정하기 위하여 확률적 경사 하강법(Stochastic gradient descent; SGD)을 이용할 수 있으나 이에 한정되는 것은 아니다.
생성기 손실함수(LG)는 예를 들어 [수학식 1]과 같이 기 정의될 수 있다.
X는 입력 데이터, y는 분류할 레이블을 나타낸다. 입력 데이터가 컬러 이미지인 경우 x는 가로(w)*세로(h)*채널(c)의 3차원 텐서가 될 수 있다. y는 분류기가 입력 데이터를 분류할 수 있는 레이블의 개수에 따른 값을 가질 수 있다.
F()는 분류기 함수를 나타낸다. 일 실시예에서, 분류기 함수(F())는 입력 데이터를 확률벡터로 변환시키도록 구성될 수 있다. 입력 데이터가 이미지인 경우 분류기 함수(F())는 컨볼루션 신경망(convolutional Neural Network; CNN) 이 사용될 수 있으나 이에 한정되는 것은 아니다.
G()는 생성기 함수를 나타낸다. 일 실시예에서, 생성기 함수(G())는 컨볼루션 신경망(convolutional Neural Network; CNN) 이 사용될 수 있으나 이에 한정되는 것은 아니다.
[수학식 1]에서 알 수 있는 바와 같이, 생성기 손실함수(LG)는 두 개의 비용 함수(cost function)로 구성된다. 첫 번째 비용 함수는 분류기(120)의 예측 성능을 줄이는 방향으로의 비용 함수이다. 즉, 분류기(120)의 분류 확률을 낮추는 섭동 데이터를 찾는 데 사용되는 손실함수이다. 두 번째 비용 함수는 섭동 데이터의 파워를 줄이기 위한 것이다. 즉, 섭동 데이터의 파워가 너무 크지 않도록 적대적 섭동 데이터의 파워를 제한하는 비용함수이다.
Cg는 두 비용 함수 간의 비율을 조정하는 하이퍼파라미터이다. Cg가 너무 작으면 생성기(110)는 아무 높은 파워의 의미 없는(trivial) 섭동 데이터만을 만들 것이고, Cg가 너무 높으면 생성기(110) 영(0) 섭동 데이터만을 생성할 것이다.
따라서, 하이퍼파라미터 탐색을 통해 적절한 크기의 Cg값을 찾는 것이 매우 중요하다.
분류기 손실함수(LF)는 예를 들어 [수학식 2]와 같이 기 정의될 수 있다.
α는 원래 데이터와 섭동 데이터에 대한 가중치 하이퍼파라미터이다. 이는 임의로 설정될 수 있으며, 0.5로 설정될 수 있다.
θf는 분류기(120)에 사용되는 학습 파라미터들을 의미한다.
J는 분류기(120)의 손실함수로 교차 엔트로피 손실함수가 사용될 수 있음을 나타낸다. 분류기(120)의 손실함수는 교차 엔트로피 손실함수 외에 힌지(Hinge) 손실함수 등 다양한 비선형 손실함수 중에서 채택될 수 있다.
본 기술에 의한 정보 처리 장치(10)에서, 생성기(110)를 학습 과정에서 완벽히 최적화시킬 필요는 없다. 생성기(110)를 k번, 분류기(120)를 1번 학습시키는 과정을 m회 번갈아 수행함으로써 분류기가 최적 해(optimal solution) 근처에서 유지되도록 할 수 있다. K의 값은 1로 설정하여도 충분히 좋은 성능을 기대할 수 있다.
도 2는 일 실시예에 의한 심층 신경망 기반의 정보 처리 방법을 설명하기 위한 흐름도이다.
먼저, 생성기(110) 및 분류기(120)의 모든 파라미터(θg, θf)를 초기화한다(S101).
그리고, 학습 데이터로부터 기 설정된 개수의 샘플을 선택하고(S103), 생성기(110)를 최적화한다(S105).
생성기(110)를 최적화하기 위하여, 생성기 손실함수(LG)가 최소화되도록 생성기 파라미터(θg)를 조정한다. 학습 데이터의 일부를 선택하여(S103) 생성기를 최적화하는(SS105) 과정을 기 설정된 횟수(k회) 반복하여(S107, S109) 생성기(110)를 훈련시킬 수 있다. 일 실시예에서, 생성기 파라미터(θg)를 조정하기 위하여 확률적 경사 하강법(SGD)이 이용될 수 있으나 이에 한정되는 것은 아니다.
생성기(110)를 훈련시키는 과정은 분류기(120)로부터 제공되는 미분 이미지(Δ)를 이용하여 분류기(120)가 제대로 분류하지 못할만한 적대적 섭동 데이터를 생성하도록 학습시키는 과정으로 이해할 수 있다.
그리고, 학습 데이터로부터 기 설정된 개수의 샘플을 선택하고(S111), 분류기(120)를 최적화한다(S113).
분류기(120)를 최적화하기 위하여, 분류기 손실함수(LF)가 최소화되도록 분류기 파라미터(θf)를 조정한다. 분류기 파라미터(θf)를 조정하기 위하여 확률적 경사 하강법(SGD)이 이용될 수 있으나 이에 한정되는 것은 아니다.
분류기(120)를 최적화하는 과정은 생성기(110)가 생성한 적대적 섭동 데이터와 원래 데이터를 모두 정확히 분류할 수 있도록 학습하는 과정으로 이해할 수 있다.
생성기 훈련 과정(S103~S109) 및 분류기 훈련 과정(S111~S113)을 학습이 끝날 때까지 기 설정된 횟수(m회) 반복할 수 있다(S115, S117).
도 2에 도시한 정보 처리 방법은 하기 [표 1]과 같이 코딩될 수 있다.
본 기술에 의하면, 분류기는 각각의 데이터(이미지)들에 대해서 다른 강인함을 보인다. 어떠한 데이터(이미지)에서는 아주 적은 파워만을 가지고도 분류기를 쉽게 속일 수 있지만, 다른 데이터(이미지)에서는 아무리 많은 파워를 주더라도 분류기를 쉽게 속일 수 없다. 기존의 심층 신경망 기반의 데이터 분류 알고리즘들은 미분값(gradient)을 정규화(normalize)하기 때문에 모든 데이터(이미지)에 대해서 같은 섭동 파워(perturbation power)를 갖는 데이터(이미지)들을 만들어 분류기의 학습을 방해하지만, 본 기술에서는 각각의 데이터(이미지)에 맞는 적당한 크기의 섭동 파워를 갖는 데이터(이미지)를 생성해 낼 수 있다.
심층 신경망을 이용한 분류기는 비선형 함수이다. 기존의 데이터 분류 알고리즘들은 모두 학습 데이터 근처에서 분류기가 선형적이라는 가정하에 섭동 데이터들을 만들었지만, 본 기술에서는 분류기가 비선형일 때, 거기에 최적화된 섭동 데이터를 만들 수 있다.
따라서, 본 기술에 의한 정보 처리 장치는 적대적 섭동을 방어하는 효과가 우수하다. 더욱이, 이러한 과정은 신경망을 매우 잘 정규화할 수 있기 때문에 적대적 섭동을 방어하는 목적이 아니어도, 오버피팅(overfitting)을 방지하여 예측 정밀도를 높일 때도 효과적으로 사용될 수 있다.
본 기술은 심층 신경망 기반 얼굴인식, 지문인식, 홍채인식 등의 생체인식 시스템의 오류 가능성을 낮출 수 있는 획기적인 알고리즘이며, 이를 적용하면 생체인식 시스템을 공격하는 보안공격을 막을 수 있고 인식 오류율을 낮출 수 있다.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10 : 정보 처리 장치
110 : 생성기
120 : 분류기
130 : 미분 이미지 생성부
140 : 파라미터 조정부
110 : 생성기
120 : 분류기
130 : 미분 이미지 생성부
140 : 파라미터 조정부
Claims (10)
- 입력 데이터의 미분 정보에 기초하여 적대적 섭동 데이터를 생성하도록 구성되는 생성기;
상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터 모두를 올바른 레이블인 것으로 예측하도록 구성되는 분류기;
상기 분류기의 예측 결과에 대한 미분 이미지를 생성하도록 구성되는 미분 이미지 생성부; 및
기 설정된 생성기 손실함수 및 기 설정된 분류기 손실함수가 각각 최소화되도록 생성기 파라미터 및 분류기 파라미터를 조정하도록 구성되는 파라미터 조정부;
를 포함하는 심층 신경망 기반의 정보 처리 장치. - 제 1 항에 있어서,
상기 생성기는, 상기 입력 데이터 및 상기 미분 이미지를 제공받아 기 설정된 생성기 함수를 이용하여 상기 경사이미지를 상기 적대적 섭동 데이터로 변환하도록 구성되는 심층 신경망 기반의 정보 처리 장치. - 제 1 항에 있어서,
상기 생성기 손실함수는 상기 분류기의 예측 성능을 줄이기 위한 비용함수 및, 상기 적대적 섭동 데이터의 파워를 줄이기 위한 손실함수를 포함하는 심층 신경망 기반의 정보 처리 장치. - 제 1 항에 있어서,
상기 파라미터 조정부는 확률적 경사 하강법에 기초하여 상기 생성기 파라미터 및 상기 분류기 파라미터를 조정하도록 구성되는 심층 신경망 기반의 정보 처리 장치. - 입력 데이터의 미분 정보에 기초하여 적대적 섭동 데이터를 생성하도록 구성되는 생성기 및 상기 적대적 섭동 데이터와 상기 입력 데이터를 제공받아 상기 적대적 섭동 데이터와 상기 입력 데이터를 원래의 레이블로 예측하도록 구성되는 분류기를 포함하는 정보 처리 장치의 정보 처리 방법으로서,
상기 분류기의 예측 결과에 기초하여 생성되는 미분 이미지를 이용하여 상기 분류기가 분류하지 못하는 적대적 섭동 데이터를 생성하는 생성기 학습 과정; 및
상기 생성기가 생성한 적대적 섭동 데이터와 원래 데이터를 모두 상기 분류기가 정확히 분류하도록 학습하는 분류기 학습 과정;
을 포함하도록 구성되는 심층 신경망 기반의 정보 처리 방법. - 제 5 항에 있어서,
상기 생성기 학습 과정을 기 설정된 횟수만큼 반복 수행한 후 상기 분류기 학습 과정이 수행되고,
상기 기 설정된 횟수의 생성기 학습 과정 및 상기 분류기 학습 과정은 기 설정된 횟수만큼 반복 수행되는 심층 신경망 기반의 정보 처리 방법. - 제 5 항에 있어서,
상기 생성기 학습과정은 상기 생성기의 생성기 파라미터 및 상기 분류기의 분류기 파라미터를 초기화하는 단계; 및
학습 데이터 중 기 설정된 개수의 학습 데이터를 선택하여 상기 생성기를 최적화하는 과정;
을 포함하는 심층 신경망 기반의 정보 처리 방법. - 제 7 항에 있어서.
상기 생성기를 최적화하는 과정은 생성기 손실함수가 최소화되도록 상기 생성기 파라미터를 조정하는 과정을 포함하는 심층 신경망 기반의 정보 처리 방법. - 제 5 항에 있어서,
상기 분류기 학습과정은 상기 생성기의 생성기 파라미터 및 상기 분류기의 분류기 파라미터를 초기화하는 단계; 및
학습 데이터 중 기 설정된 개수의 학습 데이터를 선택하여 상기 분류기를 최적화하는 과정;
을 포함하는 심층 신경망 기반의 정보 처리 방법. - 제 9 항에 있어서.
상기 분류기를 최적화하는 과정은 분류기 손실함수가 최소화되도록 상기 분류기 파라미터를 조정하는 과정을 포함하는 심층 신경망 기반의 정보 처리 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170139269A KR102073808B1 (ko) | 2017-10-25 | 2017-10-25 | 심층 신경망 기반의 정보 처리 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170139269A KR102073808B1 (ko) | 2017-10-25 | 2017-10-25 | 심층 신경망 기반의 정보 처리 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190046099A true KR20190046099A (ko) | 2019-05-07 |
KR102073808B1 KR102073808B1 (ko) | 2020-03-02 |
Family
ID=66655996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170139269A KR102073808B1 (ko) | 2017-10-25 | 2017-10-25 | 심층 신경망 기반의 정보 처리 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102073808B1 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190061446A (ko) * | 2017-11-28 | 2019-06-05 | 공주대학교 산학협력단 | 딥 러닝 환경에서의 적대적 예제 생성 장치 및 방법, 컴퓨터 프로그램 |
DE102020201164A1 (de) | 2019-02-01 | 2020-08-06 | Lg Electronics Inc. | Wäschebehandlungsmaschine und Steuerverfahren dafür |
KR20210048100A (ko) * | 2019-10-23 | 2021-05-03 | 서울대학교산학협력단 | 생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치 |
CN113627597A (zh) * | 2021-08-12 | 2021-11-09 | 上海大学 | 一种基于通用扰动的对抗样本生成方法及系统 |
KR102354145B1 (ko) * | 2020-10-23 | 2022-01-24 | 광주과학기술원 | 증가 학습을 위한 Logit 조정 및 메모리 관리 기법 |
WO2024043541A1 (ko) * | 2022-08-25 | 2024-02-29 | 삼성전자주식회사 | 무선 통신 시스템에서 블라인드 검출을 수행하는 수신기 및 그 동작 방법 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102363769B1 (ko) | 2020-09-16 | 2022-02-16 | 광운대학교 산학협력단 | 전자화 문서를 단계별로 분류하여 제공하기 위한 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체 |
KR102655393B1 (ko) | 2022-08-17 | 2024-04-05 | 국방과학연구소 | 적대적 강인성을 위한 신경망모델의 학습방법 및 이를 위한 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001272994A (ja) * | 2000-03-27 | 2001-10-05 | Ricoh Co Ltd | 学習装置および学習方法およびパターン認識装置およびパターン認識方法および記録媒体 |
JP2007299387A (ja) * | 1994-10-13 | 2007-11-15 | Stephen L Thaler | 有用な情報の自律的発生装置 |
KR20170083419A (ko) * | 2016-01-08 | 2017-07-18 | 마우키스튜디오 주식회사 | 레이블링되지 않은 다수의 학습 데이터를 이용하여 딥 러닝의 모델을 트레이닝하는 방법 및 이를 수행하는 딥 러닝 시스템 |
-
2017
- 2017-10-25 KR KR1020170139269A patent/KR102073808B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299387A (ja) * | 1994-10-13 | 2007-11-15 | Stephen L Thaler | 有用な情報の自律的発生装置 |
JP2001272994A (ja) * | 2000-03-27 | 2001-10-05 | Ricoh Co Ltd | 学習装置および学習方法およびパターン認識装置およびパターン認識方法および記録媒体 |
KR20170083419A (ko) * | 2016-01-08 | 2017-07-18 | 마우키스튜디오 주식회사 | 레이블링되지 않은 다수의 학습 데이터를 이용하여 딥 러닝의 모델을 트레이닝하는 방법 및 이를 수행하는 딥 러닝 시스템 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190061446A (ko) * | 2017-11-28 | 2019-06-05 | 공주대학교 산학협력단 | 딥 러닝 환경에서의 적대적 예제 생성 장치 및 방법, 컴퓨터 프로그램 |
DE102020201164A1 (de) | 2019-02-01 | 2020-08-06 | Lg Electronics Inc. | Wäschebehandlungsmaschine und Steuerverfahren dafür |
KR20210048100A (ko) * | 2019-10-23 | 2021-05-03 | 서울대학교산학협력단 | 생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치 |
KR102354145B1 (ko) * | 2020-10-23 | 2022-01-24 | 광주과학기술원 | 증가 학습을 위한 Logit 조정 및 메모리 관리 기법 |
CN113627597A (zh) * | 2021-08-12 | 2021-11-09 | 上海大学 | 一种基于通用扰动的对抗样本生成方法及系统 |
CN113627597B (zh) * | 2021-08-12 | 2023-10-13 | 上海大学 | 一种基于通用扰动的对抗样本生成方法及系统 |
WO2024043541A1 (ko) * | 2022-08-25 | 2024-02-29 | 삼성전자주식회사 | 무선 통신 시스템에서 블라인드 검출을 수행하는 수신기 및 그 동작 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102073808B1 (ko) | 2020-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20190046099A (ko) | 심층 신경망 기반의 정보 처리 장치 및 방법 | |
Jandial et al. | Advgan++: Harnessing latent layers for adversary generation | |
Xie et al. | Activity pattern aware spectrum sensing: A CNN-based deep learning approach | |
Sharma et al. | Face recognition system using machine learning algorithm | |
US10474929B2 (en) | Cyclic generative adversarial network for unsupervised cross-domain image generation | |
Ma et al. | Macow: Masked convolutional generative flow | |
KR102318775B1 (ko) | 강화학습을 이용한 적응형 뇌파 분석 방법 및 장치 | |
Moussa et al. | A novel face recognition approach based on genetic algorithm optimization | |
KR102073935B1 (ko) | 전파신호 변조인식시스템 | |
Qiao et al. | Hidden markov model based dynamic texture classification | |
JP2021082269A (ja) | 分類モデルを訓練する方法及び装置並びに分類方法 | |
Kwon et al. | Improving non-profiled side-channel attacks using autoencoder based preprocessing | |
Sun et al. | Learning low-dimensional state embeddings and metastable clusters from time series data | |
Yao et al. | Chinese license plate character recognition based on convolution neural network | |
Shumailov et al. | The taboo trap: Behavioural detection of adversarial samples | |
WO2021064856A1 (ja) | ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置 | |
Zhang et al. | Attention-based adversarial robust distillation in radio signal classifications for low-power IoT devices | |
Pulugu et al. | MACHINE LEARNING-BASED FACIAL RECOGNITION FOR VIDEO SURVEILLANCE SYSTEMS. | |
Zuo et al. | Adaptive biometric authentication using nonlinear mappings on quality measures and verification scores | |
Tan et al. | Wide Residual Network for Vision-based Static Hand Gesture Recognition. | |
KR102183672B1 (ko) | 합성곱 신경망에 대한 도메인 불변 사람 분류기를 위한 연관성 학습 시스템 및 방법 | |
Hocker et al. | Multistep inference for generalized linear spiking models curbs runaway excitation | |
US20230035291A1 (en) | Generating Authentication Template Filters Using One or More Machine-Learned Models | |
Kuang et al. | A CMA-ES-Based adversarial attack on black-box deep neural networks | |
Zuo et al. | Adaptive quality-based performance prediction and boosting for iris authentication: methodology and its illustration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |