KR102063377B1 - 중대형 네트워크의 학습을 위한 점진적인 학습 기반 정보 이전 방법 및 그 장치 - Google Patents
중대형 네트워크의 학습을 위한 점진적인 학습 기반 정보 이전 방법 및 그 장치 Download PDFInfo
- Publication number
- KR102063377B1 KR102063377B1 KR1020170117001A KR20170117001A KR102063377B1 KR 102063377 B1 KR102063377 B1 KR 102063377B1 KR 1020170117001 A KR1020170117001 A KR 1020170117001A KR 20170117001 A KR20170117001 A KR 20170117001A KR 102063377 B1 KR102063377 B1 KR 102063377B1
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- deep neural
- information flow
- learning
- learned
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
중대형 네트워크의 학습을 위한 점진적인 학습 기반 정보 이전 방법 및 그 장치가 개시된다. 본 발명의 일 실시예에 따른 정보 이전 방법은 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 단계; 상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 단계; 및 상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 단계를 포함한다.
Description
본 발명은 정보 이전(knowledge transfer) 기술에 관한 것으로서, 보다 구체적으로 이미 학습된 딥 신경망을 구성하는 레이어 간의 상관관계에 대응하는 정보 흐름을 이용하여 신경망의 크기가 점진적으로 증가하는 적어도 하나 이상의 딥 신경망을 학습하고, 정보 흐름을 이용한 점진적인 학습을 통해 중대형 네트워크의 학습 시간을 줄일 수 있는 점진적인 학습 기반 정보 이전 방법 및 그 장치에 관한 것이다.
DNN(Deep Neural Network)은 매우 다양한 분야에서 높은 성능을 자랑하고 있다. 특정 태스크에 맞게 DNN를 설계하고 이를 학습하게 되는데, 대부분의 학습된 DNN은 단순히 추론을 하는 데에만 사용한다. 하지만 이는 이미 학습된 DNN의 능력을 모두 사용했다고 할 수 없다.
이미 학습된 네트워크의 능력을 보다 충분히 사용하는 방법 중 하나는 네트워크의 유용한 정보를 추출하고 이를 새로운 네트워크에 전달하는 것이다. 이를 정보 이전(Knowledge transfer) 기술이라 하고, 기존의 많은 연구자들은 이러한 기술에 대해 연구를 진행하였다.
종래의 정보 이전 기술에 대한 일 예는, 다크 정보(Dark knowledge)라는 기술을 이용하여 이미 학습된 네트워크의 출력 특성(output feature)을 소프트하게(softened) 하여 이를 그대로 새로운 네트워크도 만들게끔 학습을 하였다.
종래의 정보 이전 기술에 대한 다른 일 예는, 가장 마지막에 있는 출력 특성 뿐만이 아니라 중간에 있는 특성도 동일하게 만들게 하는 로스(loss)를 줌으로써 새로운 네트워크가 티쳐(teacher) 네트워크의 특성을 흉내 낼 수 있게 하였다.
하지만, 이러한 기존 기법인 학생(student) DNN으로 하여금 티쳐(teacher) DNN이 생성해내는 특성을 정확히 같이 만들라고 하는 것은 매우 힘든 일이 될 수 있고, 이는 단순히 티쳐 DNN을 흉내 내는 일이라고 할 수 있다.
나아가, 최근 다양한 어플리케이션에서 딥 러닝을 활용하여 매우 높은 성능을 달성하고 있다. 하지만 이러한 어플리케이션에서 높은 성능을 달성한 네트워크를 보자면, 매우 깊고 매우 큰 네트워크(중대형 네트워크)가 사용되고 있다. 많은 수의 파라미터와 많은 수의 레이어들을 학습하기 위해서는 대용량의 이미지들이 필요하게 되고, 뿐만 아니라 이러한 파라미터들을 학습하는데 있어서 걸리는 시간이 매우 길어진다고 볼 수 있다.
또한, 파라미터와 레이어가 많아지면 네트워크가 트레이닝 셋만 적응이 되고 테스트 셋에는 성능이 높지 않은 오버피팅(overfitting)의 문제도 야기될 수 있다.
따라서, 중대형 네트워크의 학습시간을 줄이고, 오버피팅(overfitting)의 문제를 줄일 수 있는 새로운 네트워크 학습 기술 즉, 새로운 정보 이전 기술의 필요성이 대두된다.
본 발명의 실시예들은, 이미 학습된 딥 신경망을 구성하는 레이어 간의 상관관계에 대응하는 정보 흐름을 이용하여 신경망의 크기가 점진적으로 증가하는 적어도 하나 이상의 딥 신경망을 학습하고, 정보 흐름을 이용한 점진적인 학습을 통해 중대형 네트워크의 학습 시간을 줄일 수 있는 점진적인 학습 기반 정보 이전 방법 및 그 장치를 제공한다.
본 발명의 일 실시예에 따른 정보 이전 방법은 정보 이전 방법은 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 단계; 상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 단계; 및 상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 단계를 포함한다.
상기 제2 딥 신경망을 학습시키는 단계는 딥 신경망의 크기가 점진적으로 증가하는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용한 점진적인 학습에 기반하여 상기 제2 딥 신경망을 학습시킬 수 있다.
상기 제1 딥 신경망의 크기는 상기 제2 딥 신경망의 크기보다 작으며, 상기 적어도 하나 이상의 딥 신경망 각각의 크기는 상기 제1 딥 신경망의 크기보다 크고 상기 제2 딥 신경망의 크기보다 작으면서 그 크기가 점진적으로 증가할 수 있다.
상기 정의하는 단계는 두 레이어 사이의 특성들 간의 흐름을 상기 정보 흐름으로 정의하며, 상기 흐름은 두 벡터 간의 방향성을 나타내는 내적을 사용한 매트릭스로 정의될 수 있다.
상기 적어도 하나 이상의 딥 신경망을 학습시키는 단계는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 상기 제1 딥 신경망의 정보 흐름과 똑같아지도록 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고, 상기 제2 딥 신경망을 학습시키는 단계는 상기 제2 딥 신경망의 정보 흐름이 상기 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 상기 제2 딥 신경망을 학습시킬 수 있다.
상기 적어도 하나 이상의 딥 신경망을 학습시키는 단계는 유클리드 로스(Euclidean loss)를 이용하여 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고, 상기 제2 딥 신경망을 학습시키는 단계는 유클리드 로스(Euclidean loss)를 이용하여 상기 제2 딥 신경망의 정보 흐름을 학습시킬 수 있다.
상기 적어도 하나 이상의 딥 신경망을 학습시키는 단계는 상기 제1 딥 신경망의 정보 흐름이 학습된 적어도 하나 이상의 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 적어도 하나 이상의 딥 신경망을 학습시키고, 상기 제2 딥 신경망을 학습시키는 단계는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 학습된 제2 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 제2 딥 신경망을 학습시킬 수 있다.
상기 적어도 하나 이상의 딥 신경망의 수는 상기 제2 딥 신경망의 학습 시간과 학습 정확도 중 적어도 하나에 의해 결정될 수 있다.
본 발명의 다른 일 실시예에 따른 정보 이전 방법은 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 단계; 상기 정의된 정보 흐름을 이용하여 적어도 하나 이상의 딥 신경망을 점진적으로 학습시키는 단계; 및 점진적으로 학습된 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 제2 딥 신경망을 학습시키는 단계를 포함한다.
본 발명의 일 실시예에 따른 정보 이전 장치는 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 정의부; 상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 제1 학습부; 및 상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 제2 학습부를 포함한다.
상기 제2 학습부는 딥 신경망의 크기가 점진적으로 증가하는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용한 점진적인 학습에 기반하여 상기 제2 딥 신경망을 학습시킬 수 있다.
상기 제1 딥 신경망의 크기는 상기 제2 딥 신경망의 크기보다 작으며, 상기 적어도 하나 이상의 딥 신경망 각각의 크기는 상기 제1 딥 신경망의 크기보다 크고 상기 제2 딥 신경망의 크기보다 작으면서 그 크기가 점진적으로 증가할 수 있다.
상기 정의부는 두 레이어 사이의 특성들 간의 흐름을 상기 정보 흐름으로 정의하며, 상기 흐름은 두 벡터 간의 방향성을 나타내는 내적을 사용한 매트릭스로 정의될 수 있다.
상기 제1 학습부는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 상기 제1 딥 신경망의 정보 흐름과 똑같아지도록 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고, 상기 제2 학습부는 상기 제2 딥 신경망의 정보 흐름이 상기 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 상기 제2 딥 신경망을 학습시킬 수 있다.
상기 제1 학습부는 유클리드 로스(Euclidean loss)를 이용하여 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고, 상기 제2 학습부는 유클리드 로스(Euclidean loss)를 이용하여 상기 제2 딥 신경망의 정보 흐름을 학습시킬 수 있다.
상기 제1 학습부는 상기 제1 딥 신경망의 정보 흐름이 학습된 적어도 하나 이상의 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 적어도 하나 이상의 딥 신경망을 학습시키고, 상기 제2 학습부는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 학습된 제2 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 제2 딥 신경망을 학습시킬 수 있다.
상기 적어도 하나 이상의 딥 신경망의 수는 상기 제2 딥 신경망의 학습 시간과 학습 정확도 중 적어도 하나에 의해 결정될 수 있다.
본 발명의 실시예들에 따르면, 이미 학습된 작은 크기의 딥 신경망(티쳐 네트워크)을 구성하는 레이어 간의 상관관계에 대응하는 정보 흐름을 이용하여 새로운 큰 크기의 딥 신경망(목표 학생 네트워크)에 정보를 이전(또는 전달)하는데 있어서, 크기가 점진적으로 증가하는 적어도 하나 이상의 딥 신경망의 점진적인 학습을 통해 작은 크기의 네트워크에서 큰 트기의 네트워크 예컨대 중대형 네트워크를 학습시키는 학습 시간을 줄일 수 있다.
구체적으로 본 발명의 실시예들에 따르면, 큰 네트워크(예를 들어, 중대형 네트워크)가 혼자서 학습을 하는 것이 아니라, 이미 학습되어있는 작은 네트워크의 정보 흐름과 큰 네트워크의 정보 흐름을 동일하게 하기 위한 트레이닝을 거치면서 큰 네트워크는 좋은 웨이트를 찾기 위한 초기(initial) 웨이트를 가지게 되고 이후, 메인 태스크의 학습을 거치게 된다. 좋은 초기 웨이트를 가진 채로 학습을 진행하는 큰 네트워크는 좋은 초기 웨이트를 가지지 않은 상태로 바로 학습을 진행하는 큰 네트워크보다 더욱 빠르게 학습을 진행할 수 있으며, 오버피팅 문제도 해결할 수 있다.
즉, 본 발명의 실시예에 따른 기술은, 홈 네트워크 서버와 같은 중대형 네트워크에 적용됨으로써, 중대형 네트워크의 학습 시간을 줄일 수 있다.
도 1은 본 발명의 일 실시예에 따른 점진적인 학습 기반 정보 이전 방법에 대한 동작 흐름도를 나타낸 것이다.
도 2는 정보 흐름을 정의하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다.
도 3은 정보 흐름을 이용하여 DNN을 학습하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다.
도 4는 본 발명의 일 실시예에 따른 방법을 설명하기 위한 일 예시도를 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 점진적인 학습 기반 정보 이전 장치에 대한 구성을 나타낸 것이다.
도 2는 정보 흐름을 정의하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다.
도 3은 정보 흐름을 이용하여 DNN을 학습하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다.
도 4는 본 발명의 일 실시예에 따른 방법을 설명하기 위한 일 예시도를 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 점진적인 학습 기반 정보 이전 장치에 대한 구성을 나타낸 것이다.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
본 발명의 실시예들은, 이미 학습된 딥 신경망을 구성하는 레이어 간의 상관관계를 정보 흐름으로 정의하고, 이렇게 정의된 정보 흐름을 이용하여 학습시키고자 하는 새로운 딥 신경망 예를 들어, 학생 DNN에 정보를 이전(또는 전달)하는 것으로, 이미 학습된 딥 신경망과 학습시키고자 하는 딥 신경망 예를 들어, 중대형 네트워크 사이에 적어도 하나 이상의 딥 신경망을 이용한 점진적인 학습에 기반하여 학생 DNN을 빠르게 학습시키는 것을 그 요지로 한다.
여기서, 본 발명은 미리 학습된 제1 DNN 예를 들어, 티쳐 DNN을 구성하는 레이어들 간의 상관관계 즉, 정보의 흐름을 이용하여 적어도 하나 이상의 딥 신경망을 점진적으로 학습시키고, 점진적으로 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름이 학습시키고자 하는 제2 DNN을 구성하는 레이어들 간의 정보 흐름과 같도록 제2 DNN을 학습시킬 수 있다.
본 발명에서 제1 DNN의 크기가 제2 DNN의 크기보다 작으며, 제1 DNN과 제2 DNN 사이에서 제1 DNN의 정보 흐름을 이용하여 점진적으로 학습되는 적어도 하나 이상의 DNN의 크기는 제1 DNN의 크기보다 크고 제2 DNN의 크기보다 작을 수 있다. 즉, 제1 DNN, 적어도 하나 이상의 DNN 및 제2 DNN의 크기가 점진적으로 증가하는 형태를 가질 수 있다. 이와 같이 본 발명에 따른 정보 이전 기술은 제1 DNN과 제2 DNN 사이에 형성되는 크기가 점진적으로 증가하는 적어도 하나 이상의 DNN을 이용한 점진적인 학습을 기반으로 제2 DNN을 빠르게 학습시킴으로써, 중대형 네트워크의 학습 시간을 줄이고, 오버피팅 문제를 해결하고자 하는 것이다.
도 1은 본 발명의 일 실시예에 따른 점진적인 학습 기반 정보 이전 방법에 대한 동작 흐름도를 나타낸 것이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 정보 이전 방법은 이미 학습된 제1 딥 신경망(DNN) 예를 들어, 티쳐 DNN을 구성하는 레이어들 간 정보 흐름을 정의한다(S110).
여기서, 단계 S110은 이미 학습된 티쳐 DNN을 구성하는 레이어들에서 두 레이어들 사이의 특성들 간의 흐름을 정의할 수 있으며, 흐름은 두 레이어의 특성들 간의 내적을 계산함으로써, 정의될 수 있다. 또한, 흐름은 두 레이어의 특성들에 대한 두 벡터 간의 방향성을 나타내는 내적을 사용한 매트릭스로 정의될 수도 있다.
예를 들어, 단계 S110은 도 2에 도시된 바와 같이, 티쳐 DNN을 구성하는 레이어의 입력과 출력 간의 특성들(feature map)을 이용하여 티쳐 DNN의 정보 흐름을 나타내는 매트릭스 예를 들어, Gram Matrix 또는 FSP(Flow of Solving a Problem) Matrix로 정보 흐름을 정의할 수 있다. 이렇게 정의된 정보 흐름 또는 매트릭스는 학습시키고자 하는 새로운 DNN 예를 들어, 학생 DNN을 학습시키는데 사용될 수 있다(transfer the distilled knowledge). 도 4를 예를 들어 설명하면, 티쳐 DNN(410)의 정보 흐름 또는 매트릭스는 제1 학생 DNN(420)을 학습시키는데 사용될 수 있으며, 제1 학생 DNN(420)의 정보 흐름 또는 매트릭스는 최종적으로 학습시키고자 하는 제2 학생 DNN(430)을 학습시키는데 사용될 수 있다.
예컨대, 두 레이어 간의 흐름을 나타내는 매트릭스가 G라고 가정하면, G는 로 나타낼 수 있으며, 는 한 레이어의 i번째 채널 특성을 의미하고, 는 또 다른 레이어의 j번째 채널 특성을 의미할 수 있다.
본 발명에서는 티쳐 DNN의 입력 공간(input space)에서 출력 공간(output space)로 만드는 정보의 흐름이 학생 DNN을 빠르게 학습시킬 수 있는 중요한 특성이 되며, 이러한 정보 흐름은 티쳐 DNN을 구성하는 레이어들 간의 상관 관계로 정의할 수도 있다.
단계 S110에 의해 티쳐 DNN의 정보 흐름의 정의되면, 이렇게 정의된 정보 흐름을 이용하여 적어도 하나 이상의 DNN을 점진적으로 학습시킨다(S120).
여기서, 단계 S120은 최종적으로 학습시키고자 하는 DNN 즉, 중대형 네트워크인 제2 DNN을 빠르게 학습시키기 위하여, 제1 DNN과 제2 DNN 사이에 적어도 하나 이상의 DNN을 이용하여 점진적인 학습을 수행하는 것이다.
단계 S120은 적어도 하나 이상의 DNN의 정보 흐름이 제1 DNN의 정보 흐름과 똑같아지도록 제1 DNN의 정보 흐름을 이용하여 적어도 하나 이상의 DNN의 정보 흐름을 학습시킬 수 있다. 물론, 적어도 하나 이상의 DNN이 제3 DNN과 제4 DNN으로 구성된 경우에는 제3 DNN의 정보 흐름이 제1 DNN의 정보 흐름과 똑같아지도록 제1 DNN의 정보 흐름을 이용하여 제3 DNN의 정보 흐름을 학습시킬 수 있고, 제4 DNN의 정보 흐름이 제3 DNN의 정보 흐름과 똑같아지도록 제3 DNN의 정보 흐름을 이용하여 제4 DNN의 정보 흐름을 학습시킬 수 있다.
단계 S120에 의해 적어도 하나 이상의 DNN에 대한 점진적인 학습이 수행되면, 점진적으로 학습된 적어도 하나 이상의 DNN의 정보 흐름을 이용하여 최종적으로 학습시키고자 하는 제2 DNN 즉, 최종 학생 DNN을 학습시킨다(S130).
본 발명에서 단계 S120와 S130은 두 단계의 로스를 이용하여 적어도 하나 이상의 DNN과 제2 DNN을 학습시킬 수 있으며, 유클리드 로스(Euclidean loss)(또는 knowledge transfer loss)와 분류 로스(classification loss)(또는 main task loss)의 두 로스를 이용하여 적어도 하나 이상의 DNN과 제2 DNN을 학습시킬 수 있다.
여기서, 분류 로스(또는 메인 태스크 로스)는 실제로 문제를 풀고자 하는 데에 필요한 로스로, 예를 들어, 이미지 분류에서는 이미지를 넣었을 경우 나오는 추론(inference) 확률과 라벨 간의 크로스 엔트로피 로스를 포함할 수 있으며, 유클리드 로스는 네트워크에서 추출된 지식을 전달하는 데에 필요한 로스를 의미할 수 있다.
예를 들어, 도 3을 참조하여 설명하면 도 3에 도시된 바와 같이, 단계 S120은 학생 DNN의 정보 흐름 예를 들어, 매트릭스(GS)가 티쳐 DNN에서 정의된 정보 흐름 예를 들어, 매트릭스(GT)와 똑같아지도록 유클리드 로스(Euclidean loss)를 이용하여 티쳐 DNN의 정보 흐름을 학습시킬 수 있다. 예컨대, 미리 학습된 티쳐 DNN의 매트릭스를 G1이라 가정하고, 학생 DNN의 매트릭스를 G2라 가정하면, 두 매트릭스를 똑같이 맞추도록 유클리드 로스(Euclidean loss) 를 사용할 수 있다.
그리고, 분류 로스를 이용하여 유클리드 로스에 의해 학습된 학생 DNN을 학습시킬 수 있다. 즉, 단계 S120은 유클리드 로스에 의해 학습된 학생 DNN의 웨이트를 초기 웨이트로 하여 분류 로스를 사용한 분류 태스크를 수행함으로써, 학생 DNN의 최종 학습시키고, 이를 통해 티쳐 DNN에서 학생 DNN으로 정보 전이를 빠르게 수행할 수 있다.
물론, 단계 S130의 경우에는 적어도 하나 이상의 DNN 중 마지막 DNN의 정보 흐름 예를 들어, 마지막 DNN의 매트릭스와 똑같아지도록 유클리드 로스(Euclidean loss)를 이용하여 마지막 DNN의 정보 흐름을 학습시킬 수 있다. 예컨대, 미리 학습된 적어도 하나 이상의 DNN 중 마지막 DNN의 매트릭스와 최종 DNN인 제2 DNN의 매트릭스를 똑같이 맞추도록 유클리드 로스(Euclidean loss)를 사용할 수 있다.
그리고, 분류 로스를 이용하여 유클리드 로스에 의해 학습된 제2 DNN을 학습시킬 수 있다. 즉, 단계 S130은 유클리드 로스에 의해 학습된 제2 DNN의 웨이트를 초기 웨이트로 하여 분류 로스를 사용한 분류 태스크를 수행함으로써, 제2 DNN을 최종 학습시키고, 이를 통해 티쳐 DNN의 정보 흐름, 적어도 하나 이상의 DNN의 점진적인 학습을 이용하여 최종적으로 학습시키고자 하는 중대형 네트워크로의 정보 전이를 빠르게 수행할 수 있다.
즉, 티쳐 DNN는 분류 로스(또는 메인 태스크 로스)를 줄이는 방향으로 미리 학습되어 있는 네트워크이고, 적어도 하나 이상의 DNN과 최종 학습시키고자 하는 제2 DNN은 유클리드 로스와 분류 로스의 두 로스가 존재하는데, 적어도 하나 이상의 DNN과 제2 DNN은 이미 학습된 이전 DNN의 FSP 매트릭스와 해당 네트워크의 FSP 매트릭스의 차이가 없어지도록 학습을 진행한 후 분류 로스가 줄어드는 방향으로 학습을 진행함으로써, 티쳐 DNN에서 최종 학생 DNN에 정보 이전을 수행할 수 있다.
예컨대, 도 4를 참조하여 설명하면, 티쳐 DNN(410)의 정보 흐름을 이용하여 제1 학생 DNN(420)을 학습시키고, 제1 DNN의 정보 흐름을 이용하여 중대형 네트워크인 제2 학생 DNN(430)을 학습시키는 것으로, 티쳐 DNN(410)과 중대형 네트워크인 제2 학생 DNN(430) 사이에 형성된 제1 학생 DNN(420)의 점진적인 학습 기반으로 중대형 네트워크를 빠르게 학습시키는 것이다.
도 4에 도시된 DNN이 티쳐 DNN과 함께 2 개의 학생 DNN이 존재하는 것으로 도시하였지만, 이에 한정되지 않으며 n개의 학생 DNN이 존재할 수 있으며 첫 번째 학생 DNN으로부터 n번째 학생 DNN으로 가면서 네트워크 크기가 점차적(또는 점진적)으로 커지면서 학습을 수행하는 것이다.
최초의 티쳐 DNN(410)은 메인 태스크 로스를 줄이는 방향으로 미리 학습이 되어있는 네트워크이며, 학생 DNN(420, 430)은 메인 태스크 로스와 정보 이전 로스의 두 로스를 모두 포함한다.
제1 학생 DNN(420)은 본인의 FSP 매트릭스와 티쳐 DNN(410)의 FSP 매트릭스의 차이가 없어지도록 학습을 진행한 후에 메인 태스크 로스가 줄어드는 방향으로 학습한다.
제2 학생 DNN(430)은 본인의 FSP 매트릭스와 제1 학생 DNN(420)의 FSP 매트릭스의 차이가 없어지도록 학습을 진행한 후에 메인 태스크 로스가 줄어드는 방향으로 학습한다.
마찬가지로, n번째 학생 DNN은 본인의 FSP 매트릭스와 n-1번째 학생 DNN의 FSP 매트릭스의 차이가 없어지도록 학습을 진행한 후에 메인 태스크 로스가 줄어드는 방향으로 학습한다.
이러한 과정을 통해 네트워크 크기가 점진적으로 증가하는 학생 DNN에 정보 이전을 수행할 수 있으며, 따라서 최종적으로 학습시키고자 하는 중대형 네트워크의 학습 시간을 줄일 수 있다.
이러한 본 발명은 빠른 최적화(fast optimization) 기법과 함께 점진적인 학습을 통한 정보 이전 기술을 이용하여 중대형 네트워크의 학습 성능을 향상시키고, 학습 시간을 줄일 수 있다.
이러한 본 발명에 대해 조금 더 구체적으로 설명하면 다음과 같다.
본 발명에 따른 정보 이전 방법은 제1 DNN 예를 들어, 티쳐 DNN의 중요 정보를 정의하고 네트워크 크기가 점진적으로 증가하는 다른 DNN 예를 들어, 적어도 하나 이상의 DNN과 최종적으로 학습시키고자 하는 중대형 네트워크인 학생 DNN에 디스틸드 정보(distilled knowledge)를 전달 하는 것이다.
본 발명에서의
디스틸드
정보
DNN은 레이어간 특성들을 생성한다. 상위 레이어 특성들은 메인 태스크를 수행할 수 있는 유용한 특성들에 가깝다. DNN의 입력을 질문으로 하고 출력을 대답으로 한다면, 중간 결과로서 DNN의 중간에서 생성되는 특성들을 생각할 수 있으며, 이러한 관점에서 정보 이전 기술은 학생 DNN이 티쳐 DNN의 중간 결과를 단순히 모방하는 것으로 볼 수 있다. 그러나, DNN의 경우 입력으로부터 출력을 생성하는 문제를 해결할 수 있는 다양한 방법이 있으며, 이런 의미에서 티쳐 DNN의 생성된 특성들을 모방하는 것은 학생 DNN에 대한 제약이 될 수 있다.
사람의 경우, 선생은 문제를 푸는 과정을 설명하고, 학생은 문제를 푸는 과정을 학습한다. 학생 DNN은 특정 질문이 입력되는 경우 중간 출력을 학습할 필요는 없지만 특정 형태의 질문을 마주하였을 때 그 문제를 해결할 수 있는 방법을 학습할 수 있다. 이와 같은 방법으로 본 발명은 중간 결과를 티칭하는 것보다 더 나은 방법을 제공할 수 있다.
디스틸드
정보의 수학적인 표현
본 발명은 두 중간 결과 간의 관계를 정의할 수 있다. DNN의 경우 관계는 두 레이어들의 특성들 간 방향에 의해 수학적으로 고려될 수 있다. 본 발명에서는 솔루션 프로세서의 플로우(또는 흐름)를 FSP 매트릭스로 나타낼 수 있다. FSP 매트릭스 는 두 레이어들의 특성들에 의해 생성된다. 선택된 레이어들 중 하나가 특성 맵 을 생성한다고 하면 다른 선택된 레이어는 특성 맵 를 생성한다. 여기서, h, w, m은 각각 채널의 높이, 폭과 수를 의미할 수 있다.
[수학식 1]
여기서, x와 W는 각각 DNN의 입력 이미지와 웨이트들을 의미할 수 있다.
FSP
매트릭스의 로스
중대형 네트워크인 학생 네트워크를 학습시키기 위하여, 본 발명은 티쳐 네트워크의 디스틸드 정보를 적어도 하나 이상의 DNN인 학생 네트워크로 이전 또는 전달한 후 적어도 하나 이상의 DNN에서 최종적으로 학습시키고자 하는 학생 DNN으로 이전하는 것으로, 상술한 바와 같이, 디스틸드 정보는 솔루션 과정의 플로우에 대한 정보를 포함하는 FSP 매트릭스 형태로 나타낼 수 있다. 티쳐 네트워크에 의해 생성되는 n FSP 행렬을 , 적어도 하나 이상의 학생 네트워크 중 첫 번째 네트워크에 의해 생성되는 n FSP 행렬을 라 가정하면, 본 발명은 같은 공간 사이즈를 가지는 티쳐 네트워크와 첫 번째 학생 네트워크 간 FSP 행렬의 쌍 을 고려한다. 각 쌍에 대한 비용 함수로 제곱된 L2 표준을 이용하며, 디스틸드 정보 이전에 대한 비용 함수는 아래 수학식 2와 같이 정의될 수 있다.
[수학식 2]
학습
프로시져
본 발명에 따른 정보 이전 방법은 티쳐 네트워크에 의해 생성된 디스틸드 정보를 사용한다. 본 발명에서 티쳐 네트워크가 무엇인지 명확하게 설명하기 위하여 다음과 같은 두 조건을 정의한다.
첫 째, 티쳐 네트워크는 미리 설정된 데이터셋에 의해 미리 트레이닝되어 있어야 한다. 이 때, 티쳐 네트워크를 트레이닝하는 데이터셋은 학생 네트워크가 학습한 데이터셋과 같거나 다를 수 있다. 티쳐 네트워크는 전이 학습 태스크의 경우 학생 네트워크의 데이터셋과 다른 데이터셋을 사용할 수 잇다.
둘 째, 티쳐 네트워크는 학생 네트워크보다 더 얕을 수 있다.
학습 프로시져는 트레이닝의 두 단계를 포함한다. 첫 째, 본 발명은 학생 네트워크의 FSP 매트릭스를 티쳐 네트워크의 FSP 매트릭스와 같게 만들기 위하여 로스 함수 LFSP를 최소화한다. 첫 번째 단계를 거친 학생 네트워크는 두 번째 단계에서 메인 태스크 로스에 의해 트레이닝 된다. 본 발명에서는 메인 태스크 로스로, 소프트맥스 크로스 엔트로피 로스 Lori를 사용할 수 있다.
즉, 본 발명의 학습 프로시져는 아래 <수학식 3>을 이용하여 첫 번째 단계인 FSP 매트릭스를 학습하고, 첫 번째 단계에서 FSP 매트릭스가 학습된 학생 네트워크에 대하여, 아래 <수학식 4>를 이용하여 두 번째 단계인 오리지널 태스크를 트레이닝한다.
<수학식 3>
여기서, Ws와 Wt는 학생 네트워크의 웨이트들과 티쳐 네트워크의 웨이트들을 의미할 수 있다. 물론, 학생 네트워크와 학생 네트워크 간의 FSP 매트릭스를 학습하는 과정에서는 두 학생 네트워크 각각의 웨이트를 이용하여 로스 함수 LFSP를 최소화할 수 있다.
<수학식 4>
딥 잔여 네트워크(deep residual network)는 바로가기 연결(shortcut connection)을 통해 앙상블 구조를 만들 수 있으며, 바로가기 연결은 더 깊은 네트워크의 트레이닝을 수행할 수 있다.
그리고, 도 3과 도 4에 도시된 예들과 같이, FSP 행렬은 같은 공간 사이즈를 유지하는 세 개의 섹션들에서 추출될 수 있으며, 첫 번째 단계에서 학생 네트워크와 티쳐 네트워크의 FSP 행렬 간 거리가 최소가되도록 학생 네트워크를 트레이닝하고, 학생 DNN의 미리 트레이닝된 웨이트들은 두 번째 단계에서 초기 웨이트로 사용된다. 두 번째 단계는 노말 트레이닝 프로시져를 나타낸다.
즉, 딥 잔여 네트워크는 세 개의 섹션을 포함하고, FSP 매트릭스를 만들기 위하여 두 개의 레이어들을 선택하는데, 두 개의 레이어들을 선택하는 방법에는 제한이 없다. 예를 들어, 첫 번째 레이어와 마지막 레이어를 FSP 매트릭스를 만들기 위하여 선택할 수도 있다. FSP 매트릭스는 같은 공간 사이즈를 가지는 두 레이어 특성들에 의해 생성되기 때문에 두 레이어 특성들의 사이즈가 다를 경우 동일 공간 사이즈를 만들기 위하여 맥스 풀링 레이어를 사용할 수 있다. 물론, FSP 행렬은 세 개의 섹션으로 한정되지 않으며 n개의 FSP 행렬로 일반화되어 사용될 수도 있다.
이와 같이, 본 발명의 실시예들에 따른 방법은 중대형 네트워크를 학습시키기 위하여, 점진적인 학습을 수행하는 적어도 하나 이상의 DNN을 이용하여 정보 이전을 수행하는 것으로, 중대형 네트워크가 혼자서 학습을 하는 것이 아니라, 이미 학습되어 있는 작은 네트워크의 정보 흐름과 중대형 네트워크의 정보흐름을 동일하게 하기 위한 트레이닝을 거치면서 중대형 네트워크는 좋은 웨이트를 찾기 위한 초기 웨이트를 가지게 되고, 이후 메인 태스크의 학습을 거치게 되기 때문에 좋은 초기 웨이트를 가진 채로 학습을 진행하는 중대형 네트워크는 좋은 초기 웨이트를 가지지 않은 상태로 바로 학습을 진행하는 중대형 네트워크보다 더욱 빠르게 학습을 진행할 수 있으며, 또한 오버피팅의 문제도 해결할 수 있다.
본 발명에서 티쳐 DNN과 중대형 네트워크인 학생 DNN 사이에 형성되는 적어도 하나 이상의 DNN의 수는 최종 학생 DNN의 학습 시간과 학습 정확도를 고려하여 결정될 수 있다.
도 5는 본 발명의 일 실시예에 따른 점진적인 학습 기반 정보 이전 장치에 대한 구성을 나타낸 것으로, 상술한 도 1 내지 도 4의 방법을 수행하는 장치에 대한 구성을 나타낸 것이다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 정보 이전 장치(500)는 정의부(510), 제1 학습부(520) 및 제2 학습부(530)를 포함한다.
정의부(510)는 이미 학습된 제1 딥 신경망 예를 들어, 티쳐 DNN의 레이어들 간 정보 흐름을 정의한다.
여기서, 정의부(510)는 두 레이어 사이의 특성들 간의 흐름을 정보 흐름으로 정의하며, 흐름은 두 벡터 간의 방향성을 나타내는 내적을 사용한 매트릭스로 정의될 수 있다.
제1 학습부(520)는 정의부(510)에 의해 정의된 티쳐 DNN의 정보 흐름을 이용하여 적어도 하나 이상의 DNN을 점진적으로 학습시킨다.
여기서, 제1 학습부(520)는 적어도 하나 이상의 딥 신경망의 정보 흐름이 제1 딥 신경망의 정보 흐름과 똑같아지도록 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시킬 수 있다.
예컨대, 제1 학습부(520)는 적어도 하나 이상의 딥 신경망의 정보 흐름이 제1 딥 신경망의 정보 흐름과 똑같아지도록 유클리드 로스(Euclidean loss)를 이용하여 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시킬 수 있으며, 추가적으로, 정보 흐름이 학습된 적어도 하나 이상의 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 적어도 하나 이상의 딥 신경망을 학습시킬 수 있다.
제2 학습부(530)는 제1 학습부(520)에 의해 학습된 적어도 하나 이상의 DNN의 정보 흐름을 이용하여 최종적으로 학습시키고자 하는 중대형 네트워크인 제2 DNN을 학습시킨다.
여기서, 제2 학습부(530)는 제2 딥 신경망의 정보 흐름이 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 제2 딥 신경망의 정보 흐름을 학습시킬 수 있다.
예컨대, 제2 학습부(530)는 제2 딥 신경망의 정보 흐름이 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 유클리드 로스(Euclidean loss)를 이용하여 제2 딥 신경망의 정보 흐름을 학습시킬 수 있으며, 추가적으로, 정보 흐름이 학습된 제2 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 제2 딥 신경망을 학습시킬 수 있다.
비록, 도 5의 장치에서 그 설명이 생략되었더라도 도 5의 장치는 도 1 내지 도 4에서 설명한 내용을 모두 포함할 수 있으며, 점진적인 학습 기반 정보 이전과 관련된 모든 기능 또는 내용을 포함할 수 있다는 것은 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Claims (17)
- 정의부에서 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 단계;
제1 학습부에서 상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 단계; 및
제2 학습부에서 상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 단계
를 포함하고,
상기 적어도 하나 이상의 딥 신경망은
상기 제1 딥 신경망 및 상기 제2 딥 신경망과 독립적인 딥 신경망이며,
상기 정의하는 단계는
두 레이어 사이의 특성들 간의 흐름을 상기 정보 흐름으로 정의하며,
상기 흐름은
두 벡터 간의 방향성을 나타내는 내적을 사용한 매트릭스로 정의되는 정보 이전 방법.
- 제1항에 있어서,
상기 제2 딥 신경망을 학습시키는 단계는
딥 신경망의 크기가 점진적으로 증가하는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용한 점진적인 학습에 기반하여 상기 제2 딥 신경망을 학습시키는 것을 특징으로 하는 정보 이전 방법.
- 제1항에 있어서,
상기 제1 딥 신경망의 크기는
상기 제2 딥 신경망의 크기보다 작으며,
상기 적어도 하나 이상의 딥 신경망 각각의 크기는
상기 제1 딥 신경망의 크기보다 크고 상기 제2 딥 신경망의 크기보다 작으면서 그 크기가 점진적으로 증가하는 것을 특징으로 하는 정보 이전 방법.
- 삭제
- 삭제
- 정의부에서 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 단계;
제1 학습부에서 상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 단계; 및
제2 학습부에서 상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 단계
를 포함하고,
상기 적어도 하나 이상의 딥 신경망은
상기 제1 딥 신경망 및 상기 제2 딥 신경망과 독립적인 딥 신경망이며,
상기 적어도 하나 이상의 딥 신경망을 학습시키는 단계는
상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 상기 제1 딥 신경망의 정보 흐름과 똑같아지도록 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고,
상기 제2 딥 신경망을 학습시키는 단계는
상기 제2 딥 신경망의 정보 흐름이 상기 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 상기 제2 딥 신경망을 학습시키며,
상기 적어도 하나 이상의 딥 신경망을 학습시키는 단계는
유클리드 로스(Euclidean loss)를 이용하여 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고,
상기 제2 딥 신경망을 학습시키는 단계는
유클리드 로스(Euclidean loss)를 이용하여 상기 제2 딥 신경망의 정보 흐름을 학습시키는 것을 특징으로 하는 정보 이전 방법.
- 정의부에서 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 단계;
제1 학습부에서 상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 단계; 및
제2 학습부에서 상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 단계
를 포함하고,
상기 적어도 하나 이상의 딥 신경망은
상기 제1 딥 신경망 및 상기 제2 딥 신경망과 독립적인 딥 신경망이며,
상기 적어도 하나 이상의 딥 신경망을 학습시키는 단계는
상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 상기 제1 딥 신경망의 정보 흐름과 똑같아지도록 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고,
상기 제2 딥 신경망을 학습시키는 단계는
상기 제2 딥 신경망의 정보 흐름이 상기 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 상기 제2 딥 신경망을 학습시키며,
상기 적어도 하나 이상의 딥 신경망을 학습시키는 단계는
상기 제1 딥 신경망의 정보 흐름이 학습된 적어도 하나 이상의 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 적어도 하나 이상의 딥 신경망을 학습시키고,
상기 제2 딥 신경망을 학습시키는 단계는
상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 학습된 제2 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 제2 딥 신경망을 학습시키는 것을 특징으로 하는 정보 이전 방법.
- 제1항에 있어서,
상기 적어도 하나 이상의 딥 신경망의 수는
상기 제2 딥 신경망의 학습 시간과 학습 정확도 중 적어도 하나에 의해 결정되는 것을 특징으로 하는 정보 이전 방법.
- 정의부에서 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 단계;
제1 학습부에서 상기 정의된 정보 흐름을 이용하여 적어도 하나 이상의 딥 신경망을 점진적으로 학습시키는 단계; 및
제2 학습부에서 점진적으로 학습된 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 제2 딥 신경망을 학습시키는 단계
를 포함하고,
상기 적어도 하나 이상의 딥 신경망은
상기 제1 딥 신경망 및 상기 제2 딥 신경망과 독립적인 딥 신경망이며,
상기 정의하는 단계는
두 레이어 사이의 특성들 간의 흐름을 상기 정보 흐름으로 정의하며,
상기 흐름은
두 벡터 간의 방향성을 나타내는 내적을 사용한 매트릭스로 정의되는 정보 이전 방법.
- 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 정의부;
상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 제1 학습부; 및
상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 제2 학습부
를 포함하고,
상기 적어도 하나 이상의 딥 신경망은
상기 제1 딥 신경망 및 상기 제2 딥 신경망과 독립적인 딥 신경망이며,
상기 정의부는
두 레이어 사이의 특성들 간의 흐름을 상기 정보 흐름으로 정의하며,
상기 흐름은
두 벡터 간의 방향성을 나타내는 내적을 사용한 매트릭스로 정의되는 정보 이전 장치.
- 제10항에 있어서,
상기 제2 학습부는
딥 신경망의 크기가 점진적으로 증가하는 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용한 점진적인 학습에 기반하여 상기 제2 딥 신경망을 학습시키는 것을 특징으로 하는 정보 이전 장치.
- 제10항에 있어서,
상기 제1 딥 신경망의 크기는
상기 제2 딥 신경망의 크기보다 작으며,
상기 적어도 하나 이상의 딥 신경망 각각의 크기는
상기 제1 딥 신경망의 크기보다 크고 상기 제2 딥 신경망의 크기보다 작으면서 그 크기가 점진적으로 증가하는 것을 특징으로 하는 정보 이전 장치.
- 삭제
- 삭제
- 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 정의부;
상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 제1 학습부; 및
상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 제2 학습부
를 포함하고,
상기 적어도 하나 이상의 딥 신경망은
상기 제1 딥 신경망 및 상기 제2 딥 신경망과 독립적인 딥 신경망이며,
상기 제1 학습부는
상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 상기 제1 딥 신경망의 정보 흐름과 똑같아지도록 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고,
상기 제2 학습부는
상기 제2 딥 신경망의 정보 흐름이 상기 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 상기 제2 딥 신경망을 학습시키며,
상기 제1 학습부는
유클리드 로스(Euclidean loss)를 이용하여 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고,
상기 제2 학습부는
유클리드 로스(Euclidean loss)를 이용하여 상기 제2 딥 신경망의 정보 흐름을 학습시키는 것을 특징으로 하는 정보 이전 장치.
- 이미 학습된 제1 딥 신경망의 레이어들 간 정보 흐름을 정의하는 정의부;
상기 정의된 정보 흐름을 이용하여 상기 제1 딥 신경망과 학습시키고자 하는 제2 딥 신경망 사이에 형성된 적어도 하나 이상의 딥 신경망을 학습시키는 제1 학습부; 및
상기 학습된 적어도 하나 이상의 딥 신경망의 정보 흐름을 이용하여 상기 제2 딥 신경망을 학습시키는 제2 학습부
를 포함하고,
상기 적어도 하나 이상의 딥 신경망은
상기 제1 딥 신경망 및 상기 제2 딥 신경망과 독립적인 딥 신경망이며,
상기 제1 학습부는
상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 상기 제1 딥 신경망의 정보 흐름과 똑같아지도록 상기 적어도 하나 이상의 딥 신경망의 정보 흐름을 학습시키고,
상기 제2 학습부는
상기 제2 딥 신경망의 정보 흐름이 상기 적어도 하나 이상의 딥 신경망의 정보 흐름과 똑같아지도록 상기 제2 딥 신경망을 학습시키며,
상기 제1 학습부는
상기 제1 딥 신경망의 정보 흐름이 학습된 적어도 하나 이상의 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 적어도 하나 이상의 딥 신경망을 학습시키고,
상기 제2 학습부는
상기 적어도 하나 이상의 딥 신경망의 정보 흐름이 학습된 제2 딥 신경망의 웨이트(weight)를 초기 웨이트로 하는 분류 로스(classification loss)를 사용한 분류 태스크를 수행함으로써, 상기 제2 딥 신경망을 학습시키는 것을 특징으로 하는 정보 이전 장치.
- 제10항에 있어서,
상기 적어도 하나 이상의 딥 신경망의 수는
상기 제2 딥 신경망의 학습 시간과 학습 정확도 중 적어도 하나에 의해 결정되는 것을 특징으로 하는 정보 이전 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170023057 | 2017-02-21 | ||
KR1020170023057 | 2017-02-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180096474A KR20180096474A (ko) | 2018-08-29 |
KR102063377B1 true KR102063377B1 (ko) | 2020-01-07 |
Family
ID=63434757
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170102269A KR102061935B1 (ko) | 2017-02-21 | 2017-08-11 | 딥 신경망을 이용한 정보 이전 방법 및 그 장치 |
KR1020170117000A KR102063376B1 (ko) | 2017-02-21 | 2017-09-13 | 정보의 질을 높이기 위한 정보 공유 기반 정보 이전 방법 및 그 장치 |
KR1020170117001A KR102063377B1 (ko) | 2017-02-21 | 2017-09-13 | 중대형 네트워크의 학습을 위한 점진적인 학습 기반 정보 이전 방법 및 그 장치 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170102269A KR102061935B1 (ko) | 2017-02-21 | 2017-08-11 | 딥 신경망을 이용한 정보 이전 방법 및 그 장치 |
KR1020170117000A KR102063376B1 (ko) | 2017-02-21 | 2017-09-13 | 정보의 질을 높이기 위한 정보 공유 기반 정보 이전 방법 및 그 장치 |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR102061935B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024039048A1 (ko) * | 2022-08-16 | 2024-02-22 | 주식회사 맨드언맨드 | 편집된 인공 신경망을 이용한 데이터 처리 방법 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200044173A (ko) * | 2018-10-05 | 2020-04-29 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
US11640522B2 (en) * | 2018-12-13 | 2023-05-02 | Tybalt, Llc | Computational efficiency improvements for artificial neural networks |
KR102168541B1 (ko) * | 2018-12-20 | 2020-10-21 | 주식회사 마인즈랩 | 제1 신경망을 이용한 제2 신경망 학습 방법 및 컴퓨터 프로그램 |
KR102191351B1 (ko) | 2020-04-28 | 2020-12-15 | 아주대학교산학협력단 | 지식 증류법 기반 의미론적 영상 분할 방법 |
KR102225579B1 (ko) * | 2020-05-14 | 2021-03-10 | 아주대학교산학협력단 | 학습성능이 향상된 지식 증류법 기반 의미론적 영상 분할 방법 |
KR102354145B1 (ko) * | 2020-10-23 | 2022-01-24 | 광주과학기술원 | 증가 학습을 위한 Logit 조정 및 메모리 관리 기법 |
KR102543690B1 (ko) | 2020-10-27 | 2023-06-13 | 연세대학교 산학협력단 | 사전 정보 학습 기반 영상 업스케일링 장치 및 방법 |
-
2017
- 2017-08-11 KR KR1020170102269A patent/KR102061935B1/ko active IP Right Grant
- 2017-09-13 KR KR1020170117000A patent/KR102063376B1/ko active IP Right Grant
- 2017-09-13 KR KR1020170117001A patent/KR102063377B1/ko active IP Right Grant
Non-Patent Citations (2)
Title |
---|
Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531. 2015. |
Romero, Adriana, et al. Fitnets: Hints for thin deep nets. arXiv preprint arXiv:1412.6550. 2014. |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024039048A1 (ko) * | 2022-08-16 | 2024-02-22 | 주식회사 맨드언맨드 | 편집된 인공 신경망을 이용한 데이터 처리 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20180096474A (ko) | 2018-08-29 |
KR102061935B1 (ko) | 2020-01-02 |
KR20180096473A (ko) | 2018-08-29 |
KR102063376B1 (ko) | 2020-01-07 |
KR20180096469A (ko) | 2018-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102063377B1 (ko) | 중대형 네트워크의 학습을 위한 점진적인 학습 기반 정보 이전 방법 및 그 장치 | |
AU2019200270B2 (en) | Concept mask: large-scale segmentation from semantic concepts | |
US11775804B2 (en) | Progressive neural networks | |
US11501076B2 (en) | Multitask learning as question answering | |
KR102184278B1 (ko) | 메타학습에 기반한 임의의 목표 데이터셋과 모델 구조로의 전이학습 방법 및 시스템 | |
US10740433B2 (en) | Universal transformers | |
JP6771645B2 (ja) | ドメイン分離ニューラルネットワーク | |
KR101880901B1 (ko) | 기계 학습 방법 및 장치 | |
JP7196218B2 (ja) | 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム | |
US20190354853A1 (en) | System and method for generating explainable latent features of machine learning models | |
KR102203065B1 (ko) | 트리플 검증 장치 및 방법 | |
KR102011788B1 (ko) | 계층적 시각 특징을 이용한 시각 질의 응답 장치 및 방법 | |
US9536206B2 (en) | Method and apparatus for improving resilience in customized program learning network computational environments | |
CN118451423A (zh) | 最优知识蒸馏方案 | |
Giraldo et al. | Sailboat navigation control system based on spiking neural networks | |
KR102610242B1 (ko) | 인공지능 ocr 기반 비정형 손글씨 인식 방법, 장치 및 시스템 | |
Chariton et al. | Mutual information-based neural network distillation for improving photonic neural network training | |
KR20240027470A (ko) | 인공 신경망 모델의 동작 방법 및 장치 | |
US20240242086A1 (en) | Method and apparatus for learning activated neurons responses transfer using sparse activation maps in knowledge distillation | |
Garcia-Bedoya et al. | Deep Neural Networks Applied in Autonomous Vehicle Software Architecture | |
US20240152726A1 (en) | Single search for architectures on embedded devices | |
Zhou et al. | New stability condition for discrete-time fully coupled neural networks with multivalued neurons | |
Garcia-Bedoya et al. | 12 Deep Neural Networks | |
KR20240113349A (ko) | 지식 증류에서 SAMs를 이용한 활성화된 뉴런 반응 전달의 학습 방법 및 장치 | |
Manogaran et al. | Survey on Capsule Network’s Depth Scalability and Learned Feature Spatial Relationships Retention |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |