KR20200023238A - 딥러닝 모델을 생성하는 방법 및 시스템 - Google Patents

딥러닝 모델을 생성하는 방법 및 시스템 Download PDF

Info

Publication number
KR20200023238A
KR20200023238A KR1020190103841A KR20190103841A KR20200023238A KR 20200023238 A KR20200023238 A KR 20200023238A KR 1020190103841 A KR1020190103841 A KR 1020190103841A KR 20190103841 A KR20190103841 A KR 20190103841A KR 20200023238 A KR20200023238 A KR 20200023238A
Authority
KR
South Korea
Prior art keywords
deep learning
connections
prunable
pruning
learning model
Prior art date
Application number
KR1020190103841A
Other languages
English (en)
Inventor
예스완트 벤카테샤
썬딥 크리쉬나다산
앙커 데쉬왈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/549,299 priority Critical patent/US20200104716A1/en
Publication of KR20200023238A publication Critical patent/KR20200023238A/ko

Links

Images

Classifications

    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

딥러닝 모델을 생성하는 방법 및 시스템은, 입력 딥러닝 모델에 대응하는 뉴럴 네트워크 내의 복수의 프루너블(prunable) 연결들을 식별하고, 소정의 프루닝 정책들에 기초하여 뉴럴 네트워크 내 하나 이상의 프루너블 연결들을 프루닝하여 프루닝된 뉴럴 네트워크들을 생성하고, 프루닝된 뉴럴 네트워크들 각각에 대응하는 복수의 중간(intermediate) 딥러닝 모델들을 생성하고, 소정의 검증 방식을 이용하여 복수의 중간 딥러닝 모델들 각각에 대한 정확도 수준을 결정하고, 중간 딥러닝 모델들 중에서 가장 높은 정확도를 갖는 하나를 최적화 딥러닝 모델로 선택한다.

Description

딥러닝 모델을 생성하는 방법 및 시스템 {METHOD AND SYSTEM FOR GENERATING DEEP LEARNING MODEL}
딥러닝 모델을 생성하는 방법 및 시스템에 관한다.
딥러닝(deep learning)은 컴퓨팅 시스템이 인간과 유사한 동작을 수행할 수 있도록 하는 기계학습(machine learning) 기술이다. 일반적으로, 딥러닝 모델은 많은 테스트 세트 및 테스트 세트로부터 동적으로 학습하는 CNN(Convolutional Neural Network)과 같은 뉴럴 네트워크 아키텍처들을 사용하여 트레이닝된다. CNN은 딥러닝 분야에서 주목의 대상이고, 컴퓨터 비전, 음성 인식 등과 같은 다수의 실용적인 응용들을 제공한다.
높은 정확도와 낮은 연산 요건을 갖춘 딥러닝 모델을 설계하는 것은 어려운 작업이며 상당한 인적 전문지식이 요구된다. 최근, 모델-프리(model-free) 강화 학습(Reinforcement Learning, RL) 기법의 발전이 성공적으로 적용되어 정확도가 높은 신경망을 자동으로 생성할 수 있게 되었다. 그러나, 계산적 요구 사항(computational requirements)에 초점을 맞추지 못하여 계산 집약적 모델이 생성되었다. 따라서, 딥러닝 모델을 설계하는데 있어서 필수적인 요건들 중 하나는 정확성의 손실을 최소화하면서 계산적으로 최적화된 딥러닝 모델을 생성하는 것이다.
딥러닝 모델을 생성하는 방법 및 시스템을 제공하는데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
일 측면에 따르면, 딥러닝 모델을 생성하는 방법은, 모델 생성 시스템에 의하여, 입력 딥러닝 모델에 대응하는 뉴럴 네트워크 내의 복수의 프루너블(prunable) 연결들을 식별하는 단계; 상기 모델 생성 시스템에 의하여, 복수의 프루닝된 뉴럴 네트워크들을 생성하기 위한 소정의 프루닝 정책들에 기초하여 상기 뉴럴 네트워크 내 상기 복수의 프루너블 연결들 중에서 하나 이상의 프루너블 연결들을 프루닝하는 단계; 상기 모델 생성 시스템에 의하여, 상기 프루닝된 뉴럴 네트워크들 각각에 대응하는 복수의 중간(intermediate) 딥러닝 모델들을 생성하는 단계; 상기 모델 생성 시스템에 의하여, 소정의 검증 방식을 이용하여 상기 복수의 중간 딥러닝 모델들 각각에 대한 정확도 수준을 결정하는 단계; 및 상기 모델 생성 시스템에 의하여, 상기 중간 딥러닝 모델들 중에서 가장 높은 정확도를 갖는 하나를 최적화 딥러닝 모델로 선택하는 단계를 포함한다.
또한, 상기 소정의 프루닝 정책들은 상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 소정의 기간에 대한 정보, 및 상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 임계 개수의 연결들에 대한 정보 중 적어도 하나를 포함한다.
또한, 상기 프루닝된 뉴럴 네트워크들을 생성하는 단계는 프루닝을 위한 상기 하나 이상의 프루너블 연결들의 조합을 무작위로 선택하는 단계; 및 상기 소정의 프루닝 정책들에 기초하여 상기 하나 이상의 프루너블 연결들의 상기 선택된 조합 각각을 프루닝하는 단계를 포함한다.
또한, 상기 프루닝된 뉴럴 네트워크들을 생성하는 단계는 상기 하나 이상의 프루너블 연결들에 대응하는 웨이트에 0 값을 할당하는 단계를 포함한다.
또한, 상기 복수의 프루닝된 뉴럴 네트워크들은 각각 서로 다른 연결들의 집합(set)으로 구성된 서로 동일하지 않은 뉴럴 네트워크들일 수 있다.
또한, 상기 중간 딥러닝 모델들 각각은 상기 입력 딥러닝 모델의 서브셋일 수 있다.
또한, 상기 중간 딥러닝 모델들 내의 연결들의 개수는 상기 입력 딥러닝 모델 내의 연결들의 개수보다 적거나 같을 수 있다.
또한, 상기 소정의 검증 방식은 상기 중간 딥러닝 모델들 각각에 대응하는 오차 수준을 결정하는 것을 포함한다.
또한, 상기 최적화 딥러닝 모델의 정확도 수준에 기초하여 상기 소정의 프루닝 정책들을 업데이트하는 단계를 더 포함한다.
또한, 상기 정확도 수준을 결정하는 단계는 상기 뉴럴 네트워크와 연관된 소정의 손실 함수(loss function)을 이용하여 계산된다.
다른 측면에 따르면, 딥러닝 모델을 생성하는 모델 생성 시스템은, 프로세서; 및 상기 프로세서에 통신 가능하게 연결되고, 프로세서-실행 가능(processor-executable) 명령어들을 저장하는 메모리를 포함하고, 상기 프로세서는 입력 딥러닝 모델에 대응하는 뉴럴 네트워크 내의 복수의 프루너블(prunable) 연결들을 식별하고, 소정의 프루닝 정책들에 기초하여 상기 뉴럴 네트워크 내 상기 복수의 프루너블 연결들 중에서 하나 이상의 프루너블 연결들을 프루닝함으로써 복수의 프루닝된 뉴럴 네트워크들을 생성하고, 상기 프루닝된 뉴럴 네트워크들 각각에 대응하는 복수의 중간(intermediate) 딥러닝 모델들을 생성하고, 소정의 검증 방식을 이용하여 상기 복수의 중간 딥러닝 모델들 각각에 대한 정확도 수준을 결정하고, 상기 중간 딥러닝 모델들 중에서 가장 높은 정확도를 갖는 하나를 최적화 딥러닝 모델로 선택한다.
또한, 상기 소정의 프루닝 정책들은 상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 소정의 기간에 대한 정보, 및 상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 임계 개수의 연결들에 대한 정보 중 적어도 하나를 포함한다.
또한, 상기 프로세서는 상기 하나 이상의 프루너블 연결들을 프루닝하기 위하여, 프루닝을 위한 상기 하나 이상의 프루너블 연결들의 조합을 무작위로 선택하고 상기 소정의 프루닝 정책들에 기초하여 상기 하나 이상의 프루너블 연결들의 상기 선택된 조합 각각을 프루닝한다.
또한, 상기 프로세서는 상기 하나 이상의 프루너블 연결들을 프루닝하기 위하여, 상기 하나 이상의 프루너블 연결들에 대응하는 웨이트에 0 값을 할당한다.
또한, 상기 중간 딥러닝 모델들 각각은 상기 입력 딥러닝 모델의 서브셋일 수 있다.
또한, 상기 중간 딥러닝 모델들 내의 연결들의 개수는 상기 입력 딥러닝 모델 내의 연결들의 개수보다 적거나 같을 수 있다.
또한, 상기 소정의 검증 방식은 상기 중간 딥러닝 모델들 각각에 대응하는 오차 수준을 결정하는 것을 포함한다.
또한, 상기 프로세서는 상기 최적화 딥러닝 모델의 정확도 수준에 기초하여 상기 소정의 프루닝 정책들을 업데이트한다.
또한, 상기 정확도 수준은 상기 뉴럴 네트워크와 연관된 소정의 손실 함수(loss function)을 이용하여 계산됨으로써 결정된다.
또한, 상기 복수의 프루닝된 뉴럴 네트워크들은 각각 서로 다른 연결들의 집합(set)으로 구성된 서로 동일하지 않은 뉴럴 네트워크들일 수 있다.
도 1은 일 실시예에 따라 최적화된 딥러닝 모델을 생성하기 위한 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 모델 생성 시스템의 하드웨어 구성을 도시한 도면이다.
도 3은 일 실시예에 따라 최적화된 딥러닝 모델을 생성하는 방법의 흐름도이다.
도 4는 일 실시예에 따른 컴퓨터 시스템을 설명하기 위한 도면이다.
실시예들에서 사용되는 용어는 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 실시예들에서 사용되는 "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
본 실시예들에 따르면, 딥러닝 모델에 대응하는 하나 이상의 자식(child) 뉴럴 네트워크들 내의 복수의 연결들은, 소정의(predetermined) 프루닝 정책들에 기초해 프루닝될 수 있다. 프루닝될 수 있는 연결들 각각은 뉴럴 네트워크에서 제거되거나 또는 마스킹될 수 있는 것으로 결정되는 연결일 수 있으며, 그러한 연결들을 제거하거나 마스킹한 상태에서 대응하는 뉴럴 네트워크를 구현하는 것은 프루닝되지 않은 뉴럴 네트워크의 성능에 비해 미리 결정된 유의한 성능 저하를 나타내는 결과를 낳지 못할 것이다. 또한, 예를 들면, 복수의 프루닝된 뉴럴 네트워크들 각각에 대응하는 복수의 중간 딥러닝 모델들을 생성한 다음, 중간 딥러닝 모델들 각각에 대한 정확도 수준을 결정하는 것이다. 그 후에, 중간 딥러닝 모델들 중 가장 높은 정확도를 갖는 어느 하나를 최적화된 딥러닝 모델로 선택할 수 있다. 따라서, 이러한 최적화된 딥러닝 모델은 프루닝되지 않은 뉴럴 네트워크에 비해 계산과 메모리 요구의 감소로 구현될 수 있으며, 프루닝되지 않은 뉴럴 네트워크와 비교하여 충분히 유사하거나 심지어 강화된 정확도를 제공할 수도 있다. 또한, 이러한 프루닝에 의하여 메모리 및 계산 요구 사항의 감소로, 뉴럴 네트워크의 구조의 정교함이 증가될 수 있고, 최적화 뉴럴 네트워크는 원래의 뉴럴 네트워크에 비해 향상된 정확도를 가질 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 상세히 설명한다. 그러나 실시예는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 예에 한정되지 않는다.
도 1은 일 실시예에 따라 최적화된 딥러닝 모델을 생성하기 위한 환경을 설명하기 위한 도면이다.
도 1을 참고하면, 환경(100)은 모델 생성 시스템(105)를 포함할 수 있다. 모델 생성 시스템(105)은 입력 딥러닝 모델(101)(또는 '딥러닝 모델(101)'이라 함)을 수신할 수 있고, 입력 딥러닝 모델(101)에 대응하는 최적화된(optimized) 딥러닝 모델(115)을 생성할 수 있다. 입력 딥러닝 모델(101)은 객체 식별, 객체 추적, 이미지 상관 관계, 이벤트 감지 등의 미리 정의된 작업을 수행하는 기계학습(machine learning) 모델일 수 있다. 또한, 입력 딥러닝 모델(101)은 지도 학습 모델(supervised learning model), 비지도 학습 모델(unsupervised learning model), 또는 준 지도 학습 모델(semi-supervised learning model)을 포함하되 이에 제한되지 않고 다른 유형들일 수 있다. 입력 딥러닝 모델(101)은 특정 작업을 수행하기 위하여, 입력 딥러닝 모델(101)을 훈련하는 데 사용되는 뉴럴 네트워크(103)와 연관될 수 있다. 예를 들어, 뉴럴 네트워크(103)는 입력 딥러닝 모델(101)의 파마미터들을 설정하거나 예측하는 것을 제어하는 컨트롤러로 트레이닝될 수 있다. 뉴럴 네트워크(103)은 중간 딥러닝 모델(113)의 정확도, 손실 또는 엔트로피 결정에 기초하여 모델 생성 시스템(105)에 의한 보상 신호에 기반한 강화 학습을 통해서도 트레이닝될 수 있다.
모델 생성 시스템(105)은 뉴럴 네트워크(103)에서 복수의 프루너블(prunable) 연결들을 식별하기 위해 입력 딥러닝 모델(101)에 대응하는 뉴럴 네트워크(103)를 분석할 수 있다. 예를 들어, 프루너블 연결들은 뉴럴 네트워크(103)의 기능을 크게 바꾸지 않고 뉴럴 네트워크(103)로부터 제거되거나 마스킹될 수 있는 뉴럴 네트워크(103) 내의 연결들일 수 있다. 프루너블 연결들을 식별한 후 모델 생성 시스템(105)은 복수의 프루닝된 뉴럴 네트워크들(pruned neural networks)(109)을 생성하기 위하여 하나 이상의 프루너블 연결들을 프루닝할 수 있다. 복수의 프루너블 연결들은 식별된 프루너블 연결들에 '0' 웨이트를 할당함으로써 제거되거나 마스킹될 수 있다. 즉, 하나 이상의 프루닝된 연결들은 0이 아닌 값으로 웨이트를 갖게 될 때까지 복수의 프루닝된 뉴럴 네트워크들(109)에서 비활성 상태로 남게 된다. 예를 들어, 뉴럴 네트워크(103)에서 프루너블 연결에 0이 아닌 웨이트가 할당되어 있을 수 있지만, 그 프루너블 연결에 대한 프루닝 및/또는 마스킹 후에는 그 프루너블 연결의 웨이트는 해당 프루닝된 뉴럴 네트워크(109)에서는 0으로 설정될 수 있다. 반면에 해당 프루닝된 뉴럴 네트워크(109)의 다른 연결들은 뉴럴 네크워크(103)에서의 동일한 원래 웨이트를 가질 수 있다.
모델 생성 시스템(105)에 구현된 소정의 프루닝 정책들(pruning policies)(107)에 기초하여 프루너블 연결들에 대한 프루닝이 수행될 수 있다. 소정의 프루닝 정책들(107)은 하나 이상의 연결들을 프루닝하는 동안 고려될 사용자 정의 규칙들(user-defined rules)의 집합이 포함될 수 있다. 소정의 프루닝 정책들(107)은 입력 딥러닝 모델(101)에 의해 수행되는 애플리케이션 및/또는 작업에 따라 동적으로 변경될 수 있다. 소정의 프루닝 정책들(107)에는 프루닝하기 위해 하나 이상의 연결들을 선택해야 하는 소정의 기간과 프루닝될 연결들의 임계 개수가 포함될 수 있으나, 이에 제한되지 않는다. 예를 들어, 소정의 기간은 100초일 수 있는데, 이는 모델 생성 시스템(105)이 100초 동안 뉴럴 네트워크(103)를 계속적으로 프루닝하여, 각 프루닝 단계의 반복들을 통해 복수의 프루닝된 뉴럴 네트워크들(109)을 생성하는 것을 의미할 수 있다. 또한 예를 들어, 프루닝될 연결들의 임계 개수는 뉴럴 네트워크(103)의 총 연결들 개수의 30%일 수 있다. 다만, 이와 같은 수치들은 예시들일 뿐, 본 실시예들은 이에 제한되지 않는다.
뉴럴 네트워크(103)의 프루닝 후, 모델 생성 시스템(105)은 복수의 프루닝된 뉴럴 네트워크들(109) 각각에 대응하는 복수의 중간 딥러닝 모델들(intermediate deep learning models)(113)을 생성할 수 있다. 따라서, 프루닝이 종료되면, 모델 생성 시스템(105)은 입력 딥러닝 모델(101)과 비교할 수 있는 복수의 중간 딥러닝 모델들(113)을 생성할 수 있다. 그리고 나서, 모델 생성 시스템(105)은 입력 딥러닝 모델(101)의 최적화된 변형으로서 복수의 중간 딥러닝 모델들(113) 중 하나를 선택하기 위해 중간 딥러닝 모델들(113) 각각에 대한 정확도 수준(accuracy level)을 결정할 수 있다. 중간 딥러닝 모델들(113) 각각에 대한 정확도 수준은 소정의 검증(validation) 방식(111)을 사용하여 결정될 수 있다. 예를 들어, 소정의 검증 방식(111)은 중간 딥러닝 모델들(113) 각각에 대응하는 오차 수준(error level)을 결정하는 것을 포함하나, 이에 제한되지 않고 다른 방법들이 포함될 수 있다. 나아가서, 중간 딥러닝 모델들(113) 각각에 대응하는 오차 수준은 입력 딥러닝 모델(101)과 관련된 소정의 오차 함수(error function)를 이용하는 것에 기초하여 결정될 수 있다.
복수의 중간 딥러닝 모델들(113) 각각을 검증할 때, 모델 생성 시스템(105)은 입력 딥러닝 모델(101)에 대응하는 최적화된 딥러닝 모델(115)로서, 복수의 중간 딥러닝 모델들(113) 중에서 정확도 수준이 가장 높은 하나를 선택할 수 있다. 따라서, 본 실시예들에 따르면, 입력 딥러닝 모델(10)의 정확도를 감소시키지 않으면서 입력 딥러닝 모델(10)에 대해 계산적으로 덜 복잡한 딥러닝 모델이 생성될 수 있다.
도 2는 일 실시예에 따른 모델 생성 시스템의 하드웨어 구성을 도시한 도면이다.
도 2를 참고하면, 모델 생성 시스템(105)은 I/O 인터페이스(201), 프로세서(203) 및 메모리(205)를 포함 할 수 있다. I/O 인터페이스(201)는 입력 딥러닝 모델(101)을 수신할 수 있으며, 이에 따라 최적화된 딥러닝 모델(115)이 생성될 수 있다. 메모리(205)는 프로세서(203)에 통신 가능하게 연결될 수 있고, 데이터(207) 및 하나 이상의 모듈들(209)을 저장할 수 있다. 프로세서(203)는 데이터(207)와 하나 이상의 모듈들(209)을 사용하여 최적화된 딥러닝 모델(115)을 생성하기 위한 모델 생성 시스템(105)의 하나 이상의 기능들을 수행하도록 구성될 수 있다.
데이터(207)는 뉴럴 네트워크(103), 소정의 프루닝 정책들(107), 정확도 수준(213) 및 기타 데이터(215)를 포함할 수 있다. 데이터(207)는 메모리(205) 내에서 다양한 데이터 구조의 형태로 저장될 수 있다. 또한, 데이터(207)는 관계형(relational) 또는 계층형(hierarchical) 데이터 모델들과 같은 데이터 모델들을 이용하여 구조화될 수 있다. 기타 데이터(215)는 모델 생성 시스템(105)의 다양한 기능들을 수행하는 동안 하나 이상의 모듈들(209)에 의해 생성된 다양한 임시 데이터와 파일들을 저장할 수 있다. 예를 들어, 기타 데이터(215)에는 또한 복수의 트레이닝 딥러닝 모델들, 트레이닝 뉴럴 네트워크들, 중간 딥러닝 모델들(113), 소정의 검증 방식(111) 등을 포함할 수 있으나, 이에 제한되지 않는다.
뉴럴 네트워크(103)는 입력 딥러닝 모델(101)에 대응하는 뉴럴 네트워크(103)일 수 있다. 나아가서, 뉴럴 네트워크(103)는 소정의 작업을 수행하기 위하여 집합적으로 트레이닝된, 복수의 레벨들로 배열된 복수의 연결들을 가질 수 있다.
소정의 프루닝 정책들(107)은 뉴럴 네트워크(103) 내의 복수의 연결들 중 하나 이상을 프루닝하는 동안 고려해야 할 규칙들과 조건들을 포함할 수 있다. 예를 들어, 소정의 프루닝 정책들(107)에는 하나 이상의 연결들을 선택하여 프루닝하기 위한 소정의 기간과 뉴럴 네트워크(103)에서 프루닝될 연결들의 임계 개수에 대한 정보가 포함될 수 있다.
정확도 수준(213)은 뉴럴 네트워크(103) 및/또는 뉴럴 네트워크(103)에 대응하는 딥러닝 모델을 나타낼 수 있다. 예를 들어, 뉴럴 네트워크(103)의 정확도 수준(213)은 뉴럴 네트워크(103)가 소정의 작업을 수행하는 정확도에 기초하여 결정될 수 있다. 정확도 수준(213)은 뉴럴 네트워크(103)와 연관된 소정의 손실 함수(loss function)을 이용하여 계산될 수 있다.
데이터(207)은 하나 이상의 모듈들(209)에 의해 처리될 수 있다. 모델 생성 시스템(105)의 하나 이상의 기능들을 수행하기 위해 하나 이상의 모듈들(209)은 프로세서(203)에 통신 가능하게 연결될 수 있다. 하나 이상의 모듈들(209)은 식별 모듈(217), 프루닝 모듈(219), 모델 생성 모듈(221), 정확도 수준 결정 모듈(223), 선택 모듈(225) 및 기타 모듈들(227)을 포함할 수 있다.
실시예들에서, 모듈이란 용어는 ASIC(Application Specific Integrated Circuit), 전자 회로, 하나 이상의 소프트웨어 또는 펌웨어 프로그램을 실행하는 프로세서(공유, 전용 또는 그룹) 및 메모리, 조합 논리 회로, 및/또는 실시예들에서 설명된 기능성을 제공하는 기타 적절한 구성요소를 가리킨다. 기타 모듈들(227)은 모델 생성 시스템(105)의 다양한 기타 기능들을 수행하기 위해 사용될 수 있다. 하나 이상의 모듈들(209)은 단일 모듈 또는 서로 다른 모듈들의 조합으로 표현될 수 있다.
식별 모듈(217)은 입력 딥러닝 모델(101)에 대응하는 뉴럴 네트워크(103)에서, 모든 프루너블 연결들 및 프루닝 불가능(non-prunable) 연결들을 포함하는 복수의 연결들을 식별하도록 구성될 수 있다. 또한, 식별 모듈(217)은 소정의 프루닝 정책들(107)에 기초하여, 뉴럴 네트워크(103)의 복수의 연결들 중에서 하나 이상의 프루너블 연결들을 식별하도록 구성될 수 있다.
프루닝 모듈(219)은 뉴럴 네트워크(103)로부터 식별된 하나 이상의 프루너블 연결들을 프루닝하도록 구성될 수 있다. 뉴럴 네트워크(103)를 프루닝하는 것은, 프루닝을 위한 복수의 연결들 중에서 하나 이상의 프루너블 연결들의 조합을 무작위로 선택하는 것을 포함할 수 있다. 그 후에, 선택된 하나 이상의 연결들의 조합들 각각은 소정의 프루닝 정책들(107)에 따라 반복적으로 프루닝될 수 있다. 소정의 프루닝 정책들(107)은 하나 이상의 프루너블 연결들을 소정의 기간 동안 프루닝하거나, 연결들의 임계 개수가 프루닝될 때까지 하나 이상의 프루너블 연결들을 프루닝하는 것을 포함할 수 있으나, 이에 제한되지 않는다.
프루닝 모듈(219)은 복수의 프루너블 연결들에 대응하는 웨이트에 대해 0 값을 할당함으로써 복수의 프루너블 연결들을 프루닝할 수 있다. 나아가서, 프루닝의 각 반복마다, 프루닝 모듈(219)은 복수의 프루닝된 뉴럴 네트워크들(109)를 생성할 수 있다. 즉, 프루닝된 뉴럴 네트워크들(109)는 각각 서로 다른 연결들의 집합(set)으로 구성된 서로 동일하지 않은 뉴럴 네트워크들일 수 있다.
모델 생성 모듈(221)은 복수의 프루닝된 뉴럴 네트워크들(109) 각각에 대응하는 복수의 중간 딥러닝 모델들(113)을 생성하도록 구성될 수 있다. 각각의 중간 딥러닝 모델들(113)은 입력 딥러닝 모델(101)의 서브셋으로 간주될 수 있다. 즉, 중간 딥러닝 모델들(113)은 입력 딥러닝 모델(101)로부터 하나 이상의 연결들이 프루닝됨으로써 생성되므로, 중간 딥러닝 모델들(113) 내의 연결들의 개수는 입력 딥러닝 모델(101) 내의 연결들의 개수보다 작거나 같을 수 있다. 입력 딥러닝 모델(101)의 서브셋에 해당하는 중간 딥러닝 모델(113)은 입력 딥러닝 모델(101)과 동일한 아키텍처를 가질 수 있다. 한편, 중간 딥러닝 모델들(113) 각각에 대한 정확도 수준(213)은 정확도 수준 결정 모듈(223)을 이용하여 결정될 수 있다. 정확도 수준 결정 모듈(223)은 정확도 수준(213)을 결정하기 위해 소정의 검증 방식(111)으로 구성될 수 있다. 예를 들어, 소정의 검증 방식(111)은 중간 딥러닝 모델들(113) 각각에 대응하는 오차 수준을 결정하는 것을 포함할 수 있으나, 이에 제한되지 않는다.
선택 모듈(225)은 최적화 딥러닝 모델(113)로서, 중간 딥러닝 모델들(113) 중 하나를 선택하도록 구성될 수 있다. 최적화 딥러닝 모델(115)의 선택은 중간 딥러닝 모델들(113)의 정확도 수준(213)에 기초할 수 있다. 예를 들어, 중간 딥러닝 모델들(113) 중에서 정확도가 가장 높은 하나가 최적화 딥러닝 모델(115)로 선택될 수 있다. 최적화 딥러닝 모델(115)이 선택된 후, 최적화 딥러닝 모델(115)의 정확도 수준(213)에 기초하여 프루닝 정책들은 동적으로 업데이트될 수 있다. 그리고 나서, 업데이트된 프루닝 정책들은 뉴럴 네트워크(103)의 프루너블 연결들을 선택하는 데 이용될 수 있다.
도 3은 일 실시예에 따라 최적화된 딥러닝 모델을 생성하는 방법의 흐름도이다.
도 3을 참고하면, 방법(300)은 도 1에 도시된 모델 생성 시스템(105)을 이용하여 최적화 딥러닝 모델(115)을 생성하는 방법에 관한다. 방법(300)은 컴퓨터 실행 가능 명령들(computer executable instructions) 또는 프로세서 실행 가능 명령들(processor executable instructions)의 일반적인 맥락에서 설명될 수 있다. 일반적으로, 컴퓨터 실행 가능 명령들은 루틴들, 프로그램들, 객체들, 구성요소들, 데이터 구조들, 절차들, 모듈들, 및 기능들이 포함될 수 있으며, 이 컴퓨터 실행 가능 명령들은 특정 기능들을 수행하거나 특정 데이터 유형들을 구현한다.
방법(300)에서 설명된 순서는 제한사항으로 해석되는 것이 아니며, 설명된 단계들의 개수는 해당 실시예를 구현하기 위해 어떤 순서로든 결합될 수 있다. 또한, 개개의 단계는 실시예의 범위를 벗어나지 않는 한 생략될 수 있다. 한편, 방법(300)은 적절한 하드웨어, 소프트웨어, 펌웨어 또는 이들의 조합에 의해 구현될 수 있다.
301 단계에서, 방법(300)은 모델 생성 시스템(105)에 의해, 딥러닝 모델에 대응하는 뉴럴 네트워크(103) 내의 복수의 프루너블 연결들을 식별한다. 여기서, 프루너블 연결들은 뉴럴 네트워크(103)의 기능들을 크게 변경시키지 않으면서 제거되거나 마스킹될 수 있는 뉴럴 네트워크(103) 내의 연결들이다.
303 단계에서, 방법(300)은 모델 생성 시스템(105)에 의해, 복수의 프루닝된 뉴럴 네트워크들(109)를 생성하기 위한 소정의 프루닝 정책들(107)에 기초하여, 뉴럴 네트워크(103) 내의 복수의 프루너블 연결들 중 하나 이상의 연결들을 프루닝한다. 소정의 프루닝 정책들(107)은 하나 이상의 프루너블 연결들을 소정의 기간 동안 프루닝하거나, 연결들의 임계 개수가 프루닝될 때까지 하나 이상의 프루너블 연결들을 프루닝하는 것을 포함하나, 이에 제한되지 않는다. 나아가서, 하나 이상의 프루너블 연결들을 프루닝하는 것은, 프루닝을 위한 하나 이상의 프루너블 연결들의 조합을 무작위로 선택하는 것과, 소정의 프루닝 정책들(107)에 기초하여 하나 이상의 프루너블 연결들의 선택된 조합 각각을 프루닝하는 것을 포함한다.
305 단계에서, 방법(300)은 모델 생성 시스템(105)에 의해, 프루닝된 뉴럴 네트워크들(109) 각각에 대응하는 복수의 중간 딥러닝 모델들(113)을 생성한다. 프루너블 연결들을 프루닝하는 것은, 하나 이상의 프루너블 연결들에 대응하는 웨이트에 0 값을 할당하는 것을 포함될 수 있다.
307 단계에서, 방법(300)은 모델 생성 시스템(105)에 의해, 소정의 검증 방식(111)을 이용하여 중간 딥러닝 모델들(113) 각각에 대한 정확도 수준(213)을 결정한다. 예를 들어, 소정의 검증 방식(111)은 중간 딥러닝 모델들(113) 각각에 대응하는 오차 수준을 결정하는 것을 포함할 수 있다.
309 단계에서, 방법(300)은 모델 생성 시스템(105)에 의해, 중간 딥러닝 모델들(113) 중에서 가능 높은 정확도 수준(213)을 갖는 하나를 최적화 딥러닝 모델(115)로 선택한다. 최적화 딥러닝 모델(115)의 정확도 수준(213)에 기초하여 소정의 프루닝 정책들(107)이 업데이트될 수 있다.
본 실시예들은 자동 음성 인식 응용을 위한 뉴럴 네트워크를 설계하는데 활용될 수 있고, 기타 다양한 응용들을 위해 사용될 수 있다. 본 실시예들에 따르면, 최적화 뉴럴 네트워크 모델을 자동적으로 생성하는데 있어서, 보다 빠른 처리 속도와 에너지 절감이 가능해 질 수 있다.
도 4는 일 실시예에 따른 컴퓨터 시스템을 설명하기 위한 도면이다.
도 4를 참고하면, 컴퓨터 시스템(400)은 도 1에서 설명된 모델 생성 시스템(105)일 수 있으며, 이는 최적화 딥러닝 모델(115)를 생성하는데 이용될 수 있다. 컴퓨터 시스템(400)은 중앙 처리 장치("CPU" 또는 "프로세서")(402)를 포함할 수 있다. 프로세서(402)는 사용자 또는 시스템 생성 비즈니스 프로세스를 실행하기 위한 프로그램 구성요소들을 실행하기 위한 적어도 하나의 데이터 프로세서를 포함할 수 있다. 작업자는 사람, 제품 품질 검사원, 또는 컴퓨터 시스템(400)과 병렬적으로 동작되는 어느 시스템/서브 시스템을 포함할 수 있다. 프로세서(402)는 집적 시스템(버스) 컨트롤러, 메모리 관리 제어 장치, 플로팅 포인트 장치, 그래픽 처리 장치, 디지털 신호 처리 장치 등과 같은 특수 처리 장치들(specialized processing units)을 포함할 수 있다.
프로세서(402)는 I/O 인터페이스(401)를 통해 하나 이상의 입출력(I/O) 장치들(411 및 412)과 통신 가능하도록 배치될 수 있다. I/O 인터페이스(401)는 오디오, 아날로그, 디지털, 스테레오, IEEE®-1394, 시리얼 버스, USB (Universal Serial Bus), 적외선, PS/2, BNC, 동축(coaxial), 구성요소, 복합체(composite), DVI(Digital Visual Interface), HDMI(high-definition multimedia interface), 무선 주파수(RF) 안테나, S-Video, Video Graphics Array (VGA), IEEE® 802.n /b/g/n/x, 블루투스, 셀룰러(Code-Division Multiple Access (CDMA), High-Speed Packet Access (HSPA+), Global System For Mobile Communications (GSM), Long-Term Evolution (LTE) 등) 등과 같은, 통신 프로토콜/방법들을 채용할 수 있다. I/O 인터페이스(401)를 이용하여, 컴퓨터 시스템(400)은 하나 이상의 I/O 장치들(411 및 412)과 통신할 수 있다.
프로세서(402)는 네트워크 인터페이스(403)를 통해 통신 네트워크(409)와 통신하도록 배치될 수 있다. 네트워크 인터페이스(403)는 통신 네트워크(409)와 통신할 수 있다. 네트워크 인터페이스(403)는, 다이렉트 커넥트, 이더넷(예를 들어, twisted pair 10/100/1000 Base T), TCP/IP(Transmission Control Protocol/Internet Protocol), 토큰 링, IEEE® 802.11a/b/g/n/x 등을 포함하는 연결 프로토콜들을 이용할 수 있으나, 이에 제한되지 않는다. 네트워크 인터페이스(403)와 통신 네트워크(409)를 이용하여, 컴퓨터 시스템(400)은 최적화 딥러닝 모델(115)를 생성하는 데 필요한 입력 딥러닝 모델(101), 소정의 프루닝 정책들(107) 및 소정의 검증 방식(111)을 수신할 수 있다.
통신 네트워크(409)는 인트라넷이나 LAN(Local Area Network)과 같은 여러 종류의 네트워크들 중 하나로 구현될 수 있다. 통신 네트워크(409)는 전용 네트워크 또는 공유 네트워크일 수 있으며, 예를 들어 통신을 위한 Hypertext Transfer Protocol (HTTP), Transmission Control Protocol/Internet Protocol (TCP/IP), Wireless Application Protocol (WAP) 등과 같은 다양한 프로토콜들을 사용하는 네트워크의 여러 유형들의 연결을 나타낸다. 또한, 통신 네트워크(409)는 라우터, 브릿지, 서버, 컴퓨팅 장치, 저장 장치 등을 포함한 다양한 네트워크 장치들을 포함할 수 있다.
프로세서(402)는 스토리지 인터페이스(404)를 통해 메모리(405)(예를 들어, 도 4에 도시된 RAM(413), ROM(414) 등)와 통신하도록 배치될 수 있다. 스토리지 인터페이스(404)는 SATA(Serial Advanced Technology Attachment), IDE(Integrated Drive Electronics), IEEE-1394, USB(Universal Serial Bus), 섬유 채널, SCSI(Small Computer Systems Interface) 등과 같은 연결 프로토콜들을 채택하고 있는 메모리 드라이브, 제거 가능(removable) 디스크 드라이브 등을 포함하는 메모리(405)와 연결될 수 있다. 메모리 드라이브는 드럼, 자기 디스크 드라이브, 자기 광학 드라이브, 광 드라이브, RAID(Redundant Array of Independent Discs), 솔리드 스테이트 메모리 장치, 솔리드 스테이트 드라이브 등이 포함될 수 있다.
메모리(405)는 사용자/애플리케이션 인터페이스(406), 운영 체제(407), 웹 브라우저(408) 등을 포함하는 프로그램 또는 데이터베이스 구성요소들의 모음을 저장할 수 있다. 컴퓨터 시스템(400)은 실시예들에서 설명된 데이터, 변수, 기록 등과 같은 사용자/애플리케이션 데이터(406)를 저장할 수 있다. 이러한 데이터베이스들은 Oracle® 또는 Sybase®와 같은 내결함성(fault-tolerant), 관계성(relational), 확장성(scalable), 보안 데이터베이스로 구현될 수 있다.
운영 체제(407)는 컴퓨터 시스템(400)의 자원 관리와 동작을 수행할 수 있다. 운영 체제의 예로는 APPLE® MACINTOSH®, OS X®, UNIX®, UNIX와 유사한 시스템 배포들(예를 들어, BERKELEY SOFTWARE DISTRIBUTION®, FREEBSD®, NETBSD®, OPENBSD 등), LINUX® 배포들(예를 들어, RED HAT®, UBUNTU®, KUBUNTU® 등), IBM® OS/2®, MICROSOFT® WINDOWS® (XP®, VISTA®/7/8, 10 etc.), APPLE® IOS®, GOOGLE TM ANDROID TM, BLACKBERRY® OS 등을 포함할 수 있으나, 이에 제한되지 않는다.
사용자 인터페이스(406)는 텍스트 또는 그래픽 장비들을 통해 프로그램 구성요소들의 표시, 실행, 인터랙션, 조작 또는 작동을 수행한다. 예를 들어, 사용자 인터페이스(406)은 커서, 아이콘, 체크박스, 메뉴, 스크롤, 윈도우, 위젯 등과 같이 컴퓨터 시스템(400)에 운용적으로 연결된 디스플레이 시스템 상에 컴퓨터 인터랙션 인터페이스 요소들을 제공할 수 있다. 또한, 그래픽 사용자 인터페이스(GUI)는 APPLE® MACINTOSH® 운영 체제의 Aqua®, IBM® OS/2®, MICROSOFT® WINDOWS®(예를 들어, Aero, Metro 등), 웹 인터페이스 라이브러리(예를 들어, ActiveX®, JAVA®, JAVASCRIPT®, AJAX, HTML, ADOBE® FLASH® 등)를 포함하여 사용할 수 있으나, 이에 제한되지 않는다.
웹 브라우저(408)는 하이퍼텍스트 보기(viewing) 애플리케이션일 수 있다. 보안 웹 검색은 HTTPS(Secure Hypertext Transport Protocol), SSL(Secure Sockets Layer), TLS(Transport Layer Security) 등을 사용하여 제공될 수 있다. 웹 브라우저(408)은 AJAX, DHTML, ADOBE® FLASH®, JAVASCRIPT®, JAVA®, APIs(Application Programming Interfaces) 등을 활용하여 구현될 수 있다. 또한, 컴퓨터 시스템(400)은 메일 서버 저장 프로그램 구성요소를 구현할 수 있다. 메일 서버는 ASP, ACTIVEX®, ANSI® C++/C#, MICROSOFT®, .NET, CGI SCRIPTS, JAVA®, JAVASCRIPT®, PERL®, PHP, PYTHON®, WEBOBJECTS® 등을 이용하여 구현될 수 있다. 메일 서버는 IMAP(Internet Message Access Protocol), MAPI(Messaging Application Programming Interface), MICROSOFT® exchange, POP(Post Office Protocol), SMTP(Simple Mail Transfer Protocol) 등의 통신 프로토콜을 활용할 수 있다. 컴퓨터 시스템(400)은 메일 클라이언트 저장 프로그램 구성요소를 구현할 수 있다. 메일 클라이언트는 APPLE® MAIL, MICROSOFT® ENTOURAGE®, MICROSOFT® OUTLOOK®, MOZILLA® THUNDERBIRD® 등과 같은 메일 보기 응용프로그램일 수 있다.
본 실시예들은 존재하는 딥러닝 모델에 대응하는 최적화 딥러닝 모델을 생성하는데 사용될 수 있다. 또한, 본 실시예들은 딥러닝 모델에 대응하는 뉴럴 네트워크에서 하나 이상의 연결들을 프루닝함에 따라 딥러닝 모델의 연산량 및 메모리 요구량을 감소시킬 수 있다. 즉, 본 실시예들에 따르면, 딥러닝 모델의 연산 비용을 비례적으로 증가시키지 않으면서 딥러닝 모델의 정확성을 향상시킬 수 있다. 본 실시예들은 입력 데이터 집합과 거기에 제공된 대응하는 라벨들에 기초하여 최적화 딥러닝 모델을 자동으로 생성할 수 있다. 따라서 전문가 사람이 모델을 명시적으로 설계하고 트레이닝할 필요가 없게 될 수 있다.
한편, 상술한 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예들에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 실시예가 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 실시예에 포함된 것으로 해석되어야 할 것이다.

Claims (20)

  1. 딥러닝 모델을 생성하는 방법에 있어서,
    모델 생성 시스템에 의하여, 입력 딥러닝 모델에 대응하는 뉴럴 네트워크 내의 복수의 프루너블(prunable) 연결들을 식별하는 단계;
    상기 모델 생성 시스템에 의하여, 소정의 프루닝 정책들에 기초하여 상기 뉴럴 네트워크 내 상기 복수의 프루너블 연결들 중에서 하나 이상의 프루너블 연결들을 프루닝함으로써, 복수의 프루닝된 뉴럴 네트워크들을 생성하는 단계;
    상기 모델 생성 시스템에 의하여, 상기 프루닝된 뉴럴 네트워크들 각각에 대응하는 복수의 중간(intermediate) 딥러닝 모델들을 생성하는 단계;
    상기 모델 생성 시스템에 의하여, 소정의 검증 방식을 이용하여 상기 복수의 중간 딥러닝 모델들 각각에 대한 정확도 수준을 결정하는 단계; 및
    상기 모델 생성 시스템에 의하여, 상기 중간 딥러닝 모델들 중에서 가장 높은 정확도를 갖는 하나를 최적화 딥러닝 모델로 선택하는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 소정의 프루닝 정책들은
    상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 소정의 기간에 대한 정보, 및 상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 임계 개수의 연결들에 대한 정보 중 적어도 하나를 포함하는, 방법.
  3. 제 1 항에 있어서,
    상기 프루닝된 뉴럴 네트워크들을 생성하는 단계는
    프루닝을 위한 상기 하나 이상의 프루너블 연결들의 조합을 무작위로 선택하는 단계; 및
    상기 소정의 프루닝 정책들에 기초하여 상기 하나 이상의 프루너블 연결들의 상기 선택된 조합 각각을 프루닝하는 단계를 포함하는, 방법.
  4. 제 1 항에 있어서,
    상기 프루닝된 뉴럴 네트워크들을 생성하는 단계는
    상기 하나 이상의 프루너블 연결들에 대응하는 웨이트에 0 값을 할당하는 단계를 포함하는, 방법.
  5. 제 1 항에 있어서,
    상기 복수의 프루닝된 뉴럴 네트워크들은
    각각 서로 다른 연결들의 집합(set)으로 구성된 서로 동일하지 않은 뉴럴 네트워크들인, 방법.
  6. 제 1 항에 있어서,
    상기 중간 딥러닝 모델들 각각은 상기 입력 딥러닝 모델의 서브셋인, 방법.
  7. 제 1 항에 있어서,
    상기 중간 딥러닝 모델들 내의 연결들의 개수는 상기 입력 딥러닝 모델 내의 연결들의 개수보다 적거나 같은, 방법.
  8. 제 1 항에 있어서,
    상기 소정의 검증 방식은
    상기 중간 딥러닝 모델들 각각에 대응하는 오차 수준을 결정하는 것을 포함하는, 방법.
  9. 제 1 항에 있어서,
    상기 최적화 딥러닝 모델의 정확도 수준에 기초하여 상기 소정의 프루닝 정책들을 업데이트하는 단계를 더 포함하는, 방법.
  10. 제 1 항에 있어서,
    상기 정확도 수준을 결정하는 단계는
    상기 뉴럴 네트워크와 연관된 소정의 손실 함수(loss function)을 이용하여 계산되는, 방법.
  11. 딥러닝 모델을 생성하는 모델 생성 시스템에 있어서,
    프로세서; 및
    상기 프로세서에 통신 가능하게 연결되고, 프로세서-실행 가능(processor-executable) 명령어들을 저장하는 메모리를 포함하고,
    상기 프로세서는
    입력 딥러닝 모델에 대응하는 뉴럴 네트워크 내의 복수의 프루너블(prunable) 연결들을 식별하고,
    소정의 프루닝 정책들에 기초하여 상기 뉴럴 네트워크 내 상기 복수의 프루너블 연결들 중에서 하나 이상의 프루너블 연결들을 프루닝함으로써, 복수의 프루닝된 뉴럴 네트워크들을 생성하고,
    상기 프루닝된 뉴럴 네트워크들 각각에 대응하는 복수의 중간(intermediate) 딥러닝 모델들을 생성하고,
    소정의 검증 방식을 이용하여 상기 복수의 중간 딥러닝 모델들 각각에 대한 정확도 수준을 결정하고,
    상기 중간 딥러닝 모델들 중에서 가장 높은 정확도를 갖는 하나를 최적화 딥러닝 모델로 선택하는, 모델 생성 시스템.
  12. 제 11 항에 있어서,
    상기 소정의 프루닝 정책들은
    상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 소정의 기간에 대한 정보, 및 상기 하나 이상의 프루너블 연결들을 프루닝하기 위한 임계 개수의 연결들에 대한 정보 중 적어도 하나를 포함하는, 모델 생성 시스템.
  13. 제 11 항에 있어서,
    상기 프로세서는
    상기 하나 이상의 프루너블 연결들을 프루닝하기 위하여, 프루닝을 위한 상기 하나 이상의 프루너블 연결들의 조합을 무작위로 선택하고 상기 소정의 프루닝 정책들에 기초하여 상기 하나 이상의 프루너블 연결들의 상기 선택된 조합 각각을 프루닝하는, 모델 생성 시스템.
  14. 제 11 항에 있어서,
    상기 프로세서는
    상기 하나 이상의 프루너블 연결들을 프루닝하기 위하여, 상기 하나 이상의 프루너블 연결들에 대응하는 웨이트에 0 값을 할당하는, 모델 생성 시스템.
  15. 제 11 항에 있어서,
    상기 중간 딥러닝 모델들 각각은 상기 입력 딥러닝 모델의 서브셋인, 모델 생성 시스템.
  16. 제 11 항에 있어서,
    상기 중간 딥러닝 모델들 내의 연결들의 개수는 상기 입력 딥러닝 모델 내의 연결들의 개수보다 적거나 같은, 모델 생성 시스템.
  17. 제 11 항에 있어서,
    상기 소정의 검증 방식은
    상기 중간 딥러닝 모델들 각각에 대응하는 오차 수준을 결정하는 것을 포함하는, 모델 생성 시스템.
  18. 제 11 항에 있어서,
    상기 프로세서는
    상기 최적화 딥러닝 모델의 정확도 수준에 기초하여 상기 소정의 프루닝 정책들을 업데이트하는, 모델 생성 시스템.
  19. 제 11 항에 있어서,
    상기 정확도 수준은
    상기 뉴럴 네트워크와 연관된 소정의 손실 함수(loss function)을 이용하여 계산됨으로써 결정되는, 모델 생성 시스템.
  20. 제 11 항에 있어서,
    상기 복수의 프루닝된 뉴럴 네트워크들은
    각각 서로 다른 연결들의 집합(set)으로 구성된 서로 동일하지 않은 뉴럴 네트워크들인, 모델 생성 시스템.
KR1020190103841A 2018-08-23 2019-08-23 딥러닝 모델을 생성하는 방법 및 시스템 KR20200023238A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/549,299 US20200104716A1 (en) 2018-08-23 2019-08-23 Method and system with deep learning model generation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN201841031680 2018-08-23
IN201841031680(???) 2019-08-20

Publications (1)

Publication Number Publication Date
KR20200023238A true KR20200023238A (ko) 2020-03-04

Family

ID=69783320

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190103841A KR20200023238A (ko) 2018-08-23 2019-08-23 딥러닝 모델을 생성하는 방법 및 시스템

Country Status (2)

Country Link
US (1) US20200104716A1 (ko)
KR (1) KR20200023238A (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11610061B2 (en) * 2019-12-02 2023-03-21 Asapp, Inc. Modifying text according to a specified attribute
WO2022056422A1 (en) * 2020-09-14 2022-03-17 The Regents Of The University Of California Ensemble learning of diffractive neural networks
WO2022198606A1 (zh) * 2021-03-26 2022-09-29 深圳市大疆创新科技有限公司 深度学习模型的获取方法、系统、装置及存储介质
CN115543639B (zh) * 2022-12-01 2023-04-28 阿里云计算有限公司 分布式执行深度学习任务的优化方法和分布式系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8700552B2 (en) * 2011-11-28 2014-04-15 Microsoft Corporation Exploiting sparseness in training deep neural networks
US10452992B2 (en) * 2014-06-30 2019-10-22 Amazon Technologies, Inc. Interactive interfaces for machine learning model evaluations
US10997496B2 (en) * 2016-08-11 2021-05-04 Nvidia Corporation Sparse convolutional neural network accelerator
WO2018053835A1 (en) * 2016-09-26 2018-03-29 Intel Corporation Method and apparatus for reducing parameter density of deep neural network (dnn)
WO2018058509A1 (en) * 2016-09-30 2018-04-05 Intel Corporation Dynamic neural network surgery
US11315018B2 (en) * 2016-10-21 2022-04-26 Nvidia Corporation Systems and methods for pruning neural networks for resource efficient inference
US11321613B2 (en) * 2016-11-17 2022-05-03 Irida Labs S.A. Parsimonious inference on convolutional neural networks
CN107688850B (zh) * 2017-08-08 2021-04-13 赛灵思公司 一种深度神经网络压缩方法
US11200495B2 (en) * 2017-09-08 2021-12-14 Vivante Corporation Pruning and retraining method for a convolution neural network
US10366322B2 (en) * 2017-10-06 2019-07-30 DeepCube LTD. System and method for compact and efficient sparse neural networks
US11651223B2 (en) * 2017-10-27 2023-05-16 Baidu Usa Llc Systems and methods for block-sparse recurrent neural networks
CN107992486A (zh) * 2017-10-30 2018-05-04 上海寒武纪信息科技有限公司 一种信息处理方法及相关产品
EP3688671A4 (en) * 2017-11-02 2021-10-20 The Trustees of Princeton University PROCESS AND SYSTEM FOR THE SYNTHESIS OF A NEURONAL NETWORK
US20190197406A1 (en) * 2017-12-22 2019-06-27 Microsoft Technology Licensing, Llc Neural entropy enhanced machine learning
US20190362235A1 (en) * 2018-05-23 2019-11-28 Xiaofan Xu Hybrid neural network pruning
US11488019B2 (en) * 2018-06-03 2022-11-01 Kneron (Taiwan) Co., Ltd. Lossless model compression by batch normalization layer pruning in deep neural networks
US12008462B2 (en) * 2018-08-09 2024-06-11 Board Of Trustees Of Michigan State University Systems and methods for providing flexible, multi-capacity models for use of deep neural networks in mobile devices
WO2020060659A1 (en) * 2018-09-18 2020-03-26 The Trustees Of Princeton University System and method for synthesis of compact and accurate neural networks (scann)
US20220222534A1 (en) * 2019-05-23 2022-07-14 The Trustees Of Princeton University System and method for incremental learning using a grow-and-prune paradigm with neural networks
WO2020260656A1 (en) * 2019-06-26 2020-12-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Pruning and/or quantizing machine learning predictors

Also Published As

Publication number Publication date
US20200104716A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
US9779013B2 (en) Method and system for optimizing a test suite comprising plurality of test cases
KR20200023238A (ko) 딥러닝 모델을 생성하는 방법 및 시스템
US10067760B2 (en) System and method for classifying and resolving software production incidents
US20210136098A1 (en) Root cause analysis in multivariate unsupervised anomaly detection
US11775857B2 (en) Method and system for tracing a learning source of an explainable artificial intelligence model
US11526814B2 (en) System and method for building ensemble models using competitive reinforcement learning
US20160147646A1 (en) Method and system for executing automated tests in an integrated test environment
US10817669B2 (en) Automatic classification of adverse event text fragments
US10026053B1 (en) System and method for generation of integrated test scenarios
US20170111378A1 (en) User configurable message anomaly scoring to identify unusual activity in information technology systems
JP7007486B2 (ja) プロジェクトコンポーネントを識別する方法およびその再利用性検出システム
EP3327567A1 (en) A method and a system for determining requirements for a project
KR20190135238A (ko) 새로운 사례의 분석을 통한 단일 분류 도메인의 전문가 경험 지식의 점진적 학습 방법 및 시스템
US11687825B2 (en) Method and system for determining response to queries in virtual assistance system
US20220121929A1 (en) Optimization of artificial neural network (ann) classification model and training data for appropriate model behavior
US11087091B2 (en) Method and system for providing contextual responses to user interaction
US11475324B2 (en) Dynamic recommendation system for correlated metrics and key performance indicators
US20170330090A1 (en) Method and a system for optimzing stability of a project
US20210004885A1 (en) Automated evaluation of human-computer interaction via conversational computing
CN111523639A (zh) 用于训练超网络的方法和装置
US11544551B2 (en) Method and system for improving performance of an artificial neural network
US20220058015A1 (en) Optimization for open feature library management
US11847598B2 (en) Method and system for analyzing process flows for a process performed by users
US20220058519A1 (en) Open feature library management
US20230061222A1 (en) Early stopping of artificial intelligence model training using control limits