KR20160112186A - 뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치 - Google Patents

뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치 Download PDF

Info

Publication number
KR20160112186A
KR20160112186A KR1020150037427A KR20150037427A KR20160112186A KR 20160112186 A KR20160112186 A KR 20160112186A KR 1020150037427 A KR1020150037427 A KR 1020150037427A KR 20150037427 A KR20150037427 A KR 20150037427A KR 20160112186 A KR20160112186 A KR 20160112186A
Authority
KR
South Korea
Prior art keywords
layer
visible
output
hidden
neuron
Prior art date
Application number
KR1020150037427A
Other languages
English (en)
Inventor
닐 다니엘
파이페르 미하엘
리우 시-치
Original Assignee
삼성전자주식회사
우니페르지타에트 취리히
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 우니페르지타에트 취리히 filed Critical 삼성전자주식회사
Priority to KR1020150037427A priority Critical patent/KR20160112186A/ko
Priority to US14/833,264 priority patent/US20160275397A1/en
Publication of KR20160112186A publication Critical patent/KR20160112186A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

입력 데이터에 기초하여 활성화된 제1 비져블 레이어의 출력 및 학습 파라미터에 기초하여 제1 히든 레이어를 활성화시키고, 제1 비져블 레이어의 출력 및 제1 히든 레이어의 출력에 기초하여 학습 파라미터를 학습시키고, 제1 히든 레이어의 출력에 기초하여, 제1 비져블 레이어의 보조 레이어에 해당하는 제2 비져블 레이어를 활성화시키며, 학습 파라미터 및 제2 비져블 레이어의 출력에 기초하여, 제1 히든 레이어의 보조 레이어에 해당하는 제2 히든 레이어를 활성화시키고, 제2 비져블 레이어의 출력 및 제2 히든 레이어의 출력에 기초하여, 학습 파라미터를 학습시키는 학습 방법을 제공할 수 있다.

Description

뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치{METHOD AND APPARATUS FOR EVENT-BASED LEARNING IN NEURAL NETWORK}
아래의 실시예들은 뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치에 관한 것이다.
뇌에는 수천억 개의 신경 세포(즉, 뉴런(neuron))가 존재하며, 서로 복잡한 뉴럴 네트워크로 구성되어 있다. 뉴런은 수천 개의 다른 뉴런과 신호를 주고 받는 시냅스를 통해 학습, 기억 등 지적 능력을 발휘한다. 뉴런은 신경계의 구조적, 기능적 단위이며 정보 전달의 기본 단위이다. 시냅스는 뉴런 사이의 접합부를 가리키며 어느 하나의 뉴런의 축색 돌기와 다른 뉴런의 수상 돌기가 연결된 부위를 말한다. 한 개의 뉴런은 수천 개의 다른 뉴런과 시냅스를 통해 연결되어 있다. 뉴로모픽 칩(Neuromorphic chip)은 생물 신경 시스템을 모사한 인공 신경계를 뉴런 수준에서 제작함으로써, 두뇌가 처리하는 정보처리 방식을 모사하기 위해 만들어진 반도체 회로이다. 뉴로모픽 칩에 포함된 뉴런에서 발생한 이벤트 신호를 판독하거나 이벤트 신호를 다른 뉴런으로 전달하기 위해 통신 채널이 이용될 수 있다.
일 실시예에 따르면, 학습 방법은 입력 데이터에 기초하여 제1 비져블 레이어를 활성화시키는 단계; 학습 파라미터 및 상기 제1 비져블 레이어의 출력에 기초하여 제1 히든 레이어를 활성화시키는 단계; 상기 제1 비져블 레이어의 출력 및 상기 제1 히든 레이어의 출력에 기초하여, 상기 학습 파라미터를 학습시키는 단계; 상기 제1 히든 레이어의 출력에 기초하여, 상기 제1 비져블 레이어의 보조 레이어에 해당하는 제2 비져블 레이어를 활성화시키는 단계; 상기 학습 파라미터 및 상기 제2 비져블 레이어의 출력에 기초하여, 상기 제1 히든 레이어의 보조 레이어에 해당하는 제2 히든 레이어를 활성화시키는 단계; 및 상기 제2 비져블 레이어의 출력 및 상기 제2 히든 레이어의 출력에 기초하여, 상기 학습 파라미터를 학습시키는 단계를 포함한다.
상기 제1 비져블 레이어와 상기 제1 히든 레이어 사이의 연결 구조는 상기 제2 비져블 레이어와 상기 제2 히든 레이어 사이의 연결 구조와 동일할 수 있다.
상기 학습 파라미터는 상기 제1 히든 레이어의 출력이 상기 입력 데이터와 유사해지도록, 혹은 상기 제2 비져블 레이어의 출력이 상기 제1 비져블 레이어의 출력과 유사해지도록 학습될 수 있다.
상기 학습 파라미터는 비져블 레이어에 포함된 뉴런과 히든 레이어에 포함된 뉴런 사이의 연결 가중치를 포함할 수 있다.
상기 제1 비져블 레이어, 상기 제1 히든 레이어, 상기 제2 비져블 레이어, 및 상기 제2 히든 레이어에 포함된 뉴런들은 입력되는 스파이크의 타이밍에 기초하여 활성화될 수 있다.
상기 제1 비져블 레이어에 포함된 제1 비져블 뉴런의 출력 및 상기 제1 히든 레이어에 포함된 제1 히든 뉴런의 출력에 기초하여, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가되고, 상기 제2 비져블 레이어에 포함된 제2 비져블 뉴런의 출력 및 상기 제2 히든 레이어에 포함된 제2 히든 뉴런의 출력에 기초하여, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소될 수 있다.
상기 제1 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제1 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가될 수 있다.
상기 제2 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제2 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소될 수 있다.
일 실시예에 따르면, 학습 장치는 입력 데이터에 기초하여 활성화되는 제1 비져블 레이어; 학습 파라미터 및 상기 제1 비져블 레이어의 출력에 기초하여 활성화되는 제1 히든 레이어; 상기 제1 비져블 레이어의 보조 레이어이고, 상기 제1 히든 레이어의 출력에 기초하여 활성화되는 제2 비져블 레이어; 및 상기 제1 히든 레이어의 보조 레이어이고, 상기 학습 파라미터 및 상기 제2 비져블 레이어의 출력에 기초하여 활성화되는 제2 히든 레이어를 포함하는 저장부; 및 상기 제1 히든 레이어의 출력이 상기 입력 데이터와 유사해지도록 상기 학습 파라미터를 학습시키는 처리부를 포함한다.
상기 제1 비져블 레이어와 상기 제1 히든 레이어 사이의 연결 구조는 상기 제2 비져블 레이어와 상기 제2 히든 레이어 사이의 연결 구조와 동일할 수 있다.
상기 학습 파라미터는 상기 제2 비져블 레이어의 출력이 상기 제1 비져블 레이어의 출력과 유사해지도록 학습될 수 있다.
상기 학습 파라미터는 비져블 레이어에 포함된 뉴런과 히든 레이어에 포함된 뉴런 사이의 연결 가중치를 포함할 수 있다.
상기 제1 비져블 레이어, 상기 제1 히든 레이어, 상기 제2 비져블 레이어, 및 상기 제2 히든 레이어에 포함된 뉴런들은 입력되는 스파이크의 타이밍에 기초하여 활성화될 수 있다.
상기 제1 비져블 레이어에 포함된 제1 비져블 뉴런의 출력 및 상기 제1 히든 레이어에 포함된 제1 히든 뉴런의 출력에 기초하여, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가되고, 상기 제2 비져블 레이어에 포함된 제2 비져블 뉴런의 출력 및 상기 제2 히든 레이어에 포함된 제2 히든 뉴런의 출력에 기초하여, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소될 수 있다.
상기 제1 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제1 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가될 수 있다.
상기 제2 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제2 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소될 수 있다.
도 1은 일 실시예에서 이용되는 딥 러닝(Deep Learning)의 개략도이다.
도 2는 제한 볼츠만 머신(RBM)의 구조를 도시한 도면이다.
도 3은 일 실시예에 따른 학습 방법을 나타낸 흐름도이다.
도 4는 일 실시예에 따른 학습 장치의 동작 원리를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 학습 장치의 각 레이어가 뉴런들로부터 수신되는 스파이크들에 의해 활성화되는 원리를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 학습 장치에서 학습 규칙에 의해 가중치를 업데이트하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 학습 장치에서 학습 규칙(evtCD)의 STDP 학습 원리를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 학습 장치의 블록도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에서 이용되는 딥 러닝(Deep Learning)의 개략도이다.
딥 러닝(Deep Learning)은 대규모 데이터 집합으로부터 영상 인식 및 음성 인식과 같은 어려운 문제를 해결하기 위한 기계 학습 분야의 접근 방법이다. 딥 러닝의 주요 아이디어는 감독(supervised) 학습 방법, 자율(unsupervised) 학습 방법, 또는 이들의 조합으로 멀티 레이어의 뉴럴 네트워크(multi-layered neural networks)의 기능 계층 구조(예를 들어, 도 1의 130 참조)를 추출하는 것이다.
실시예들에 따르면, 딥 러닝을 위한 모델로 '제한 볼츠만 머신(Restricted Boltzmann Machines; RBMs)'으로 불리는, 단순한 회귀 뉴럴 네트워크(recurrent neural networks)의 적층 구조로 구성된 딥 빌리프 네트워크(Deep Belief Network; DBN)가 이용될 수 있다.
제한 볼츠만 머신(RBMs)은, 컨트래스티브 다이버전스(Contrastive Divergence; CD)라고 불리는 자율 학습 방법에 의해, 계층의 각 레이어 별로 학습될 수 있다. 제한 볼츠만 머신은 예를 들어, 시각적 객체들 또는 음성 인식과 같이 패턴 인식을 용이하게 하는 관념적 특징들(abstract features)을 점진적으로 추출한다. 제한 볼츠만 머신(RBMs)에서 동일 레이어 내의 뉴런들(neurons)은 서로 연결되지 않지만, 예를 들어, 비져블 레이어 및 히든 레이어와 같이 양 방향으로 연결된 뉴런들의 두 레이어들을 포함한다. 비져블 레이어는 입력 데이터를 수신하는 반면, 히든 레이어는 추출된 특징들을 학습하고, 이로부터 입력을 재구성할 수 있다.
제한 볼츠만 머신(RBMs)에서 한 번의 학습이 수행된 후, 히든 레이어에 포함된 히든 뉴런들의 활성화는 딥 빌리프 네트워크(DBN)의 계층에서 다음 제한 볼츠만 머신(RBMs)에 대한 입력으로 사용될 수 있다. 예를 들어, 딥 빌리프 네트워크(DBN)는 데이터 분류뿐만 아니라, 데이터의 생성적 모델로도 역할할 수 있다. 이것은 딥 빌리프 네트워크(DBN)가 예를 들어, 폐쇄(occlusions), 분실 값(missing values), 또는 모호한 데이터(ambiguous data)의 존재 하에서, 네트워크가 샘플링할 수 있는 입력 집합의 확률 분포를 부호화하고, 피드-포워드(feed-forward) 및 피드백(feed-back) 방향에서의 조작에 의해 서로 다른 감각적 양상(sensory modalities)으로부터 입력들을 병합할 수 있음을 의미한다.
실제 구현에 있어서 딥 러닝 기법은 아래와 같은 두 가지 사항을 고려할 수 있다. (1) 딥 러닝을 구현하는 일반적인 딥 네트워크들은 매우 크며, 따라서 컴퓨팅 기술을 사용하는 실시간 응용 프로그램들에 대해 비실용적이다. (2) 큰 사이즈 및 관련된 대규모 데이터 집합으로 인해, 일반적인 딥 네트워크의 학습은 매우 오랜 시간이 걸리고, 대규모의 컴퓨팅 자원들을 필요로 한다.
실시예들에 따르면, 딥 빌리프 네트워크(DBN)를 스파이킹 뉴럴 네트워크에 매핑하는 방법을 사용하여, 딥 뉴럴 네트워크, 특히, 딥 빌리프 네트워크(DBN)가 실시간 구현에 적합하게 효율적인 방법으로 구현될 수 있다. 이러한 구조를 통하여, 수 밀리 초 단위로 이벤트 기반 센서로부터 출력되는 이벤트 신호들이 실시간으로 처리될 수 있다. 실시예들에 따른 스파이킹 딥 빌리프 네트워크(spiking DBN)는 스파이킹 IF(Integrate-and-Fire) 뉴런의 발화율(firing rate)에 대한 시거트 근사(Siegert approximation)를 이용하거나, 또는 고전적인 컨트래스티브 다이버전스(Contrastive Divergence; CD) 학습 규칙의 변형을 사용하여 학습될 수 있다.
일 실시예에 따른 학습 장치는 스파이킹 기반의 학습 규칙을 이용할 수 있다. 예를 들어, 학습 장치는 스파이킹 기반의 학습 규칙을 사용하는 제한 볼츠만 머신(RBMs) 및 딥 빌리프 네트워크(DBN)에 대한 이벤트 기반의 온라인 컨트래스티브 다이버전스(CD) 학습 규칙을 이용할 수 있다. 스파이킹 기반의 학습 규칙은 일 실시예에 따른 보조 뉴런의 집단들을 가지는 스파이킹 제한 볼츠만 머신(RBMs)의 가중치들을 직접 학습하는 데에 이용될 수 있다.
일 실시예에서는 상술한 학습 규칙들을 이용함으로써 딥 뉴럴 네트워크가 관찰된 데이터에 대해 매우 신속하고, 온라인에 빠르게 적응하도록 할 수 있다. 일 실시예에서 학습은 순차적인 컴퓨터 시뮬레이션을 사용하는 대신에, 뉴런들 및 시냅스들의 전용 회로들을 포함하는 뉴로모픽 하드웨어에서 병렬화를 통해 수행될 수 있다. 이러한 병렬화 방식은 딥 뉴럴 네트워크의 빠른 학습을 위한 큰 잠재력을 가질 수 있다.
일 실시예에 따른 학습 장치는 예를 들어, 동적 비전 센서들 또는 AER(address event representation)-EAR 실리콘, 또는 실리콘 달팽이관(silicon cochleas) 등과 같은 뉴로모픽 센서들로부터 입력되는 이벤트 스트림으로부터 직접 학습할 수 있다. AER(address event representation)은 스파이크 이벤트가 발생하는 타이밍에 비동기적으로 통신 버스에 스파이크 이벤트가 발생한 뉴런의 어드레스를 기록하는 방법이다.
또한, 일 실시예에 따른 온라인 학습 방법은 스파이크-타이밍 의존 가소성(Spike-timing Dependent Plasticity; STDP), 및 학습의 생물학적으로 그럴듯한 형태를 닮은 지역 가소성 규칙(local plasticity rule)을 통해 자율 확률 학습(unsupervised probabilistic learning)의 근사치를 허용한다.
도 1을 참조하면, 혼합 데이터(110) 및 기능 계층 구조를 가진 멀티-레이어 뉴럴 네트워크(multi-layered neural networks)(130)가 도시된다. 도 1에 도시된 혼합 데이터(110)를 계층적 뉴럴 네트워크(130)에서 학습함으로써 뉴럴 네트워크는 서로 다른 레이어들에서 추상적 특징들을 점점 더 많이 추출하는 것을 학습할 수 있다.
계층적 뉴럴 네트워크(130)에서 입력 이미지들(131)이 맨 바닥 레이어에 온다. 제1 레이어(133)는 예를 들어, 가로선, 세로선, 대각선 등 라인 세그먼트들(line segments)과 같이 일반적으로 낮은 레벨의 간단한 기하학적 특징을 추출하는 것을 학습한다. 제2 레이어(135)는 데이터 집합의 내용에 따라, 예를 들어, 눈, 코, 또는 바퀴들과 같이 좀 더 추상적 특징들을 추출할 수 있다. 최종의 제3 레이어(137)는 예를 들어, 얼굴들, 자동차들, 동물들과 같이 서로 다른 클래스들의 입력에 대한 추상적 표현을 형성하며, 원래의 화소 이미지들보다 훨씬 더 쉽게 구별될 수 있다. 제3 레이어(137)는 '태스크-특정 레이어(task specific layer)'라고 부를 수 있다.
도 2는 제한 볼츠만 머신(RBM)의 구조를 도시한 도면이다.
도 2를 참조하면, 비져블 레이어(visible layer)(210) 및 히든 레이어(Hidden layer)(230)를 포함하는 제한 볼츠만 머신(RBM)(200)이 도시된다. 제한 볼츠만 머신(RBM)(200)에서 입력은 비져블 레이어(210)로 인가되고, 비져블 레이어(210)는 히든 레이어(230)와 완전히 그리고 반복적으로 연결될 수 있다. 비져블 레이어(210)는 제한 볼츠만 머신(RBM)(200)에 인가되는 데이터에 대응되고, 히든 레이어(230)는 외부 세계로부터 숨겨진 일부 추상화된 표현에 대응된다.
제한 볼츠만 머신(RBM)(200)에서 동일한 레이어의 단위들(units)(예를 들어, 히든 레이어(230)에 포함된 뉴런들 각각, 또는 비져블 레이어(210)에 포함된 뉴런들 각각)은 서로 연결되지 않는다. 가중치는 입력 활성이, 히든 레이어(230)의 낮은 차원의 특징 표현으로부터 최적으로 재구성될 수 있도록 학습된다.
제한 볼츠만 머신(RBMs)(200)은 낮은 에너지 상태들로 강화되는(annealed) 계산 집약적인 프로세서를 사용하여 학습되고, 이러한 상태들은 제한 볼츠만 머신(RBMs)(200)에게 제시된 입력의 조인트 확률들(joint probabilities)을 모델링하는 학습 알고리즘을 안내하는 데에 사용될 수 있다.
도 3은 일 실시예에 따른 학습 방법을 나타낸 흐름도이다.
도 3을 참조하면, 일 실시예에 따른 학습 장치는 입력 데이터에 기초하여 제1 비져블 레이어를 활성화시킨다(310). 학습 장치는 학습 파라미터 및 제1 비져블 레이어의 출력에 기초하여 제1 히든 레이어를 활성화시킨다(320). 학습 장치는 제1 비져블 레이어의 출력 및 제1 히든 레이어의 출력에 기초하여, 학습 파라미터를 학습시킨다(330). 제1 비져블 레이어의 활성화, 제1 히든 레이어의 활성화, 및 학습 파라미터의 학습과 관련된 보다 상세한 설명은 후술한다.
학습 장치는 제1 히든 레이어의 출력에 기초하여, 제2 비져블 레이어를 활성화시킨다(340). 제2 비져블 레이어는 제1 비져블 레이어의 보조 레이어에 해당한다. 학습 장치는 학습 파라미터 및 제2 비져블 레이어의 출력에 기초하여, 제2 히든 레이어를 활성화시킨다(350). 제2 히든 레이어는 제1 히든 레이어의 보조 레이어에 해당한다. 제2 비져블 레이어와 제2 히든 레이어 사이의 연결 구조는 제1 비져블 레이어와 제1 히든 레이어 사이의 연결 구조와 동일할 수 있다. 학습 장치는 제2 비져블 레이어의 출력 및 제2 히든 레이어의 출력에 기초하여, 학습 파라미터를 학습시킨다(360). 제2 비져블 레이어의 활성화, 제2 히든 레이어의 활성화, 및 학습 파라미터의 학습과 관련된 보다 상세한 설명은 후술한다.
제1 비져블 레이어, 제1 히든 레이어, 제2 비져블 레이어, 및 제2 히든 레이어는 각각 뉴런들을 포함할 수 있다. 각 레이어에 포함된 뉴런들은 입력되는 스파이크의 타이밍에 기초하여 활성화될 수 있다.
학습 파라미터는 예를 들어, 제1 히든 레이어의 출력이 입력 데이터와 유사해지도록, 혹은 제2 비져블 레이어의 출력이 제1 비져블 레이어의 출력과 유사해지도록 학습될 수 있다. 학습 파라미터는 비져블 레이어에 포함된 뉴런과 히든 레이어에 포함된 뉴런 사이의 연결 가중치를 포함할 수 있다.
제1 비져블 뉴런과 제1 히든 뉴런 사이의 연결 가중치는 제1 비져블 레이어에 포함된 제1 비져블 뉴런의 출력 및 제1 히든 레이어에 포함된 제1 히든 뉴런의 출력에 기초하여 증가될 수 있다. 또한, 제2 비져블 뉴런과 제2 히든 뉴런 사이의 연결 가중치는 제2 비져블 레이어에 포함된 제2 비져블 뉴런의 출력 및 제2 히든 레이어에 포함된 제2 히든 뉴런의 출력에 기초하여 감소될 수 있다.
제1 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 제1 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 제1 비져블 뉴런과 제1 히든 뉴런 사이의 연결 가중치가 증가될 수 있다. 여기서, 미리 정해진 시간 범위는 아래에서 설명하는 '타이밍 윈도우'일 수 있다. 또한, 제2 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 제2 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 제2 비져블 뉴런과 제2 히든 뉴런 사이의 연결 가중치가 감소될 수 있다.
도 4는 일 실시예에 따른 학습 장치의 동작 원리를 설명하기 위한 도면이다.
도 4를 참조하면, 일 실시예에 따른 학습 장치(400)는 데이터-기반(data-driven) 연산을 수행하는 데이터 레이어(410)와 모델-기반(model-driven) 연산을 수행하는 모델 레이어(450)를 포함할 수 있다. 모델 레이어(450)는 데이터 레이어(410)에 포함된 스파이킹 뉴런들에 대응하는 보조 뉴런들(auxiliary neurons)을 포함할 수 있다.
일 실시예에 따른 학습 장치(400)는 온라인에서 STDP-기반 학습이 가능하도록 보조 뉴런들을 포함하는 두 개의 보조 레이어들(451,455)을 포함할 수 있다. 일 실시예에 따른 학습 장치(400)의 동작은 제1 페이즈 및 제2 페이즈의 두 개의 페이즈로 구분될 수 있다. 제1 페이즈는 데이터 레이어(410)에서 수행되고, 제2 페이즈는 모델 레이어(450)에서 수행될 수 있다.
제1 페이즈에서 히든 레이어(415)의 히든 값들은 비져블 레이어(411)의 비져블 단위 활성(visible unit activity)으로부터 유추될 수 있다. 제2 페이즈에서 비져블 레이어(451)의 비져블 활성은 히든 레이어(415)의 출력에 기초하여 결정될 수 있다. 일 예로, 제2 페이즈에서 비져블 레이어(451)의 비져블 활성은 히든 레이어(415)의 출력에 그대로 대응할 수 있다. 다른 예로, 제2 페이즈에서 비져블 레이어(451)의 비져블 활성은 히든 레이어(415)의 출력에 기초하여 학습된 연결 가중치(W')(430)에 의해 재구성될 수 있다.
데이터 레이어(410)의 히든 레이어(415)는 비져블 레이어(411)를 통해 실제 데이터 입력을 수신하고, 이를 모델 레이어(450)의 비져블 레이어(451)에 투영한다. 비져블 레이어(451)는 입력을 히든 레이어(455)로 투영한다.
가중치 W(413,453)는 레이어들(410, 450) 간에 서로 공유될 수 있다. 가중치 W(413,453)는 주어진 시간 윈도우 내에서 포스트 시냅틱 뉴런이 발화하기 전에 또는 프리 시냅틱 뉴런이 발화한 후에 변경될 수 있다.
데이터 레이어(410)의 비져블 레이어(411)로부터 히든 레이어(415)로 적용되는 가중치(413)은 비져블 레이어(411)의 뉴런들이 히든 레이어(415)의 뉴런들에 앞서 발화하는 경우에 증가될 수 있다. 또한, 모델 레이어(450)의 비져블 레이어(451)로부터 히든 레이어(455)로 적용되는 가중치(453)는 히든 레이어(455)의 뉴런들이 비져블 레이어(451)의 뉴런들 이후에 발화하는 경우에 감소될 수 있다.
일 실시예에 따른 학습 장치(400)는 이벤트 기반의 컨트래스티브 다이버전스(evtCD) 학습에 이용되는 제한 볼츠만 머신(RBMs)을 이용할 수 있다. 제한 볼츠만 머신(RBMs)의 목적은 입력 데이터의 임의의 분포의 조밀한 표현을 학습하기 위해 시스템의 에너지 역학을 사용하는 것이다. 분포를 특정하는 관계는, 히든 유닛이 성긴 특징들을 학습하도록 강제하는 반복 및 대칭 연결 가중치(recurrent and symmetric connection weights)를 통해 맵핑될 수 있다. 가중치(413,453)로부터 입력 분포는 재구성되고, 시스템의 가능한 구성들에 대응하는 제한 볼츠만 머신(RBMs)이 낮은 에너지 상태를 야기하도록 할 수 있다.
제한 볼츠만 머신(RBMs)의 정보의 흐름에서 새로운 데이터는 우선 비져블 레이어(411)를 활성화한다. 이후, 히든 레이어(415)의 모든 유닛들은, 제한 볼츠만 머신(RBMs)의 가중치 매트릭스 W 및 깁스 샘플링(Gibbs sampling)이라는 잘 알려진 확률 샘플링(stochastic sampling) 방법을 이용하여, 확률적으로 갱신될 수 있다. 이와 같이 데이터 레이어(410)의 모든 단위 활성화는 입력 데이터에 의해 구동될 수 있다.
비져블 레이어(450)는 히든 뉴런들(415)의 활성화로부터 (다시 깁스 샘플링을 이용하여) 재샘플링될 수 있다. 이러한 재샘플링은 입력 데이터의 모델 기반 재구성이기 때문에, 이를 '모델 레이어(Model Layer)'라고 부를 수 있다. 잘 학습된 제한 볼츠만 머신(RBMs)에서, 모델 레이어(450)에서 재샘플링된 입력은 데이터 레이어(410)에 대한 원래의 입력과 유사할 수 있다.
마지막으로, 히든 레이어(455)는 모델 레이어(450)의 비져블 뉴런들(451)로부터 재샘플링될 수 있다. 일반적인 제한 볼츠만 머신(RBMs)은 히든 레이어와 비져블 레이어에서 동일한 단위들이 사용되는 반면, 일 실시예에 따른 학습 장치(400)는 보조 유닛들을 생성하고, 이를 별개의 집단으로 분리함으로써 학습을 가능하게 할 수 있다.
도 5는 일 실시예에 따른 학습 장치의 각 레이어가 뉴런들로부터 수신되는 스파이크들에 의해 활성화되는 원리를 설명하기 위한 도면이다. 예를 들어, 데이터 레이어(410)의 비져블 레이어(411)에 뉴런 0부터 뉴런 3까지 4개의 뉴런들이 포함되어 있고, 각 뉴런들은 히든 레이어(415)의 뉴런 7과 연결되며, 각 뉴런들은 서로 다른 발화(spike) 타이밍 및 서로 다른 가중치들을 포함한다고 하자.
뉴런 0가 발화된 경우, 히든 레이어(415)의 뉴런 7의 전압은 뉴런 0과 뉴런 7 사이의 가중치 w0가 반영된 전압만큼 증가한다. 뉴런 7의 전압은 시간이 흐를수록 점차 감소된다. 뉴런 7의 전압이 전압 임계치를 넘지 않았으므로, 뉴런 7의 출력값은 '0'이다.
이후, 뉴런 2가 발화되면, 뉴런 7의 전압은 뉴런 0의 발화 후 감소된 값을 기준으로 뉴런 2와 뉴런 7 사이의 가중치 w2가 반영된 전압만큼 증가할 수 있다. 이러한 방식으로 뉴런 7의 전압은 뉴런 3의 발화 및 두 번의 연속된 뉴런 1의 발화에 의해 전압 임계치를 초과할 수 있다. 뉴런 7의 전압이 전압 임계치를 초과하는 경우, 뉴런 7은 비로소 발화될 수 있다. 뉴런 7이 발화되는 것은 뉴런 7이 '1'을 출력하는 것으로 이해될 수 있다.
도 6은 일 실시예에 따른 학습 장치에서 학습 규칙에 의해 가중치를 업데이트하는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 타임 윈도우(time window)(혹은 윈도우(window)) 및 각 레이어에서 발화된 스파이크가 도시된다. 일 실시예에서는 히든 레이어에 포함된 히든 노드의 스파이크와 비져블 레이어에 포함된 비져블 노드의 스파이크가 서로 연관되는 타임 윈도우를 가정한다. 일 실시예에서 이용되는 학습 규칙은 컨트래스티브 다이버전스 및 확률적 STDP 학습 규칙들의 개념에 기초할 수 있다.
학습 규칙은 데이터 레이어(610)의 뉴런들 간의 스파이크 및 모델 레이어(650)의 뉴런들 간의 스파이크에 대해 다르게 동작할 수 있다. 예를 들어, 데이터 레이어(610)의 비져블 레이어에 포함된 비져블 뉴런들 및 히든 레이어에 포함된 히든 뉴런들에서 주어진 타임 윈도우 내에 발생한 스파이크들의 페어는 가중치 증가를 유도할 수 있다. 반면, 모델 레이어(650)의 비져블 레이어에 포함된 비져블 뉴런들과 히든 레이어에 포함된 뉴런들에서 주어진 타임 윈도우 내에 발생한 스파이크들의 페어는 가중치 감소를 유도할 수 있다.
만약, 스파이크들이 주어진 타임 윈도우 내에 발화하지 않는 경우, 데이터 레이어(610) 및 모델 레이어(650) 둘 다에서 아무런 변화가 발생하지 않는다. 이러한 규칙은 일반적인 컨트래스티브 다이버전스(CD) 학습에서와 동일하다.
제한 볼츠만 머신(RBMs)의 단위들은 확률적 이진 뉴런들(stochastic binary neurons)에 의해 표현된다. 일 실시예에 따르면, 단순한 Leaky Integrate-and-Fire(LIF) 타입의 스파이킹 뉴런들로 구성된 네트워크들을 이용하여 뉴런들의 상태들이 인코딩될 수 있다. 일 실시예에서 네트워크는 예를 들어, 데이터 레이어(610)에 포함된 비져블 데이터(data visible)(
Figure pat00001
), 히든 데이터(data hidden)(
Figure pat00002
), 모델 레이어(650)에 포함된 비져블 모델(model visible)(
Figure pat00003
), 및 히든 모델(model hidden)(
Figure pat00004
) 등과 같이 스파이킹 뉴런들의 네 개의 물리적으로 구별된 집단으로 표현될 수 있다.
데이터 레이어(610) 및 모델 레이어(650)의 분포가 가중치 행렬을 공유하기 때문에, 가중치 행렬은 크기가 일치해야 하지만, 각 레이어에 포함된 비져블 레이어 및 히든 레이어들은 제약(constraints)에 따라 크기가 정해질 수 있다. 일 실시예에 따른 학습 장치에서 내부-레이어(intra-layer) 간 연결은 없고, 가중치들은 비져블 레이어와 히든 레이어 간에 활성화를 전파한다. 데이터 레이어의 히든 레이어와 모델 레이어의 비져블 레이어 간의 가중치들(W')은 데이터 레이어 혹은 모델 레이어 내 순방향 가중치(forward weights)(W)의 전치(transpose)일 수 있다.
일 실시예에서 가중치 행렬 W의 학습은 이벤트 기반 영역의 컨트래스티브 다이버전스(CD) 학습 규칙을 확장한 새로운 evtCD 학습 규칙을 사용할 수 있다. evtCD 업데이트 규칙은 수학식 1과 같이 요약할 수 있다.
Figure pat00005
여기서,
Figure pat00006
는 비져블 레이어의 j 번째 뉴런과 히든 레이어의 i 번째 뉴런 간의 연결 가중치의 변화를 의미한다. 뉴런이 발화(스파이크를 출력)하는 경우, 뉴런의 값은 '1'이라고 하고, 뉴런이 발화하지 않는 경우, 그 뉴런의 값은 '0'이라고 한다.
이러한 등식은 데이터 레이어의 비져블 레이어 및 히든 레이어 둘 다에서 발화가 발생할 때에 가중치 증가를 초래하고, 모델 레이어의 비져블 레이어와 히든 레이어 둘 다에서 발화가 발생한 때에 가중치 감소를 초래할 수 있다. 이와 같이, 일 실시예에 따른 학습 장치는 스파이크-타이밍 기반 학습 규칙과 뉴런들의 보조 집단을 사용하는 이벤트 구동 컨트래스티브 다이버전스(CD) 학습 알고리즘을 이용할 수 있다. 학습 장치는 학습 규칙의 이벤트 기반 비동기를 구현할 수 있다.
일 실시예에서는 표준 방법과 아래 도 7에서 설명하는 생물학적으로 영감을 받는 STDP-유사의 스파이크 기반의 학습 방법을 결합하여 학습 이벤트 기반의 제한 볼츠만 머신(RBMs)을 온라인에서 구동할 수 있다. 일 실시예에 따른 학습 규칙은 제한 볼츠만 머신(RBMs)의 스파이킹 뉴럴 네트워크 구현에 있어서 희소(sparse)하고 비동기적인 가중치의 업데이트를 제공할 수 있다.
도 7은 일 실시예에 따른 학습 장치에서 학습 규칙(evtCD)의 STDP 학습 원리를 설명하기 위한 도면이다.
데이터 레이어(710)의 뉴런들 간의 연결에서, 포지티브 가중치 변화는 프리-시냅틱 뉴런의 포스트-시냅틱 뉴런 후에 발화하는 경우(예를 들어, 음의 시간 차)에 수행될 수 있다. 또한, 모델 레이어(730)에서는 동일한 발화의 조합이 가중치 감소를 발생시키는 반대의 변화를 발생시킬 수 있다.
두 개의 발화들은 연속된 시간에서 정확히 동일한 지점에서 발생하기 어렵기 때문에, 일 실시예에서는
Figure pat00007
Figure pat00008
의 값들은 1로 남아 있다가 0으로 감소되는 윈도우 기간(windowing period) (
Figure pat00009
)을 정의한다. 이러한 개념은 도 6에 도시되어 있다.
각 윈도우에서 발생할 것으로 기대되는 발화 횟수의 비율(E[hi]twin)은 수학식 2에 개시된 것과 같이 레이트의 전체 단위 시간 길이에 대한 윈도우 사이즈의 비율일 수 있다.
Figure pat00010
여기서, < >는 발화의 예상된 횟수를 나타내고,
Figure pat00011
는 단위
Figure pat00012
의 발화율이며, twin 은 타임 윈도우를 나타낸다.
일 실시예에서 간략화를 위해, 발화율이 발화 모델에서 아주 일반화된 가정인 포아송 분포를 따르는 것으로 가정할 수 있기 때문에, 포아송 분포의 비율에서 타임 윈도우는 임의로 선택된 일정 시간 구간에 대한 평균률이 될 수 있다.
일 실시예에 따른 학습 장치는
Figure pat00013
에서 시작하고, 현재의 시간
Figure pat00014
에서 기간이 종료되는 것으로 선택할 수 있다. 이러한 한정에서, 단위 시간 구간에 대해 생성되는
Figure pat00015
이벤트들의 예상 개수는 레이트
Figure pat00016
이다.
따라서, 업데이트 규칙은 수학식 3과 같이 나타낼 수 있다.
Figure pat00017
Figure pat00018
수학식 3은 일 실시예에 따른 학습 규칙이 제한 볼츠만 머신(RBMs)을 위한 표준 컨트래스티브 다이버전스(CD) 규칙에 정확하게 대응됨을 나타낸다. 여기서, 스파이크 상태들
Figure pat00019
Figure pat00020
는 스파이크의 존재 또는 부재를 나타내고, 타임 윈도우
Figure pat00021
는 예상(expectation)이 실행되는 동안의 시간을 의미한다.
중요한 것은 학습은 연결된 레이어들 모두에서 스파이크들이 수신된 경우에만 발생하기 때문에, 그 계산은 완전한 스파이크-기반 규칙이고, 예외적인 경우는 드물다는 것이다. 다시 말해, 학습이 발생하기 위해
Figure pat00022
Figure pat00023
는 1이 되어야 하고, 타임 윈도우는 스파이크
Figure pat00024
가 윈도우의 끝에서 발생하도록 설계되며, 가능한 가중치 갱신은 히든 레이어가 발화할 때에 계산될 수 있다.
이 시점에서, 뉴런은 이전
Figure pat00025
에서 어떤 입력들이 스파이크되었는지 및 학습 규칙에 의해 특정된 것과 같이 그 가중치를 강화(potentiate) 또는 약화(depress)했는지를 체크할 수 있다. evtCD 학습 규칙이라 불리는 상기 규칙은 도 6 및 도 7에 요약되어 있다.
중요한 것은 evtCD 규칙은 히든 레이어의 뉴런이 발화하는 때에만 평가하면 된다는 것이다. 이는 두 개의 이진 이벤트의 산물이므로,
Figure pat00026
의 곱은
Figure pat00027
Figure pat00028
가 둘 다 1인 경우에만 활성화된다. 이 둘 중 어느 하나라도 활성화되지 않은 경우, 학습 장치는 가중치를 갱신하지 않고, 연결 가중치
Figure pat00029
는 고정된 채 유지될 수 있다.
또한, 일 실시예에서는 스파이킹 네트워크에서 달성될 수 있는 학습 알고리즘의 빠른 온라인 버전을 구현할 수 있다. 일 실시예에 따른 온라인 학습 방법은 STDP- 유사의 로컬 가소성 규칙을 통해 자율 확률 학습의 근사를 허용한다. 학습 딥 네트워크는 소모적인 작업이고, 대량의 컴퓨터 자원들의 사용을 요구하므로, 온라인 학습은 고려되지 않았다.
일 실시예에서는 스파이킹 뉴런들을 가진 불규칙하게 업데이트되는 제한 볼츠만 머신(RBMs) 실행의 효율성과 어느 시점에서는 모든 가중치를 업데이트하지 않는 이벤트-기반 학습 규칙의 추가적인 혜택을 결합한다. 가장 효율적인 이용은 이러한 종류의 이벤트-기반 온라인 학습이, 처리될 데이터를 이미 크게 줄인 뉴로모픽 센서들의 효율적인 입력 표현과 결합된 경우이다.
일 실시예에 따른 제한 볼츠만 머신(RBMs)을 위한 온라인 학습은 환경에서 변화에 자동적으로 적응하고, 사용자에 의해 학습될 수 있다. 그러므로, 이벤트-기반 학습이, 이전에 경험하지 못한 입력들이 정기적으로 발생하는 스마트 기기 또는 로봇들의 일부로 사용되는 경우에 유용하다. 일 실시예에 따른 학습 장치는 다른 학습 방법(예를 들어, 오프 라인 컨트래스티브 다이버전스(CD) 방법)에 의해 초기화된 가중치로 시작하고, 온라인으로 적용할 수 있다. 일 실시예에 따르면, 아무런 사전 지식 없이 evtCD 학습 규칙으로 학습을 시작하지 않아도 되고, 새로운 산출물에 대한 기초로서 이미 존재하는 기술을 사용할 수 있다.
이 밖에도, 일 실시예에 따르면, 동적 비전 센서들 및 다른 뉴로모픽 센서들의 입력들에 적용되는 학습 규칙의 온라인 버전을 이용할 수 있다. 즉, 일 실시예에 따른 학습 장치는 스파이킹 뉴럴 네트워크에서 직접 스파이킹 센서들로부터 특징들을 추출할 수 있는 이벤트-기반 제한 볼츠만 머신(RBMs)일 수 있다.
일 실시예에서 이벤트-기반 센서들의 비동기 출력 이벤트들에 직접 동작하는 온라인 학습 규칙은 이벤트 타이밍을 보존하고, 스파이크들의 임의의 인위적인 비닝(binning)을 회피한다. 따라서, 추가적인 계산 단계는 네트워크의 처리 속도를 느리게 할 수 있다. 센서 출력들의 희소성은 또한 연산 부하가 시간 단위의 네트워크와 함께 결합된 동등한 프레임-기반 센서보다 작을 수 있음을 의미한다.
일 실시예에 따른 학습 규칙은 제한 볼츠만 머신(RBMs)의 스파이킹 뉴럴 네트워크 구현에서 희소하고, 비동기적인 가중치 업데이트를 제공하고, 이벤트-기반 비전 센서로부터 실시간 입력에 노출된 경우에 단지 60초의 학습 시간 후에 양호한 성능을 달성할 수 있다.
도 8은 일 실시예에 따른 학습 장치의 블록도이다.
도 8을 참조하면, 일 실시예에 따른 학습 장치(800)는 저장부(810) 및 처리부(830)를 포함한다. 저장부(810)는 제1 비져블 레이어, 제1 히든 레이어, 제2 비져블 레이어, 및 제2 히든 레이어를 포함한다. 제2 비져블 레이어는 제1 비져블 레이어의 보조 레이어이고, 제2 히든 레이어는 제1 히든 레이어의 보조 레이어이다.
제1 비져블 레이어, 제1 히든 레이어, 제2 비져블 레이어, 및 제2 히든 레이어는 뉴런들을 포함할 수 있다. 제1 비져블 레이어, 제1 히든 레이어, 제2 비져블 레이어, 및 제2 히든 레이어에 포함된 뉴런들은 입력되는 스파이크의 타이밍에 기초하여 활성화될 수 있다.
제1 비져블 레이어는 입력 데이터에 기초하여 활성화되고, 제1 히든 레이어는 학습 파라미터 및 제1 비져블 레이어의 출력에 기초하여 활성화된다. 제2 비져블 레이어는 제1 히든 레이어의 출력에 기초하여 활성화되고, 제2 히든 레이어는 학습 파라미터 및 제2 비져블 레이어의 출력에 기초하여 활성화된다. 제1 비져블 레이어와 제1 히든 레이어 사이의 연결 구조는 제2 비져블 레이어와 제2 히든 레이어 사이의 연결 구조와 동일할 수 있다.
처리부(830)는 제1 히든 레이어의 출력이 입력 데이터와 유사해지도록 학습 파라미터를 학습시킨다. 학습 파라미터는 제2 비져블 레이어의 출력이 제1 비져블 레이어의 출력과 유사해지도록 학습될 수 있다. 또한, 학습 파라미터는 비져블 레이어에 포함된 뉴런과 히든 레이어에 포함된 뉴런 사이의 연결 가중치를 포함할 수 있다.
제1 비져블 레이어에 포함된 제1 비져블 뉴런의 출력 및 제1 히든 레이어에 포함된 제1 히든 뉴런의 출력에 기초하여, 제1 비져블 뉴런과 제1 히든 뉴런 사이의 연결 가중치가 증가될 수 있다. 또한, 제2 비져블 레이어에 포함된 제2 비져블 뉴런의 출력 및 제2 히든 레이어에 포함된 제2 히든 뉴런의 출력에 기초하여, 제2 비져블 뉴런과 제2 히든 뉴런 사이의 연결 가중치가 감소될 수 있다.
제1 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 제1 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 제1 비져블 뉴런과 제1 히든 뉴런 사이의 연결 가중치가 증가될 수 있다. 제2 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 제2 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 제2 비져블 뉴런과 제2 히든 뉴런 사이의 연결 가중치가 감소될 수 있다.
이상에서 설명된 장치는 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성 요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (17)

  1. 입력 데이터에 기초하여 제1 비져블 레이어를 활성화시키는 단계;
    학습 파라미터 및 상기 제1 비져블 레이어의 출력에 기초하여 제1 히든 레이어를 활성화시키는 단계;
    상기 제1 비져블 레이어의 출력 및 상기 제1 히든 레이어의 출력에 기초하여, 상기 학습 파라미터를 학습시키는 단계;
    상기 제1 히든 레이어의 출력에 기초하여, 상기 제1 비져블 레이어의 보조 레이어에 해당하는 제2 비져블 레이어를 활성화시키는 단계;
    상기 학습 파라미터 및 상기 제2 비져블 레이어의 출력에 기초하여, 상기 제1 히든 레이어의 보조 레이어에 해당하는 제2 히든 레이어를 활성화시키는 단계; 및
    상기 제2 비져블 레이어의 출력 및 상기 제2 히든 레이어의 출력에 기초하여, 상기 학습 파라미터를 학습시키는 단계
    를 포함하는, 학습 방법.
  2. 제1항에 있어서,
    상기 제1 비져블 레이어와 상기 제1 히든 레이어 사이의 연결 구조는 상기 제2 비져블 레이어와 상기 제2 히든 레이어 사이의 연결 구조와 동일한, 학습 방법.
  3. 제1항에 있어서,
    상기 학습 파라미터는
    상기 제1 히든 레이어의 출력이 상기 입력 데이터와 유사해지도록, 혹은 상기 제2 비져블 레이어의 출력이 상기 제1 비져블 레이어의 출력과 유사해지도록 학습되는, 학습 방법.
  4. 제1항에 있어서,
    상기 학습 파라미터는
    비져블 레이어에 포함된 뉴런과 히든 레이어에 포함된 뉴런 사이의 연결 가중치를 포함하는, 학습 방법.
  5. 제1항에 있어서,
    상기 제1 비져블 레이어, 상기 제1 히든 레이어, 상기 제2 비져블 레이어, 및 상기 제2 히든 레이어에 포함된 뉴런들은 입력되는 스파이크의 타이밍에 기초하여 활성화되는, 학습 방법.
  6. 제1항에 있어서,
    상기 제1 비져블 레이어에 포함된 제1 비져블 뉴런의 출력 및 상기 제1 히든 레이어에 포함된 제1 히든 뉴런의 출력에 기초하여, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가되고,
    상기 제2 비져블 레이어에 포함된 제2 비져블 뉴런의 출력 및 상기 제2 히든 레이어에 포함된 제2 히든 뉴런의 출력에 기초하여, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소되는, 학습 방법.
  7. 제6항에 있어서,
    상기 제1 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제1 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가되는, 학습 방법.
  8. 제6항에 있어서,
    상기 제2 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제2 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소되는, 학습 방법.
  9. 하드웨어와 결합되어 제1항 내지 제8항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  10. 입력 데이터에 기초하여 활성화되는 제1 비져블 레이어;
    학습 파라미터 및 상기 제1 비져블 레이어의 출력에 기초하여 활성화되는 제1 히든 레이어;
    상기 제1 비져블 레이어의 보조 레이어이고, 상기 제1 히든 레이어의 출력에 기초하여 활성화되는 제2 비져블 레이어; 및
    상기 제1 히든 레이어의 보조 레이어이고, 상기 학습 파라미터 및 상기 제2 비져블 레이어의 출력에 기초하여 활성화되는 제2 히든 레이어
    를 포함하는 저장부; 및
    상기 제1 히든 레이어의 출력이 상기 입력 데이터와 유사해지도록 상기 학습 파라미터를 학습시키는 처리부
    를 포함하는, 학습 장치.
  11. 제10항에 있어서,
    상기 제1 비져블 레이어와 상기 제1 히든 레이어 사이의 연결 구조는 상기 제2 비져블 레이어와 상기 제2 히든 레이어 사이의 연결 구조와 동일한, 학습 장치.
  12. 제10항에 있어서,
    상기 학습 파라미터는
    상기 제2 비져블 레이어의 출력이 상기 제1 비져블 레이어의 출력과 유사해지도록 학습되는, 학습 장치.
  13. 제10항에 있어서,
    상기 학습 파라미터는
    비져블 레이어에 포함된 뉴런과 히든 레이어에 포함된 뉴런 사이의 연결 가중치를 포함하는, 학습 장치.
  14. 제10항에 있어서,
    상기 제1 비져블 레이어, 상기 제1 히든 레이어, 상기 제2 비져블 레이어, 및 상기 제2 히든 레이어에 포함된 뉴런들은 입력되는 스파이크의 타이밍에 기초하여 활성화되는, 학습 장치.
  15. 제10항에 있어서,
    상기 제1 비져블 레이어에 포함된 제1 비져블 뉴런의 출력 및 상기 제1 히든 레이어에 포함된 제1 히든 뉴런의 출력에 기초하여, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가되고,
    상기 제2 비져블 레이어에 포함된 제2 비져블 뉴런의 출력 및 상기 제2 히든 레이어에 포함된 제2 히든 뉴런의 출력에 기초하여, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소되는, 학습 장치.
  16. 제15항에 있어서,
    상기 제1 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제1 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제1 비져블 뉴런과 상기 제1 히든 뉴런 사이의 연결 가중치가 증가되는, 학습 장치.
  17. 제15항에 있어서,
    상기 제2 비져블 뉴런에 의하여 출력되는 스파이크의 타이밍과 상기 제2 히든 레이어에 의하여 출력되는 스파이크의 타이밍 사이의 차이가 미리 정해진 시간 범위 이내인 경우, 상기 제2 비져블 뉴런과 상기 제2 히든 뉴런 사이의 연결 가중치가 감소되는, 학습 장치.
KR1020150037427A 2015-03-18 2015-03-18 뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치 KR20160112186A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150037427A KR20160112186A (ko) 2015-03-18 2015-03-18 뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치
US14/833,264 US20160275397A1 (en) 2015-03-18 2015-08-24 Method and apparatus for event-based learning in neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150037427A KR20160112186A (ko) 2015-03-18 2015-03-18 뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20160112186A true KR20160112186A (ko) 2016-09-28

Family

ID=56923848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150037427A KR20160112186A (ko) 2015-03-18 2015-03-18 뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치

Country Status (2)

Country Link
US (1) US20160275397A1 (ko)
KR (1) KR20160112186A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054711A1 (ko) * 2017-09-12 2019-03-21 서강대학교 산학협력단 스마트 기기를 이용한 딥 러닝 기반 의료용 초음파 영상 분류 방법 및 장치
KR20190140276A (ko) * 2018-06-11 2019-12-19 고려대학교 산학협력단 비지도 학습장치 및 그 학습방법
KR20200098308A (ko) * 2019-02-12 2020-08-20 서울대학교산학협력단 스파이킹 뉴럴 네트워크를 이용한 추론 방법 및 장치

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10510001B2 (en) * 2016-03-18 2019-12-17 Mindtrace Limited Neuromorphic training algorithm for a Restricted Boltzmann Machine
US10817778B2 (en) * 2016-06-27 2020-10-27 International Business Machines Corporation Customized cooking utilizing deep learning neuromorphic computing of hyperspectral input
US11157828B2 (en) * 2016-12-08 2021-10-26 Microsoft Technology Licensing, Llc Tomography and generative data modeling via quantum boltzmann training
US10699189B2 (en) * 2017-02-23 2020-06-30 Cerebras Systems Inc. Accelerated deep learning
WO2018184193A1 (en) * 2017-04-07 2018-10-11 Intel Corporation Advanced artificial intelligence agent for modeling physical interactions
CN107679859B (zh) * 2017-07-18 2020-08-25 中国银联股份有限公司 一种基于迁移深度学习的风险识别方法以及系统
CN109510805B (zh) * 2017-09-15 2020-06-16 中国科学院声学研究所 一种基于安全基线模型的网络数据安全检测方法及系统
CN107730040B (zh) * 2017-09-30 2021-03-16 国网山东省电力公司电力科学研究院 基于rbm的电力信息系统日志信息综合特征提取方法和装置
US10366322B2 (en) 2017-10-06 2019-07-30 DeepCube LTD. System and method for compact and efficient sparse neural networks
CN108038543B (zh) * 2017-10-24 2021-01-22 华南师范大学 期望与反期望深度学习方法和神经网络系统
WO2019148033A1 (en) 2018-01-25 2019-08-01 Kraft Foods Group Brands Llc Method and system for preference-driven food personalization
US10776856B2 (en) 2018-01-25 2020-09-15 Kraft Foods Group Brands Llc Method and system for improving food-related personalization
US20190286074A1 (en) * 2018-03-13 2019-09-19 Hrl Laboratories, Llc Sparse associative memory for identification of objects
CN108510009A (zh) * 2018-04-16 2018-09-07 北京工业大学 一种基于判别矩阵变量受限玻尔兹曼机的图像识别方法
US11138350B2 (en) * 2018-08-09 2021-10-05 Zoox, Inc. Procedural world generation using tertiary data
EP3830762A4 (en) * 2018-11-28 2022-04-06 Hewlett-Packard Development Company, L.P. EVENT BASED PROCESSING USING DEEP NEURAL NETWORK OUTPUT

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054711A1 (ko) * 2017-09-12 2019-03-21 서강대학교 산학협력단 스마트 기기를 이용한 딥 러닝 기반 의료용 초음파 영상 분류 방법 및 장치
KR20190140276A (ko) * 2018-06-11 2019-12-19 고려대학교 산학협력단 비지도 학습장치 및 그 학습방법
KR20200098308A (ko) * 2019-02-12 2020-08-20 서울대학교산학협력단 스파이킹 뉴럴 네트워크를 이용한 추론 방법 및 장치

Also Published As

Publication number Publication date
US20160275397A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
KR20160112186A (ko) 뉴럴 네트워크에서 이벤트에 기반한 학습 방법 및 장치
US11481621B2 (en) Unsupervised, supervised and reinforced learning via spiking computation
US11138495B2 (en) Classifying features using a neurosynaptic system
US9292788B2 (en) Event-driven universal neural network circuit
KR20180045635A (ko) 뉴럴 네트워크 간소화 방법 및 장치
US20210011974A1 (en) Named-entity recognition through sequence of classification using a deep learning neural network
CN102906767B (zh) 用于时空联合存储器的标准尖峰神经网络
KR20200129639A (ko) 모델 학습 방법 및 장치
US20120084240A1 (en) Phase change memory synaptronic circuit for spiking computation, association and recall
KR20200045128A (ko) 모델 학습 방법 및 장치, 및 데이터 인식 방법
TWI634488B (zh) 人造神經網路之簡化裝置和簡化方法以及應用於簡化人造神經網路之非暫態電腦可讀取儲存媒體
KR101738825B1 (ko) 비연속적으로 확률 뉴런을 가지는 딥러닝 모델 및 지식 전파에 기반한 학습 방법 및 그 시스템
KR20180027887A (ko) 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법
KR20200128938A (ko) 모델 학습 방법 및 장치
JP6891626B2 (ja) 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
CN108229677B (zh) 用于使用循环模型执行识别和训练循环模型的方法和设备
JP6670314B2 (ja) コンピュータ・ネットワーク、ネットワークを実装するコンピュータ実装方法、およびコンピュータ・プログラム
CN113272829A (zh) 迁移学习的硬件加速器扩展—将训练扩展/完成到边缘
WO2019042676A1 (en) METHOD FOR CALCULATING INFORMATION RETURNED IN A HIERARCHICAL NEURAL NETWORK
KR102090109B1 (ko) 학습 및 추론 장치 및 그 방법
KR20210146002A (ko) 다층 스파이킹 뉴럴 네트워크의 학습 방법 및 장치
US20220101117A1 (en) Neural network systems for abstract reasoning
KR20230071719A (ko) 이미지 처리용 신경망 훈련 방법 및 전자 장치
KR20240094110A (ko) 적응적 마스크드 어텐션 메커니즘을 이용한 에스팩트 기반 문장 내 감정 분석 방법, 장치 및 시스템
KR20240115128A (ko) 교사 모델 없이 영상을 분류하는 뉴럴 모델을 학습시키는 뉴럴 모델 학습 장치 및 이의 제어 방법