KR20150038334A - 스파이킹 뉴런 네트워크들에서 효율적인 업데이트들을 위한 장치 및 방법 - Google Patents

스파이킹 뉴런 네트워크들에서 효율적인 업데이트들을 위한 장치 및 방법 Download PDF

Info

Publication number
KR20150038334A
KR20150038334A KR1020157004869A KR20157004869A KR20150038334A KR 20150038334 A KR20150038334 A KR 20150038334A KR 1020157004869 A KR1020157004869 A KR 1020157004869A KR 20157004869 A KR20157004869 A KR 20157004869A KR 20150038334 A KR20150038334 A KR 20150038334A
Authority
KR
South Korea
Prior art keywords
time
components
update
implementations
parameters
Prior art date
Application number
KR1020157004869A
Other languages
English (en)
Other versions
KR101626444B1 (ko
Inventor
올레그 신야브스키
바딤 포로니치코
유진 이즈히케비치
Original Assignee
퀄컴 테크놀로지스, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 테크놀로지스, 인크. filed Critical 퀄컴 테크놀로지스, 인크.
Publication of KR20150038334A publication Critical patent/KR20150038334A/ko
Application granted granted Critical
Publication of KR101626444B1 publication Critical patent/KR101626444B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Debugging And Monitoring (AREA)
  • Neurology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

인공 뉴런 네트워크들에서 접속의 효율적인 업데이트들이 구현될 수 있다. 프레임워크는 안정된 평형을 특징으로 하는 선형 시냅틱 동적 프로세스를 이용하여 접속들을 설명하는 데에 사용된다. 네트워크 내의 시냅스들과 뉴런들의 상태가, 뉴런들로의/뉴런들로부터의 입력들 및 출력들에 기초하여 업데이트될 수 있다. 일부 구현들에서, 업데이트들은 규칙적인 시간 간격으로 구현될 수 있다. 하나 또는 그보다 많은 구현들에서, 업데이트들은 네트워크 액티비티(예를 들어, 뉴런 출력 및/또는 입력)에 기초하여 온-디맨드로 구현될 수 있으므로 시냅틱 업데이트들과 연관된 계산 부하를 추가로 감소시킨다. 접속 업데이트들은 뉴런 입력으로 인한 접속 가소성 변경을 설명하기 위해 사용될 수 있는 다수의 이벤트-의존성 접속 변경 컴포넌트들로 분해될 수 있다. 이벤트-의존성 접속 변경 컴포넌트들을 이용하여, 접속 업데이트들이, 접속 기반 단위와는 대조적으로, 뉴런 기반 단위로 실행될 수 있다.

Description

스파이킹 뉴런 네트워크들에서 효율적인 업데이트들을 위한 장치 및 방법{APPARATUS AND METHODS FOR EFFICIENT UPDATES IN SPIKING NEURON NETWORKS}
본 출원은, 2012년 6월 4일에 출원된 공동 소유이며 공동 계류 중이고, 명칭이 "STOCHASTIC SPIKING NETWORK LEARNING APPARATUS AND METHODS"인 미국 특허 출원 제13/487,533호[대리인 관리 번호 021672-0407107, 클라이언트 참조번호 BC201203A], 2012년 6월 5일에 출원된 공동 소유이며 명칭이 "APPARATUS AND METHODS FOR REINFORCEMENT LEARNING IN ARTIFICIAL NEURAL NETWORKS"인 미국 특허 출원 일련번호 제13/489,280호[클라이언트 참조번호 BC201204A], 및 본 출원과 함께 출원된 공동 소유이며 명칭이 "APPARATUS AND METHODS FOR GENERALIZED STATE-DEPENDENT LEARNING IN SPIKING NEURON NETWORKS"인 미국 특허 출원 일련번호 제13/560,902호[대리인 관리번호 021672-0410044, 클라이언트 참조번호 BC201212A]와 관련되며, 본원에 포함된 상기 출원들 각각은 그 전체가 본원에 인용에 의해 포함된다.
저작권
본 특허 문헌의 개시 부분은 저작권 보호를 받는 내용을 포함한다. 저작권 소유자는, 특허청 파일들 또는 기록들에 나타나는 대로 특허 문서 또는 특허 개시물의 누군가에 의한 팩시밀리 복제에는 이의가 없지만, 그렇지 않은 경우 무엇이 되었든 모든 저작권을 보유한다.
본 개시는 스파이킹 뉴런 네트워크들에서 학습을 구현하는 것에 관한 것이다.
스파이킹 뉴럴 네트워크들(Spiking Neural Networks)
인공 스파이킹 뉴럴 네트워크들은 생물학적 뉴럴 네트워크들의 이해를 얻고 그리고/또는 인공 지능 문제들을 해결하기 위해 종종 사용될 수 있다. 이러한 네트워크들은 통상적으로 펄스들의 타이밍을 이용하여 정보를 인코딩할 수 있는 펄스-코딩식 메커니즘을 사용할 수 있다. 이러한 펄스들("스파이크들" 또는 "임펄스들"로도 지칭됨)은 단기-지속성(통상적으로 약 1-2 ms) 이산적 시간 이벤트들일 수 있다. 이러한 인코딩의 몇 개의 예시적인 실시형태들은, 2011년 6월 2일 출원되고 공동 소유이며 공동 계류 중이고 명칭이 "APPARATUS AND METHODS FOR PULSE-CODE INVARIANT OBJECT RECOGNITION"인 미국 특허 출원 제 13/152,084호[클라이언트 참조번호 BRAIN.001A]와 2011년 6월 2일 출원되고 명칭이 "SENSORY INPUT PROCESSING APPARATUS AND METHODS"인 미국 특허 출원 제13/152,119[클라이언트 참조번호 BRAIN.003A]호에 기술되며, 상기 출원 각각은 인용에 의해 본원에 그 전체가 포함된다.
통상적인 인공 스파이킹 뉴럴 네트워크들, 이를 테면 도 1의 예에 도시된 네트워크(100)는 생물학적 뉴럴 네트워크들의 뉴런들에 대응할 수 있는 복수의 유닛들(또는 노드들)(102)을 포함할 수 있다. 임의의 주어진 유닛(102)은, 통신 채널들 또는 시냅틱 접속부들로도 지칭되는 연결부들(104)을 통해 입력을 수신할 수 있다. 임의의 주어진 유닛(102)은 또한, 통신 채널들, 또는 시냅틱 접속부들로도 지칭되는 접속부들(112)을 통해 다른 유닛들로 접속될 수 있다. 예를 들어 접속부들(104)을 경유하여 임의의 주어진 유닛에 입력들을 제공하는 유닛들(예를 들어, 도 1의 유닛들(106))은 프리-시냅틱(pre-synaptic) 유닛들로도 흔히 지칭되는 한편, 입력들을 수신하는 유닛(예를 들어, 도 1의 유닛들(102))은 포스트-시냅틱(post-synaptic) 유닛으로 지칭된다. 더욱이, 하나의 유닛 층(예를 들어, 도 1의 유닛들(102))의 포스트-시냅틱 유닛은 유닛들의 후속하는 상부층(미도시)에 대해 프리-시냅틱 유닛으로서 동작할 수 있다.
접속들의 개별적인 접속(도 1의 104, 112)에는 특히 접속 효능(efficacy)이 할당될 수 있다 (이것은 일반적으로, 포스트-시냅틱 뉴런의 파이어링(firing)에 대한 프리-시냅틱 스파이크의 영향의 확률 및/또는 크기를 지칭할 수 있고, 예를 들어, 파라미터: 시냅틱 가중치를 포함할 수 있고, 시냅틱 가중치에 의해 포스트 시냅틱 유닛의 하나 또는 그보다 많은 상태 변수들이 변경된다). 펄스-코드 네트워크(예를 들어, 네트워크(100))의 동작 동안, 시냅틱 가중치들은 통상적으로, 다른 것들 중에서도 네트워크 학습을 구현하기 위해, STDP(spike-timing dependent plasticity)로 지칭되는 것을 이용하여 조정될 수 있다.
하나의 이러한 적응 메커니즘은 도 2-3에 대해 예시된다. 도 2의 트레이스들(200, 210)은, 각각, 프리-시냅틱 입력 스파이크 트레인(예를 들어, 도 1의 접속(104_1)을 통해 전달됨) 및 포스트 시냅틱 출력 스파이크 트레인(예를 들어, 도 1의 뉴런(102_1)에 의해 생성됨)을 도시한다.
(가중치들 w와 같은) 접속들(104)의 특성들은 통상적으로, 프리-시냅틱 입력(예를 들어, 도 2의 펄스들(202, 204, 206, 208))과 포스트-시냅틱 출력 펄스들(예를 들어, 도 2의 펄스들(214, 216, 218)) 사이의 상대적 타이밍에 기초하여 조정될 수 있다. 하나의 통상적인 STDP 가중치 적응 규칙이 도 3에 예시되며, 여기서 규칙(300)은 시냅틱 가중치 변화 Δw를, 포스트-시냅틱 출력 생성 시간과 프리-시냅틱 입력의 도달 사이의 시간차의 함수
Figure pct00001
로서 도시한다. 몇몇 구현들에서, 포스트-시냅틱 응답의 생성 이전에 프리-시냅틱 입력을 전달하는 시냅틱 접속들(예를 들어, 도 1의 접속들(104))은 증강될 수 있는 한편(도 3의 커브(304)와 관련하여 △w>0으로 나타내어진 바와 같음), 포스트-시냅틱 응답의 생성에 후속하여 프리-시냅틱 입력을 전달하는 시냅틱 접속들(예를 들어, 도 1의 접속들(104))은 억제될 수 있다. 예시의 방식으로, 도 2의 포스트-시냅틱 펄스(208)가 생성되는 경우: (i) 프리-시냅틱 입력(214)과 연관된 접속은 출력 펄스에 선행하고(224로 표기된 라인으로 표시됨), 증강될 수 있고(도 3에서 Δw>0이고 가중치가 증가됨); (ii) 다음의 프리-시냅틱 입력(216, 218)과 연관된 접속들은 억제될 수 있다.
스파이킹 뉴런 모델들
스파이킹 뉴런 모델들에 대한 일반화된 역학 방정식들은, 종종 다음과 같이, 입력의 중첩, 입력 전류와 뉴럴 상태 변수들 사이의 상호작용 및 스파이크 이후 리셋된 뉴런으로 표현될 수 있고:
Figure pct00002
(식 1)
여기서,
Figure pct00003
는 (예를 들어, 멤브레인 전압을 포함하는) 내부 상태 변수들의 벡터이고;
Iext는 뉴런으로의 외부 입력이고;
V는 상태 변수들의 진화를 정의하는 함수이고;
G는 (예를 들어, 포스트시냅틱 전위들을 모델링하기 위한) 입력 전류와 상태 변수들 사이의 상호작용을 설명하고; 그리고
R은 tout에서 출력이 스파이크한 후 상태 변수들을 리셋하는 것을 설명한다.
예를 들어, IF 모델의 경우, 상태 벡터 및 상태 모델은 다음과 같이 표현될 수 있다:
Figure pct00004
(식 2)
여기서, C는 멤브레인 상수이고, ures는, 출력 스파이크 이후 전압이 설정되는 값(리셋 값)이다. 따라서, 식 1은:
Figure pct00005
(식 3)
이 된다.
Izhikevich E.M., 2003에 의해 설명되는 간단한 뉴런 모델의 경우, 식 1은:
Figure pct00006
Figure pct00007
(식 4)
으로 표현될 수 있고, 여기서
Figure pct00008
(식 5)
이며, a, b, c, d는 모델의 파라미터들이다.
스파이킹 뉴럴 네트워크들에서 스파이크-시간 학습을 위한 몇몇 알고리즘들(특히, 강화 학습)은 통상적으로, 예를 들어, 앞서 통합된, 발명의 명칭이 "APPARATUS AND METHODS FOR REINFORCEMENT LEARNING IN ARTIFICIAL SPIKING NEURAL NETWORKS"이고, 2012년 6월 5일에 출원되고, 본원과 공동 계류중이고 공동 소유이며 미국 특허 출원 제 13/489,280호 [클라이언트 참조번호 BC201204A]에서 설명된 하기 일반식
Figure pct00009
(식 6)
을 이용하여 표현되고, 여기서
Figure pct00010
는 프리-시냅틱 뉴런 i와 포스트-시냅틱 뉴런 j 사이의 시냅틱 접속의 적응(학습) 파라미터이고;
Figure pct00011
는, 학습 레이트로 지칭되는 파라미터이고,
Figure pct00012
는 상수 파라미터일 수 있거나 또는 몇몇 다른 시스템 파라미터들의 함수일 수 있고;
F(t)는 성능 함수이고; 그리고
Figure pct00013
는, 프리-시냅틱과 포스트-시냅틱 액티비티 사이의 관계들을 특성화하도록 구성되는 적격성 트레이스이다.
배경으로서, 예시적인 적격성 트레이스는, 상태의 방문 또는 동작을 취하는 것과 같은 이벤트의 발생의 임시 기록 또는 프리-시냅틱 입력의 수신을 포함할 수 있다. 트레이스는, 이벤트(예를 들어, 시냅틱 접속, 프리- 및 포스트-시냅틱 뉴런 ID들)와 연관된 파라미터들을, 진행중인 학습 변화들에 대해 적격인 것으로 마킹한다. 일 접근법에서, 보상 신호가 발생하는 경우, 오직 적격인 상태들 또는 동작들이 에러에 대해 '할당된 크레딧'이거나 또는 '책임을 질' 수 있다. 따라서, 적격성 트레이스들은 이벤트들과 트레이닝 정보 사이의 갭을 브릿지하는 것을 보조한다.
몇몇 접근법들에서, 예를 들어, 앞서 통합된, 발명의 명칭이 "APPARATUS AND METHODS FOR REINFORCEMENT LEARNING IN ARTIFICIAL SPIKING NEURAL NETWORKS"이고, 2012년 6월 5일에 출원되고, 본원과 공동 계류중이고 공동 소유이며 미국 특허 출원 일련번호 제 13/489,280호 [클라이언트 참조번호 BC201204A]에서 설명된 바와 같이 상기 참조 출원은, 상태 벡터
Figure pct00014
로 특성화된 선형 동적 프로세스에 의한 뉴런의 시냅스들을 설명할 수 있고:
Figure pct00015
(식 7)
여기서,
A(t)는 뉴런의 상태 q, 출력 스파이크 시간 tout, 및/또는 시간에 의존하는 안정된 행렬이고;
Figure pct00016
는 입력 스파이크 트레인을 설명하는 항이고;
Figure pct00017
는 개별적인 시냅스들 및 그에 대한 프리시냅틱 스파이크들의 효과를 특성화하는 벡터 계수이고; 그리고
Rs(t)는 tout에서 출력 스파이크들 이후 시냅스 상태 벡터
Figure pct00018
를 리셋하는 것을 설명한다.
시냅틱 상태 변수는, 뉴런 파이어링 시간들에 의존하여 리셋될 수 있다. 시냅틱 상태는 단기 및 장기 가소성과 같은 상이한 뉴런 메커니즘들에서 컴포넌트로서 이용될 수 있다.
예를 들어, 앞서 통합된, 발명의 명칭이 "APPARATUS AND METHODS FOR GENERALIZED STATE-DEPENDENT LEARNING IN SPIKING NEURON NETWORKS"인 미국 특허 출원 제 13/560,902호 [대리인 열람번호 012672-0410044호, 클라이언트 참조번호 BC201212A]에 상세히 설명된 바와 같이, 장기 가소성 학습 규칙들의 넓은 스펙트럼에 대해 식 6의 적격성 트레이스들
Figure pct00019
는:
Figure pct00020
(식 8)
로서 표현될 수 있고, 여기서 τ는 시상수이고,
Q(t)는 개별적인 시냅스들에 대해 동일한 뉴런의 상태 q의 함수이고,
Figure pct00021
는 시냅스 상태 벡터
Figure pct00022
의 k번째 엘리먼트이다.
스파이킹 뉴런 시뮬레이션들에서, 식 7 및 식 8은 통상적으로 오일러 적분 규칙(Euler integration rule)과 같은 수치적 적분 기술들을 이용하여 풀릴 수 있고:
Figure pct00023
, 및 (식 9)
Figure pct00024
(식 10)
여기서
Figure pct00025
의 경우
Figure pct00026
; 및 그렇지 않으면 0이고,
Figure pct00027
는 업데이트 시간 단계이다.
몇몇 구현들에서, 포스트-시냅틱 스파이크 시냅스 상태 트레이스들은, 포스트-시냅틱 스파이크들의 생성 시 리셋 조건에 영향을 받을 수 있다. 하나 또는 그보다 많은 구현들에서, 리셋은 예를 들어, 식 10에 따라서 상태 트레이스 값 ei를 결정함으로써 구현될 수 있다. 일부 구현들에서, (리셋 전에 취해진) 상태 파라미터 Si의 값은 ei를 다음과 같이 결정하기 위해서 식 10에 사용될 수 있다.
Figure pct00028
(식 11)
여기서 Rs는 리셋 함수이다.
예시로서, 개별 업데이트 시간 단계들에서 개별 시냅스들에 대해 수행될 다수의 계산들이 C개이면, NS개 시냅스들로 인터페이싱된 뉴런의 경우, (시간 단계 당)계산 총 수는 NC=C×NS가 된다. 적절하게 컴플렉스 뉴럴 네트워크 시뮬레이션들을 수행하기 위해서, 뉴런 NS 당 시냅스들의 수는 통상적으로, 100 내지 100,000개로 구성될 수 있다. 따라서, 1ms 간격들(본 기술에서 빈번하게 사용된 업데이트 레이트)에서 뉴럴 상태를 평가하기 위해서, 시간 단계 단위로 뉴런 당 요구되는 계산들의 수는 시간 단계당 뉴런당 NC=C×[100-100,000]일 수 있다. 이러한 높은 계산 부하는 뉴로모픽(neuromorphic) 하드웨어의 계산력에 요구 조건들을 둘 수 있다. 더욱이, 계산 부하는 시냅스들의 수에 따라 크기조정을 하므로, 네트워크 정밀도에 부정적인 영향을 미칠 수 있는 네트워크 업데이트들의 빈도 및/또는 뉴로모픽 프로세싱에 의해 동작될 수 있는 뉴런들의 수를 개별적으로 제한한다.
그에 따라, 고밀도 시냅스들에 대한 매체를 포함하는 스파이킹 뉴럴 네트워크에서 시냅틱 업데이트들을 구현하기 위한 더욱 효율적인 방법 및 장치에 대한 현저한 요구가 존재할 수 있다.
본 개시는, 특히, 다양한 학습 규칙 조합들을 동시에 처리하도록 구성된 일반화된 확률적 학습을 구현하기 위한 장치 및 방법들을 제공함으로써 앞의 요구들을 만족시킨다.
본 개시의 일 양상은 스파이킹 뉴런의 복수의 접속들의 학습 파라미터들의 업데이트를 구현하는 것과 연관된 시스템, 장치, 방법 및/또는 컴퓨터-판독가능 저장 매체에 관한 것이다. 일부 구현들에서, 방법은 시간 간격들로 업데이트되도록 구성된 프로세스에 따라 뉴런을 동작시키는 방법을 포함한다. 이 방법은 복수의 접속들을 통해 뉴런에 제공된 하나 또는 그보다 많은 입력들의 시간 이력을 저장하는 단계를 포함할 수 있다. 주어진 입력의 시간 이력은 그 주어진 입력이 발생한 시각을 기술하는 것일 수 있다. 복수의 시간 간격들을 포함하는 시간 윈도우 내에 시간 이력의 저장이 수행될 수 있다. 방법은 업데이트가 수행될지 여부를 전달하는 표시(indication)를 수신하는 것을 포함할 수 있다. 이 방법은, 이 표시에 응답하여, 복수의 IDCC(input-dependent connection change components)를 결정하는 단계를 포함할 수 있다. 복수의 IDCC 컴포넌트들의 개별적인 IDCC 컴포넌트들은 복수의 시간 간격들의 개별적인 시간 간격들과 연관될 수 있다. 복수의 IDCC 컴포넌트들은 복수의 시간 간격들의 개별적인 시간 간격들에 대응하는 하나 또는 그보다 많은 입력들의 개별적인 입력들의 시기와 표시의 시기에 기초할 수 있다. 방법은 학습 파라미터들을 조정함으로써 업데이트를 실시하는 단계를 포함할 수 있다. 복수의 IDCC 컴포넌트들에 기초하여 조정이 결정될 수 있다.
일부 구현들에서, 업데이트는 추가로 복수의 적격성 트레이스들의 결정을 포함할 수 있다. 복수의 적격성 트레이스들의 개별적인 적격성 트레이스들은 복수의 접속들 중 주어진 접속과 연관될 수 있고 복수의 접속들 중 주어진 접속에 대한 하나 또는 그보다 많은 입력들 중 적어도 하나의 발생의 임시 기록을 포함한다. 복수의 적격성 트레이스들의 결정은 복수의 IDCC 컴포넌트들의 개별적인 IDCC 컴포넌트들의 적분에 기초하여 실시될 수 있다.
본 개시의 다른 양상은 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 운영하는 것과 연관된 시스템, 장치, 방법 및/또는 컴퓨터-판독가능한 저장 매체와 관련된다. 방법은 복수의 데이터 인터페이스들을 통해 제공될 수 있는 하나 또는 그보다 많은 데이터 항목들의 시간 기록을 저장하는 단계를 포함한다. 주어진 데이터 항목의 시간 기록은 주어진 데이터 항목이 발생했던 시각을 기술할 수 있다. 방법은, 업데이트가 수행될지 여부를 전달하는 표시에 기초하여, 복수의 파라미터들을 업데이트하는 단계를 포함할 수 있다. 복수의 파라미터들은 복수의 데이터 인터페이스들과 연관될 수 있다. 업데이트하는 단계는 (1)복수의 파라미터들의 이전 값들을 판독하는 것, (2)복수의 파라미터들의 업데이트된 값들을 결정하는 것, 또는 (3)복수의 파라미터들의 업데이트된 값들을 저장하는 것 중 하나 또는 그보다 많은 것을 포함할 수 있다. 업데이트된 값들을 결정하는 단계는 시간 기록의 적어도 일부에 기초할 수 있다. 그 부분은 표시 전의 시간 간격을 커버할 수 있다. 업데이트된 값들을 결정하는 단계는 하나 또는 그보다 많은 데이터 항목들의 수에 비례하는 동작들의 수를 포함할 수 있다. 동작들의 수는 복수의 데이터 인터페이스들의 수와는 독립적일 수 있다.
일부 구현들에서, 방법은 인터페이스 동적 프로세스에 따라서 복수의 데이터 인터페이스들의 개별적인 데이터 인터페이스들을 동작시키는 단계를 포함할 수 있다. 동적 프로세스는 시간 기간들에 업데이트될 수 있는 동적 상태를 특징으로 할 수 있다. 동적 프로세스는 감쇠 간격을 특징으로 할 수 있다. 시간 간격은 적어도 감쇠 시간 윈도우의 기간을 커버하도록 구성될 수 있다. 업데이트된 값들을 결정하는 단계는 표시 및 시간 기록에 기초하여 복수의 인터페이스 변경 컴포넌트들을 획득하는 단계를 포함할 수 있다. 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은, 시간 간격 윈도우 내에서 발생하는 하나 또는 그보다 많은 데이터 항목들로 인해, 표시와 연관된 시간 인스턴스에서 실시되는 복수의 파라미터들의 개별적인 파라미터들의 변경을 특징으로 하도록 구성될 수 있다.
일부 구현들에서, 컴퓨터화된 네트워크는 스파이킹 뉴런 네트워크(SNN)를 포함할 수 있다. 복수의 데이터 인터페이스들의 개별적인 데이터 인터페이스들은 SNN의 시냅틱 접속들을 포함할 수 있다. 복수의 파라미터들의 개별적인 파라미터들은 각각의 시냅틱 접속의 시냅틱 가중치를 포함할 수 있다. 가중치는 시간 간격 내에서 하나 또는 그보다 많은 데이터 항목들의 데이터 항목의 발생에 적어도 기초할 수 있다. 감쇠 시간 윈도우는 지수함수적 감쇠 윈도우의 지속기간 내에서 약 2.7배의 가중치 감소를 특징으로 하는 지수함수적 감쇠 윈도우를 포함할 수 있다.
일부 구현들에서, SNN은 외부 신호를 특징으로 하는 학습 프로세스를 구현할 수 있다. 학습 프로세스는 결과를 생성하도록 구성될 수 있다. 업데이트는 결과가 생성되는 것을 보조할 수 있다. 표시는 외부 신호의 적어도 일 부분을 포함할 수 있다.
일부 구현들에서, 복수의 파라미터들의 개별적인 파라미터들은 복수의 데이터 인터페이스들의 개별적인 데이터 인터페이스들과 연관된 접속 지연을 포함할 수 있다. 복수의 인터페이스 변경 컴포넌트들은 복수의 데이터 인터페이스들의 업데이트를 제공할 수 있다.
일부 구현들에서, 시간 기간은 동일한 지속기간의 규칙적인 기간을 포함할 수 있다. 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은 표시 시간 인스턴스에 앞서 정수의 지속기간들에서 발생하는 각각의 시간 기간과 연관될 수 있다. 하나 또는 그보다 많은 인터페이스 변경 컴포넌트들이 (ⅰ)각각의 시간 기간과 (ⅱ)표시 시간 인스턴스 간의 차에 기초하여 결정될 수 있다.
일부 구현들에서, 하나 또는 그보다 많은 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은 각각의 시간 기간 이내에 발생하는 하나 또는 그보다 많은 데이터 항목들 중 적어도 하나의 데이터 항목과 연관될 수 있다.
일부 구현들에서, 표시는 (ⅰ)하나 또는 그보다 많은 데이터 항목들 중 일 데이터 항목의 발생 또는 (ⅱ) 현재 업데이트 시간 기간의 만료를 나타내는 타이머 이벤트 중 하나 또는 둘 모두에 기초할 수 있다.
본 개시의 다른 양상은 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위한 계산 부하를 감소시키는 것과 연관된 시스템, 장치, 방법 및/또는 컴퓨터-판독가능 저장 매체와 관련된다. 시스템은 하나 또는 그보다 많은 동작들을 수행할 하나 또는 그보다 많은 컴퓨터 프로그램 모듈들을 실행하도록 구성된 하나 또는 그보다 많은 프로세서들을 포함할 수 있다. 하나 또는 그보다 많은 동작들은 시간 간격들로 업데이트될 수 있는 노드 동적 프로세스에 따라 노드를 동작시키는 것을 포함할 수 있다. 하나 또는 그보다 많은 동작들은, 표시에 기초하여, 업데이트가 수행될지 여부를 전달하는 것을 포함할 수 있다. 하나 또는 그보다 많은 동작들은 복수의 통신 인터페이스들과 연관된 복수의 파라미터들의 업데이트를 실시함으로써 계산 부하를 감소시키는 것을 포함할 수 있다. 업데이트는 표시 전에 복수의 통신 인터페이스들 중 적어도 하나를 통해 통신되는 하나 또는 그보다 많은 데이터 항목들에 기초할 수 있다. 복수의 파라미터들의 업데이트는 복수의 통신 인터페이스들의 수와는 무관한 복수의 동작들을 포함할 수 있다.
일부 구현들에서, 표시는 스파이킹 뉴런에 의해 생성되는 출력에 기초할 수 있다.
일부 구현들에서, 복수의 데이터 인터페이스들의 개별적인 데이터 인터페이스들은 안정된 평형을 특징으로 하는 선형 인터페이스 동적 프로세스에 따라 동작하도록 구성될 수 있고, 안정된 평형은 선형 인터페이스 동적 프로세스와 연관된 감쇠 시간 스케일을 갖는다.
일부 구현들에서, 복수의 파라미터들의 개별적인 파라미터들은 가중치를 포함할 수 있다. 가중치는, 감쇠 시간 스케일 내에서 하나 또는 그보다 많은 데이터 항목들 중 일 데이터 항목의 발생에 기초하여 노드의 상태를 변경시키도록 구성될 수 있다. 업데이트는, (1) 선형 인터페이스 동적 프로세스와 연관된 인터페이스 상태를 복수의 정형화된(stereotypical) 컴포넌트들로 분해하는 것; (2) 하나 또는 그보다 많은 데이터 항목들의 발생과 표시의 발생 사이의 시간차에 기초하여 복수의 정형화된 컴포넌트들의 개별적인 정형화된 컴포넌트들을 결정하는 것; 또는 (3) 복수의 정형화된 컴포넌트들의 선형 조합 ―선형 조합은 하나 또는 그보다 많은 데이터 항목들의 발생 시간에 대응하는 복수의 정형화된 컴포넌트들의 개별적인 정형화된 컴포넌트들의 값에 기초하여 결정되고, 값은 감쇠 시간 스케일 및 시간 차에 따라 디스카운트됨―중 하나 또는 그보다 많은 것에 기초할 수 있다.
일부 구현들에서, 하나 또는 그보다 많은 컴퓨터 프로그램 모듈들의 개별적인 컴퓨터 프로그램 모듈들의 실행은, 하나 또는 그보다 많은 프로세서들로 하여금, 하나 또는 그보다 많은 데이터 항목들이 복수의 통신 인터페이스들을 통해 시간 윈도우 내에서 제공되었던 시기를 전달하는 시간 이력을 저장하게 할 수 있고, 시간 윈도우는 감쇠 시간 스케일과 동일하거나 더 길 수 있다.
일부 구현들에서, 컴포넌트들의 수는 2 내지 40 (2와 40을 포함함)에서 선택될 수 있다. 복수의 통신 인터페이스들의 수는 41 내지 100000 (41과 100000을 포함함)에서 선택될 수 있다.
일부 구현들에서, 복수의 파라미터들의 업데이트는 표시 및 시간 이력에 기초하여 복수의 인터페이스 변경 컴포넌트들을 결정하는 단계를 포함할 수 있다. 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은, 표시 시간 인스턴스 이전에 감쇠 윈도우 내에서 발생한 하나 또는 그보다 많은 데이터 항목들에 응답하여 표시와 연관된 표시 시간 인스턴스에서 실시되는 상태의 변경을 특징으로 하도록 구성될 수 있다.
일부 구현들에서, 선형 인터페이스 동적 프로세스는 시간 간격으로 주기적으로 업데이트되도록 구성될 수 있다. 감쇠 윈도우는 시간 간격들 중 둘 또는 그보다 많은 것을 포함할 수 있다. 복수의 인터페이스 변경 컴포넌트들을 결정하는 것은 룩-업 테이블을 통해 실시될 수 있다. 룩-업 테이블은 시간 간격들 중 둘 또는 그보다 많은 것과 연관된 둘 또는 그보다 많은 엔트리들을 포함할 수 있다. 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은 업데이트들의 개개의 것들에 대한 룩-업 테이블의 결정을 경감시키기 위해 시간 간격의 제 1 발생에 우선하여 룩-업 테이블의 결정을 가능하기 하기 위해 노드의 상태와는 무관하게 구성될 수 있다.
일부 구현들에서, 선형 인터페이스 동적 프로세스는 시간 간격에 주기적으로 업데이트되도록 구성될 수 있다. 감쇠 윈도우는 둘 또는 그보다 많은 시간 간격들을 포함할 수 있다. 복수의 인터페이스 변경 컴포넌트들의 결정은 시간 간격들 중 둘 또는 그보다 많은 것과 연관된 둘 또는 그보다 많은 엔트리들을 포함하는 룩-업 테이블을 통해 실시될 수 있다. 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은 노드의 상태에 기초하여 구성될 수 있다. 룩-업 테이블은 업데이트들 중 둘 또는 그보다 많은 것에 대해 결정될 수 있다.
일부 구현들에서, 업데이트는 온-디맨드 업데이트를 포함할 수 있다. 표시는 이력을 저장하는 것과 연관된 버퍼 이벤트를 포함할 수 있다.
일부 구현들에서, 노드 상태 업데이트는 규칙적인 시간 간격에서 실시되는 주기적 업데이트를 특징으로 할 수 있다. 표시는 규칙적인 시간 간격과 연관된 타이머 이벤트를 포함할 수 있다.
일부 구현들에서, 노드 상태 업데이트는 규칙적인 시간 간격에서 실시되는 주기적 업데이트를 포함할 수 있다. 표시는 복수의 통신 인터페이스들 중 적어도 하나를 통해 통신된 하나 또는 그보다 많은 데이터 항목들 중 데이터 항목에 기초될 수 있다.
일부 구현들에서, 업데이트는, 다음 규칙적인 시간 간격이 하나 또는 그보다 많은 데이터 항목들 중 데이터 항목의 발생에 후속하여 발생될 때까지 지연될 수 있다.
일부 구현들에서, 노드 동적 프로세스는 결과를 발생시키도록 구성된 강화 학습 프로세스를 포함할 수 있다. 복수의 파라미터들의 업데이트는 결과가 발생되는 것을 보조할 수 있다. 표시는 노드 출력 대 결과의 평가에 기초하여 생성된 강화 스파이크를 포함할 수 있다.
본 개시의 이러한 목적들, 특징들 및 특성들 및 다른 목적들, 특징들 및 특성들뿐만 아니라 구조의 관련 엘리먼트들의 동작 방법 및 기능 그리고 제조 부품들 및 제조 경제성들의 조합은 첨부 도면들을 참고하여 다음의 설명과 첨부된 청구범위(이 모두는 본 명세서의 일부를 형성함)를 고려하면 더욱 명백해질 것이며, 동일한 참조 부호는 다양한 도면들에서 대응하는 부분들을 나타낸다. 그러나, 도면들은 단지 예시 및 설명을 위한 것이고 본 개시의 한계를 정의하는 것으로 의도되지 않는다는 것을 명시적으로 이해한다. 명세서와 청구범위에서 사용된 바와 같은 단수 표현은 문맥상 달리 명백히 표시되어있지 않는 한 복수의 지시대상들을 포함한다.
도 1은 종래 기술에 따른, 인공 스파이킹 뉴럴 네트워크를 도시하는 블록도이다.
도 2는 종래 기술에 따른, 도 1의 스파이킹 네트워크에서 스파이크 타이밍을 도시하는 그래피컬 도시이다.
도 3은 종래 기술에 따른, 도 1의 스파이킹 네트워크에서 스파이크 시간 의존성 가소성 스파이크 타이밍을 도시하는 플롯이다.
도 4는 하나 또는 그보다 많은 구현들에 따른, 다수의 학습 규칙들을 실시하도록 구성된 스파이킹 뉴럴 네트워크를 도시하는 블록도이다.
도 5는 하나 또는 그보다 많은 구현들에 따른, 도 4의 뉴럴 네트워크의 시냅틱 업데이트들과 연관된 계산적 트랜잭션들을 도시하는 그래피컬 도시이다.
도 6은 하나 또는 그보다 많은 구현들에 따른, 도 5의 효율적인 시냅틱 업데이트들과 연관된 이벤트-의존성 접속 변경 컴포넌트 분해 계산들을 도시하는 플롯이다.
도 7은 하나 또는 그보다 많은 구현들에 따른, 도 5의 효율적인 시냅틱 업데이트들의 업데이트 이벤트들 및 이벤트-의존성 접속 변경 컴포넌트 분해의 상관관계를 도시하는 플롯이다.
도 8은 하나 또는 그보다 많은 구현들에 따른, 도 6의 효율적인 시냅틱 업데이트들의 이벤트-의존성 접속 변경 컴포넌트 분해의 온-디맨드 및 주기적 계산을 도시하는 그래피컬 도시이다.
도 9a는 하나 또는 그보다 많은 구현들에 따른, 도 4의 뉴럴 네트워크와 함께 사용하기 위한, 시불변 접속 역학을 포함하는 효율적인 업데이트 방법을 도시하는 논리 흐름도이다.
도 9b는 하나 또는 그보다 많은 구현들에 따른, 도 4의 네트워크 접속과 함께 사용하기 위한, 효율적인 업데이트 방법을 도시하는 논리 흐름도이다.
도 9c는 하나 또는 그보다 많은 구현들에 따른, 도 4의 뉴럴 네트워크와 함께 사용하기 위한, 시냅틱 가중치들의 효율적인 업데이트를 도시하는 논리 흐름도이다.
도 9d는 하나 또는 그보다 많은 구현들에 따른, 도 4의 뉴럴 네트워크와 함께 사용하기 위한 주기적 접속 업데이트 방법을 도시하는 논리 흐름도이다.
도 9e는 하나 또는 그보다 많은 구현들에 따른, 도 9a 내지 도 9d의 효율적인 접속 업데이트들과 함께 사용하기 위한 업데이트 선택 방법을 도시하는 논리 흐름도이다.
도 10은 하나 또는 그보다 많은 구현들에 따른, 효율적인 접속 가소성 업데이트 메커니즘을 구현하도록 구성된 감각적 프로세싱 장치를 도시하는 블록도이다.
도 11a는 하나 또는 그보다 많은 구현들에 따른, 스파이킹 네트워크에서 효율적인 접속 가소성 업데이트 메커니즘에 유용한 컴퓨터화된 시스템을 도시하는 블록도이다.
도 11b는 하나 또는 그보다 많은 구현들에 따른, 스파이킹 네트워크에서 효율적인 접속 가소성 업데이트 메커니즘에 유용한 뉴로모픽(neuromorphic) 컴퓨터화된 시스템을 도시하는 블록도이다.
도 11c는 하나 또는 그보다 많은 구현들에 따른, 스파이킹 네트워크에서 효율적인 접속 가소성 업데이트 메커니즘에 유용한 계층식 뉴로모픽 컴퓨터화된 시스템 아키텍처를 도시하는 블록도이다.
도 11d는 하나 또는 그보다 많은 구현들에 따른, 스파이킹 네트워크에서 효율적인 접속 가소성 업데이트 메커니즘에 유용한 셀-타입 뉴로모픽 컴퓨터화된 시스템 아키텍처를 도시하는 블록도이다.
도 12는 하나 또는 그보다 많은 구현들에 따라 계산된 이벤트-의존성 접속 변경 컴포넌트들을 도시하는 플롯이다.
도 13a 내지 도 13d는 하나 또는 그보다 많은 구현들에 따른, 스코어 함수를 자동으로 생성하기 위해, Matlab® 심볼 계산 엔진에 의해 프로세싱하도록 구성된 스파이킹 뉴런 역학 및 확률론적 특성들의 텍스트 설명을 기술하는 프로그램 리스팅이다.
본원에 개시된 모든 도면들은
Figure pct00029
저작권 2013 브레인사(Brain Corporation)가 모든 권리들을 갖는다.
본 개시의 예시적인 구현들은 이제 도면들을 참고로 하여 상세히 설명될 것이며, 당업자가 본 개시를 실시할 수 있도록 예시적인 실시예들로서 제공된다. 특히, 아래의 도면들과 실시예들은 본 개시의 범위를 하나의 구현으로 제한하려는 것으로 의도하지 않으며, 도시된 또는 예시된 엘리먼트들의 일부 또는 전부와 상호교환하거나 조합함으로써 다른 구현들이 가능하다. 모든 경우에 편리하도록, 동일한 참조 부호는 도면들 전체에 걸쳐서 동일하거나 유사한 부분들을 나타내는 데에 사용될 것이다.
이러한 구현들의 특정 엘리먼트들이 공지된 컴포넌트들을 이용하여 부분적으로 또는 전체적으로 구현될 수 있으며, 본 개시의 이해에 필요한 이러한 공지된 컴포넌트들의 단지 이러한 부분들이 설명될 것이고, 이러한 공지된 컴포넌트들의 다른 부분들의 상세한 설명은 본 개시를 불명료하게 하지 않게 하기 위해서 생략할 것이다.
본 명세서에서, 단수 컴포넌트를 나타내는 구현은 제한하는 것으로 여겨지지 않아야 한다; 오히려, 본 개시는, 본원에 그와 다르게 명시적으로 언급되지 않는 한, 복수의 동일한 컴포넌트를 포함하는 다른 구현들을 포함하도록 의도되고, 그 역의 경우도 성립한다.
또한, 본 개시는, 예시로서 본원에 지칭된 컴포넌트들에 대한 제시된 그리고 추후에 알려지는 등가물들을 포함한다.
본원에 사용된 바와 같이, 용어 "버스"는 통상적으로, 시냅틱 및 뉴런 메모리에 액세스하는 데에 사용되는 모든 타입들의 상호접속 또는 통신 아키텍처를 나타내도록 되어 있다. "버스"는 광학, 무선, 적외선 및/또는 다른 타입의 통신 매체일 수 있다. 버스의 정확한 토폴로지는 예를 들어, 표준 "버스", 계층적 버스, 네트워크-온-칩, 어드레스-이벤트-프리젠테이션(AER) 접속, 및/또는 예를 들어, 펄스-기반 시스템에서 상이한 메모리들에 액세싱하기 위해 사용된 다른 타입의 통신 토폴로지일 수 있다.
본원에 사용된 것으로서, 용어 "컴퓨터", "컴퓨팅 디바이스", 및 "컴퓨터화된 디바이스"는 개인용 컴퓨터(PC) 및/또는 미니 컴퓨터(예를 들어, 데스크톱, 랩톱, 및/ 또는 다른 PC들), 메인 프레임 컴퓨터, 워크 스테이션, 서버, 개인 휴대 정보 단말기(PDA), 휴대용 컴퓨터, 내장형 컴퓨터, 프로그램가능한 로직 디바이스들, 개인용 커뮤니케이터, 태블릿 컴퓨터, 휴대용 내비게이션 보조기, J2ME 장착 디바이스들, 셀룰러 전화들, 스마트 폰들, 개인용 통합 통신 및/또는 엔터테인먼트 디바이스들 및/또는 명령들의 세트를 실행하고 인입 데이터 신호를 처리할 수 있는 임의의 다른 디바이스 중 하나 또는 그보다 많은 것을 포함할 수 있다.
본원에 사용된 것으로서, 용어 "컴퓨터 프로그램" 또는 "소프트웨어"는 기능을 수행하는 인간 및/또는 머신 인지가능 단계들의 임의의 시퀀스를 포함할 수 있다. 이러한 프로그램은 C/C++, C#, 포트란, COBOL, MATLAB™, PASCAL, 파이썬, 어셈블리 언어, 마크업 언어들(예, HTML, SGML, XML, VoXML), 객체 지향 환경(예를 들어, 코바(CORBA; Common Object Request Broker Architecture)), 자바(Java ™)(예를 들어, J2ME, Java Beans), 이진 런타임 환경(예를 들면, BREW), 및/또는 다른 프로그래밍 언어 및/또는 환경들 중 하나 또는 그보다 많은 것을 포함하는 프로그래밍 언어 및/또는 환경에서 렌더링될 수 있다.
본원에 사용된 것으로서, 용어 "접속", "링크", "전송 채널", "지연 라인", "무선"은 엔티티들 사이에서 정보를 교환할 수 있는 임의의 둘 또는 그보다 많은 엔티티들(물리적이든지 또는 논리적/가상적이든 간에) 간의 인과(causal) 링크를 포함할 수 있다.
본원에 사용된 것으로서, 용어 "메모리"는 디지털 데이터를 저장하도록 적응된 집적 회로 및/또는 다른 저장 디바이스를 포함할 수 있다. 제한이 아닌 예시로서, 메모리는 ROM, PROM, EEPROM, DRAM, 모바일 DRAM, SDRAM, DDR/2 SDRAM, EDO/FPMS, RLDRAM, SRAM, "플래시" 메모리(예를 들어, NAND/NOR), 멤리스터 메모리, PSRAM, 및/또는 다른 타입들의 메모리 중 하나 또는 그보다 많은 것을 포함할 수 있다.
본원에 사용된 것으로서, 용어 "집적 회로", "칩" 및 "IC"는 반도체 재료의 얇은 기판의 표면으로 트레이스 엘리먼트들의 패터닝된 디퓨전에 의해 제조된 전자 회로를 지칭하는 것으로 되어 있다. 제한이 아닌 예시로서, 집적 회로들은 필드 프로그래머블 게이트 어레이(예를 들어, FPGA)들, 프로그래머블 로직 디바이스 (PLD), 재구성가능한 컴퓨터 패브릭(RCF)들, 주문형 집적 회로(ASIC)들, 및/또는 다른 타입들의 집적 회로를 포함할 수 있다.
본원에 사용된 것으로서, 용어 "마이크로프로세서" 및 "디지털 프로세서"는 일반적으로 디지털 프로세싱 디바이스들을 포함하는 것을 의미한다. 제한이 아닌 예시로서, 디지털 프로세싱 디바이스들은 디지털 신호 프로세서(DSP)들, 축약 명령 세트 컴퓨터(RISC)들, 범용 (CISC) 프로세서들, 마이크로프로세서들, 게이트 어레이(예를 들어, 필드 프로그래머블 게이트 어레이(FPGA)들)들, PLD들, 재구성가능한 컴퓨터 패브릭(RCF)들, 어레이 프로세서들, 보안 마이크로프로세서들, 주문형 집적 회로(ASIC)들, 및/또는 다른 디지털 프로세싱 디바이스들 중 하나 또는 그보다 많은 것을 포함할 수 있다. 그러한 디지털 프로세서들은 단일 유니타리 IC 다이 상에 포함될 수 있거나, 다수의 컴포넌트들에 걸쳐 분산될 수 있다.
본원에 사용된 것으로서, 용어 "네트워크 인터페이스"는 컴포넌트, 네트워크, 및/또는 프로세스와의 임의의 신호, 데이터 및/또는 소프트웨어 인터페이스를 지칭한다. 비제한적인 예시로서, 네트워크 인터페이스는 파이어와이어(FireWire) (예를 들어, FW400, FW800 등), USB(예를 들어, USB2), 이더넷(예를 들어, 10/100, 10/100/1000(기가비트 이더넷), 10-Gig-E 등), MoCA, Coaxsys(예를 들어, TVnet ™), 무선 주파수 튜너(예를 들어, 인-밴드 또는 OOB, 케이블 모뎀 등), 와이파이(Wi-Fi)(802.11), 와이맥스(WiMAX)(802.16), PAN(예를 들어, 802.15), 셀룰러 (예를 들어, 3G, LTE/LTE-A/TD-LTE, GSM 등), IrDA 패밀리들 및/또는 다른 네트워크 인터페이스 중 하나 또는 그보다 많은 것을 포함할 수 있다.
본원에 사용된 것으로서, 용어 "노드", "뉴런" 및 "뉴럴 노드"는 모델에 따라 적응시킬 파라미터들을 가진 네트워크 유닛(예를 들어, 입력 신호들을 뉴런으로 제공하도록 구성된 스파이킹 뉴런 및 일 세트의 시냅스들)을 지칭하는 것을 의미하며, 이것으로 제한되지 않는다.
본원에 사용된 것으로서, 용어 "상태" 및 "노드 상태"는 일반적으로 노드 상태를 기술하도록 사용된 동적 변수들의 전체(또는 부분) 세트를 나타내는 것을 의미한다.
본원에 사용된 것으로서, 용어 "시냅틱 채널", "접속", "링크", "송신 채널" , "지연 라인" 및 "통신 채널"은 엔티티들 간에 정보를 교환하게 할 수 있는 임의의 둘 또는 그보다 많은 엔티티들(물리적(유선 또는 무선)이든지 또는 논리적/가상적이든 간에) 간의 링크를 포함하고, 정보 교환에 영향을 미치는 하나 또는 그보다 많은 변수들을 특징으로 할 수 있다.
본원에 사용된 것으로서, 용어 "와이파이(Wi-Fi)"는 IEEE-Std. 802.11, IEEE-Std.802.11의 변형, IEEE-Std.802.11 관련 표준(예를 들어, 802.11 a/b/g/n/s/v), 및/또는 다른 무선 표준들 중 하나 또는 그보다 많을 것을 포함한다.
본원에 사용된 것으로서, 용어 "무선"은 임의의 무선 신호, 데이터, 통신, 및/또는 다른 무선 인터페이스를 의미한다. 제한이 아닌 예시로서, 무선 인테페이스는 와이파이, 블루투스, 3G(3GPP/3GPP2), HSDPA/HSUPA, TDMA, CDMA(예를 들어, IS-95A, WCDMA 등), FHSS, DSSS, GSM, PAN/802.15, 와이맥스(802.16), 802.20, 협 대역/FDMA, OFDM, PCS/DCS, LTE/LTE-A/TD-LTE, 아날로그 셀룰러, CDPD, 위성 시스템, 밀리미터파 또는 마이크로파 시스템들, 음향, 적외선(즉, IrDA), 및/또는 다른 무선 인터페이스들 중 하나 또는 그보다 많은 것을 포함할 수 있다.
개관
본 개시는 다른 것들 중에서도, 특히 효율적인 시냅틱 업데이트들을 구현함으로써 학습 스파이킹 뉴런 네트워크들을 용이하게 하기 위한 컴퓨터화된 장치 및 방법들을 제공한다. 하나 또는 그보다 많은 구현들에서, 네트워크는 안정 균형을 특징으로 하는 선형 시냅틱 동적 프로세스를 포함할 수 있다. 네트워크 내의 뉴런들 및 시냅스들의 상태가 뉴런들로의/뉴런들로부터의 입력들 및 출력들에 기초하여 업데이트될 수 있다. 일부 구현들에서, 업데이트들은 규칙적인 시간 간격들 △t에서 구현될 수 있다. 하나 또는 그보다 많은 구현들에서, 업데이트들은 네트워크 액티비티(예를 들어, 뉴로널 출력 및/또는 입력)에 기초하여 온-디맨드로 구현되어 시냅틱 업데이트들과 연관된 계산 부하를 추가로 감소시킬 수 있다.
본 개시의 원리들에 따르면, 종래 기술의 시냅스 기반 단위로 실행되는 것과는 반대로, 뉴런 기반 단위로 실행되도록 다수의 시냅틱 업데이트들이 구성될 수 있다. 일부 구현들에 따른 누적 시냅틱 가소성 업데이트는 다수의 EDCC(event-dependent connection change) 컴포넌트들로 팩터링(factored)(분해)될 있다. EDCC 컴포넌트들은 시간 ti≤tupdate에서 발생하는 뉴로널 입력 스파이크(즉, 프리-시냅틱 뉴런으로부터 포스트-시냅틱 뉴런으로 시냅스에 의해 전송된 스파이크)로 인한 시냅스 가소성 변경을 기술하도록 구성될 수 있다. 시냅틱 업데이트들의 팩터링을 실시하기 위해서, 개별적인 업데이트 인스턴스들 tupdate(예를 들어, 주기적 및/또는 온-디맨드)에서, 둘 또는 그보다 많은 EDCC 컴포넌트들이 계산될 수 있으며, 개별 컴포넌트들은 하나의 앞의 네트워크 상태 업데이트 시간 간격 ti에 대응한다. 계산된 EDCC 컴포넌트들의 수는 (i)네트워크에 의해 사용된 가소성 규칙적인 감쇠(decay) 시간 스케일 및 (ⅱ)네트워크 업데이트 간격(△t)에 기초하여 구성될 수 있다. 예시로서, 가소성 감쇠 시간-스케일 T는 20ms이고 네트워크 상태가 1ms 간격들로 업데이트되는 경우, 개별 시냅틱 업데이트 이벤트들 시간 t에서, EDCC 컴포넌트들의 수 nT=T/△t(하나 또는 그보다 많은 구현들에서 nT=20)가 계산될 수 있고, 개별 컴포넌트들은 시간 ti=t-(i-1)×△t, i={1,...,nT}에서 발생하는 입력(프리-시냅틱) 스파이크로 인한 가소성 변경에 대응한다. nT EDCC 컴포넌트들은 뉴런과 연관된 모든 시냅스들에 대해 한번 계산될 수 있고, 업데이트 전에 시간 간격(t-T) 내에 입력 스파이크들의 발생 횟수들은 적절한 EDCC 컴포넌트를 참고하는데 사용될 수 있다는 것은 주목할 만하다.
일부 구현들에서, EDCC 컴포넌트들은 뉴로널 상태와 독립적이고, Si 어레이(EDCC 룩업 테이블(LUT))는 네트워크 동작 실행(시뮬레이션) 당 한번 계산될 수 있고 개별 시냅틱 업데이트들을 위해 사용될 수 있다.
일부 구현들에서, EDCC 컴포넌트들은, 동물 뉴럴 시스템에서 도파민 효과들을 시뮬레이트하기 위해서 외부 파라미터 Dp에 의존할 수 있다. 하나 또는 그보다 많은 구현들에서, 외부 파라미터 Dp는 네트워크 내 모든 뉴런들에 대해 공통 파라미터를 포함할 수 있다. 일부 구현들에서, 외부 파라미터 Dp는 개별 뉴런들에 대해 고유하게 구성될 수 있다. 하나 또는 그보다 많은 구현들에서, 개별 Si 컴포넌트들은 동일한 크기와 동일한 감쇠 스케일을 포함할 수 있다. 일부 구현들에서, 예를 들어, 시냅스 역학이 시간 의존성인 경우, Si 컴포넌트들은 시간-의존성 기여분을 포함하도록 구성될 수 있다. 일부 구현들에서, 감쇠 파라미터들은 일부 또는 모든 시냅스들에 대해 시변으로 구성될 수 있다. 일부 구현들에서, 시변 감쇠 파라미터들은 고유 가소성 메커니즘을 이용하여 구현될 수 있다.
스파이킹 뉴런 네트워크
본 개시의 장치 및 방법의 다양한 구현의 상세한 설명이 이제 제공된다. 본 개시의 특정 양상들이 스파이킹 뉴럴 네트워크를 포함하는 로봇식 적응형 제어 시스템의 맥락에서 가장 잘 이해될 수 있지만, 본 개시는 이것으로 제한되지 않는다. 본 개시의 구현들은 또한 다양한 학습 시스템들, 예를 들어, 감각 신호 처리(예를 들어, 컴퓨터 비전), 신호의 예측(예를 들어, 지도 학습), 금융 애플리케이션들, 데이터 클러스터링(예를 들어, 자율 학습), 재고 관리, 데이터 마이닝, 및/또는 성능 함수 미분 계산들을 필요로 하지 않는 다른 애플리케이션을 구현하기 위해 사용될 수 있다.
본 개시의 구현들은 예를 들어, 뉴로모픽 컴퓨터 시스템의 하드웨어 및/또는 소프트웨어 구현들에서 전개될 수 있다. 일부 구현들에서, 로봇식 시스템은 임베딩된 애플리케이션(예를 들어, 보철 장치)에서 사용하기 위해 적응되거나 구성될 수 있는 주문형 집적 회로에 임베딩된 프로세서를 포함할 수 있다.
이제 도 4를 참고하면, 본 개시의 일반화된 학습 프레임워크를 실시하기 위한 스파이킹 네트워크 장치의 일 구현이 도시되고 상세하게 설명된다. 네트워크(400)는 예를 들어, SRP(Spike Response Process)에 따라 동작가능하고 M-입력 접속들(414)을 통해 M-차원 입력 스파이킹 스트림 X(t)(402)를 수신하도록 구성된 적어도 하나의 확률적 스파이킹 뉴런(430)을 포함할 수 있다. 일부 구현들에서, M-차원 스파이크 스트림은 뉴런(430)으로 향하는 M-입력 시냅틱 접속들에 해당할 수 있다. 도 4에 도시된 바와 같이, 개별 입력 접속들은 학습 동안 조정되도록 구성될 수 있는 접속 파라미터(412)(wij)를 특징으로 할 수 있다. 하나 또는 그보다 많은 구현들에서, 접속 파라미터는 접속 효과(예를 들어, 가중치)를 포함할 수 있다. 일부 구현들에서, 파라미터(412)는 시냅틱 지연을 포함할 수 있다. 일부 구현들에서, 파라미터(412)는 시냅틱 전송의 확률들을 포함할 수 있다.
다음의 신호 표기는 네트워크(400)의 동작을 설명하는데 사용될 수 있다, 다음:
Figure pct00030
는, 제어 블록(410)에 의해 생성된 출력 신호(408)에 해당하는 출력 스파이크 패턴을 나타내고, tk는 뉴런에 의해 생성된 출력 스파이크들의 시간들을 나타낸다; 그리고
Figure pct00031
는 도 4의 외부 신호(404)의 부분일 수 있는 원하는(또는 기준) 신호에 대응하는 교습(teaching) 스파이크 패턴을 나타내고,
Figure pct00032
는, 기준 신호의 스파이크들이 뉴런에 의해 수신되는 시기의 시간들을 나타낸다.
일부 구현들에서, 뉴런(430)은 접속(404)을 경유하여 원하는 출력(기준 신호)
Figure pct00033
를 포함하는 트레이닝 입력들을 수신하도록 구성될 수 있다. 일부 구현들에서, 뉴런(430)은 접속(404)을 통해 포지티브 및 네거티브 강화 신호들을 수신하도록 구성될 수 있다. 그에 따라, 도 4의 파라미터들 r+,r-는 강화 신호 스파이크 스트림을 나타내고 다음과 같이 표현될 수 있다:
Figure pct00034
Figure pct00035
는 예를 들어, 각각 포지티브 및 네거티브 강화와 연관된 스파이크 시간들을 나타낸다.
뉴런(430)은 예를 들어, 로봇식 암을 제어하도록 구성될 수 있고 인공 뉴런들 간의 접속들의 가중치들에 의해 파라미터화될 수 있는 제어 블록(410), 및 접속 가중치들에서의 변경을 학습하는 것과 그리고/또는 계산하는 것을 구현할 수 있는 학습 블록(420)을 구현하도록 구성될 수 있다. 제어 블록(410)은 입력 신호(x)를 수신할 수 있고 출력 신호(y)를 생성할 수 있다. 출력 신호(y)는 원하는 궤도를 따라 로봇식 암을 이동시키도록 구성된 모터 제어 명령들을 포함할 수 있다. 제어 블록(410)은 시스템 내부 상태 변수들(q)을 포함하는 시스템 모델을 특징으로 할 수 있다. 내부 상태 변수(q)는 뉴런의 멤브레인 전압, 멤브레인의 전도도, 및/또는 다른 변수들을 포함할 수 있다. 제어 블록(410)은 접속들의 시냅틱 가중치들, 파이어링 임계치, 뉴런의 정지 전위(resting potential), 및/또는 다른 파라미터들을 포함할 수 있는 학습 파라미터들(w)을 특징으로 할 수 있다. 하나 또는 그보다 많은 구현들에서, 파라미터들(w)은 네트워크의 유닛들(예를 들어, 뉴런들) 간의 신호 송신 확률들을 포함할 수 있다.
입력 신호 x(t)는 특정 제어 태스크를 해결하기 위해 사용된 데이터를 포함할 수 있다. 로봇식 암 또는 자율 로봇과 관련되는 것들과 같은 하나 또는 그보다 많은 구현들에서, 신호 x(t)는 원시 센서 데이터(예를 들어, 근접성, 관성 및/또는 지형 영상) 및/또는 사전 프로세싱된 데이터(예를 들어, 가속도계들로부터 추출된 속도, 장애물에 대한 거리, 및/또는 위치들)의 스트림을 포함할 수 있다. 객체 인식과 관련되는 것들과 같은 일부 구현들에서, 신호 x(t)는 입력 이미지의 픽셀 값들(예를 들어, RGB, CMYK, HSV, HSL 및/또는 그레이스케일)의 어레이, 또는 사전 처리된 데이터(예를 들어, 페이스 인식, 컨투어, 및/또는 다른 사전 처리된 데이터에 대한 가버(Gabor) 필터들의 활성화의 레벨들)를 포함할 수 있다. 하나 또는 그보다 많은 구현들에서, 입력 신호 x(t)는, 예를 들어, 현재 상태와 원하는 모션에 기초하여 로봇의 장래 상태를 예측하기 위하여 원하는 모션 궤적을 포함할 수 있다.
도 4의 제어 블록(410)은, 조건부 확률 분포와 연관되는 분석 입력-출력(x→y) 확률 관계를 특징으로 할 수 있는 확률 동적 시스템을 포함할 수 있다.
Figure pct00036
(식 12)
식 12에서, 파라미터 w는 접속 효율, 파이어링 임계치, 뉴런의 레스팅 포텐셜, 및/또는 다른 파라미터들을 포함한 다양한 시스템 파라미터들을 나타낼 수 있다. 식 12의 분석 관계는, 시스템 파라미터 w에 대하여
Figure pct00037
의 그래디언트가 존재하고 계산될 수 있도록 선택될 수 있다. 도 4에 도시된 뉴로널 네트워크는 시스템 파라미터들을 변경하기 위한 규칙(예를 들어, 학습 규칙)을 추정하도록 구성될 수 있어서, 성능 함수 F(x, y, r)가 입력들 및 출력들의 현재 세트와 시스템 역학에 대해 최소화(또는 최대화)될 수 있다.
일부 구현들에서, 제어 성능 함수는 입력들 및 출력들(x,y)의 특성들을 반영하도록 구성될 수 있다. 값들 F(x, y, r)는, 자율적 학습 태스크들의 솔루션을 제공할 경우 외부 신호 r에 의존하지 않고 학습 블록(420)에 의해 직접 계산될 수 있다.
일부 구현들에서, 제어 블록(410)의 출력(y)과 원하는 제어 블록 출력을 특징으로 하는 기준 신호 yd 사이의 차에 기초하여 함수 F의 값이 계산될 수 있다. 이 구성은 아래에 상세하게 설명되는 바와 같이 지도 학습 태스크들에 대한 솔루션들을 제공할 수 있다.
일부 구현들에서, 성능 함수 F의 값은 외부 신호 r에 기초하여 결정될 수 있다. 이 구성은 강화 학습 태스크들에 솔루션들을 제공할 수 있으며, r은 환경으로부터의 보상 신호 및 처벌 신호를 나타낸다.
학습 블록(420)은, 자율, 지도 및/또는 강화 학습 태스크들을 해결하기 위해서 성능 함수 F 도함수의 계산들에 의존하지 않고 일반화된 학습 방법들을 가능하게 하는, 2012년 6월 4일에 출원되고 공동 소유이며 공동 계류 중이고 명칭이 "STOCHASTIC SPIKING NETWORK LEARNING APPARATUS AND METHODS"인 미국 특허 출원 일련번호 제13/487,533호[대리인 관리번호 021672-0407107, 클라이언트 참조번호 BC201203A]에 기술된 구현에 따른 학습 프레임워크를 포함할 수 있다. 블록(420)은 입력 (x) 및 출력 (y) 신호들(도 2에서 각각 화살표 402_1, 408_1로 나타내어짐)뿐만 아니라 상태 정보 q(405)를 수신할 수 있다. 감독 및 강화 학습을 수반하는 것들과 같은 일부 구현들에서, 외부 교습 신호 r가 도 4에서 화살표 404로 나타내어진 바와 같이 블록(420)으로 제공될 수 있다. 교습 신호는, 일부 구현들에서, 원하는 모션 궤적, 및/또는 보상 신호 및 처벌 신호들을 외부 환경으로부터 포함할 수 있다.
하나 또는 그보다 많은 구현들에서, 학습 블록 420은 아래에 상세하게 설명되는 바와 같이 성능 함수 F(x, y, r)의 평균 값의 최소화를 특징으로 하는 제어 시스템(예를 들어, 도 4의 네트워크(400))의 성능을 최적화할 수 있다.
일부 구현들에서, 제어 시스템(예를 들어, 도 4의 네트워크(430))의 성능의 최적화는, 앞에서 포함된 공동 소유이며 공동 계류 중이고 명칭이 "APPARATUS AND METHODS FOR GENERALIZED STATE-DEPENDENT LEARNING IN SPIKING NEURON NETWORKS"인 미국 특허 출원 일련번호 제13/560,902호, [대리인 관리번호 021672-0410044, 클라이언트 참조번호 BC201212A]에서 예를 들어 상세하게 설명된 성능 함수의 평균의 최대화를 통해 달성될 수 있다.
하나 또는 그보다 많은 구현들에서, 응답을 생성하는 뉴런의 순간 확률 밀도가, 지수함수적 확률 임계치로서 선택된 연속 시간 동안의 뉴런 멤브레인 전압 u(t)를 이용하여 결정될 수 있다:
Figure pct00038
(식 13)
여기서, u(t)는 뉴런의 멤브레인 전압이고,
θ는 스파이크를 생성하기 위한 전압 임계치이고,
K는 확률 파라미터이고,
λ0는 뉴런의 기본 (자연발생적인) 파이어링 레이트이다.
이산적 시간 단계들 동안, 현재 시간 단계에서의 파이어링의 확률에 대한 근사치
Figure pct00039
가 다음식에 의해 주어질 수 있다:
Figure pct00040
(식 14)
여기서 △t는 시간 단계 길이이다.
일부 구현들에서, 스코어 함수
Figure pct00041
는 개별 스파이킹 뉴런 파라미터들에 대한 변경들을 결정하기 위해 사용될 수 있다. 스파이킹 패턴들이 유한 간격 길이 T에 대해 뉴런의 입력(x)과 출력(y)으로서 보여지는 경우, 스코어 함수는 다음의 형태를 취할 수 있다:
Figure pct00042
(식 15)
시간 모멘트들 tl은 뉴런의 출력 패턴 yT에 속한다(뉴런은 이러한 시간 모멘트들에서 스파이크를 발생시킨다). 개별 시간 모멘트들에서 뉴런의 출력이 고려될 수 있는 경우(예를 들어, 출력 스파이크가 있는지 여부), 스코어 함수의 순시 값이 간격 스코어 함수의 시간 도함수를 이용하여 계산될 수 있다.
Figure pct00043
(식 16)
tl이 출력 스파이크의 시간이고,
Figure pct00044
는 크로네커(Kronecker) 델타이다.
하나 또는 그보다 많은 구현들에서, 확률 인티그레이트-파이어(stochastic Integrate-and-Fire) 뉴런 이산 시간에 대한 스코어 함수 값들이 다음과 같이 결정될 수 있다:
Figure pct00045
(식 17)
여기서, tout은 출력 스파이크 시간 인스턴스들을 나타내고;
α는 알파-함수를 나타내고,
Figure pct00046
는 크로네커 델타이다.
제어 모델과 연관된 상태 변수 q(예를 들어, 파이어링의 확률 λ(t))는 경로(405)를 통해 학습 블록(420)으로 제공될 수 있다. 뉴런(430)의 학습 블록(420)은 경로(408_1)를 통해 출력 스파이크 트레인 y(t)를 수신할 수 있다.
하나 또는 그보다 많은 구현들에서, 입력 인터페이스들(즉, 도 4의 네트워크(400)의 접속들(414))은 다음 식으로 표현될 수 있는 선형 동적 프로세스에 따라 동작될 수 있다.
Figure pct00047
, 및 (식 18)
Figure pct00048
(식 19)
하나 또는 그보다 많은 구현들에서, 접속 동적 프로세스가 안정한 역학 방정식(예를 들어, 식 18, 식 19)을 이용하여 설명될 수 있으므로 이들의 각각의 해들 Si(t), ei(t)이 시간에 따라 지수함수적으로 감쇠한다. 따라서, 이러한 동적 프로세스는, 이러한 이벤트들이 충분히 먼 과거에 발생한 경우, 시냅스 역학에 대한 외부 영향들(예를 들어, 스파이크들)의 실질적으로 감소된 효과들을 생성할 수 있는 외부 영향들(식 18과 식 19의 우변 항 부분들은 각각 입력 스파이크들과 항 Q(t) Si(t)를 기술함)의 지수함수적 감쇠 효과들('메모리')을 포함한다. 이와 같이 지수함수적 감쇠는 시간 간격(t-T) 내에 발생하는 입력들에 기초할 수 있는 시냅스 역학의 특징화를 허용하며, T는 시스템의 역학(즉, 식 18에서 행렬 A 식 19에서 시간 스케일 τ)에 기초하여 결정될 수 있다. 예로서, 시간 간격 T는 하나 또는 그보다 많은 구현들에서 τ와 같게 구성될 수 있는 반면에, 일부 구현들에서 T는 T=1/λmax로 결정될 수 있으며, λmax는 식 18에서 행렬 A의 고유값의 최대 실수 부분이다.
식 18 및 식 19가 선형 미분 방정식들을 포함하기 때문에, 하나 또는 그보다 많은 구현들에서, 해들 Si(t)와 ei(t)를 구하기 위해 중첩 원리가 적용될 수 있다는 것을 주목할 만하다. 구체적으로, 식 18의 우변은, 식 20과 식 22에 대하여 아래에 설명된 바와 같이, 복수의 이벤트-의존성 접속 변경 기저 벡터들 bm(t)로 분해될 수 있고; 식 19의 우변은 식 25에 대하여 아래에 설명된 바와 같이 복수의 이벤트-의존성 접속 변경(EDCC) 컴포넌트들 ym(t)로 분해될 수 있다. 따라서, 중첩을 이용하여, 입력 스파이크 트레인
Figure pct00049
의 간격(t-T)에서 입력 스파이크 sin(tm)에 대한 i번째 접속의 상태 응답 Si(t)이 입력 스파이크 트레인 sin(tm) 내의 m번째 스파이크들의 개별적인 스파이크들과 연관된 개별 기본 벡터들의 기여들의 선형 조합으로서 결정될 수 있다. 유사하게, i번째 접속의 적격성 트레이스 ei(t)는 입력 스파이크 트레인 sin(tm) 내의 m번째 스파이크들의 개별적인 스파이크들과 연관된 개별적인 EDCC 컴포넌트들 ym(t)의 기여들의 선형 조합으로서 결정될 수 있다. 일 구현에서, 중첩은, 예를 들어, 식 25에 대하여 설명된 바와 같이 가중된 선형 조합을 이용하여 실시된다. 도 6-6b에 대하여 아래에 상세하게 설명된 바와 같이, EDCC 컴포넌트들은 개별 접속(414)에 대한 업데이트 시간(t)에 식 18, 식19(예를 들어, Si(t)와 ei(t))의 해들을 결정하기 위하여 사전 계산(뉴런 당 한번)되고 선형으로 결합될 수 있다. 일부 구현들에서, 이벤트-의존성 접속 변경(EDCC)은 접속 가중치들(예를 들어, 시냅틱 가중치들)을 적응시키기 위해 구성된 적격성 트레이스를 포함할 수 있다.
더욱이, 일부 구현들에서, 뉴로널 동적 프로세스(예를 들어, 식 18 및 식 19)는 비-정상성(non-stationary) 행렬 A 및/또는 Q를 포함할 수 있다. 프로세스가 안정되어 있다(즉, 식 18 및 식 19의 해가 시간에 따라 감쇠함)는 조건에서, 시간 tup에서 이러한 해들은 (tup-T) 시간 간격에 걸쳐 프로세스 상태를 평가함으로써 획득될 수 있다. 식들의 안정성 때문에, 동차 방정식들(여기서 우변이 0임)의 해가 0으로 감쇠한다는 것은 주목할 만하다. 식 18, 식 19의 시간 감쇠 스케일에 비해 충분히 큰 시간 간격 T는, 일부 구현들에서, 식 18 및 식 19의 0 최초 조건들에 대응할 수 있다.
당업자는, 식 18 및 식 19로 나타내어지는 뉴럴 네트워크 역학은 일 구현을 포함할 수 있고 혁신적인 프레임워크는 이것으로 제한되지 않고 선형이고 안정한 프로세스를 이용하여 기술될 수 있는 임의의 네트워크 시냅틱 역학을 이용하여 사용될 수 있으므로 중첩 원리가 사용될 수 있다는 것을 인식할 것이다.
이벤트-의존성 접속 변경 컴포넌트 결정
하나 또는 그보다 많은 구현들에서, 이벤트-의존성 접속 변경 기저 벡터들 bm(t)는 다음의 미분 방정식을 이용하여 결정될 수 있다:
Figure pct00050
(식 20)
Figure pct00051
는 이벤트-의존성 접속 변경 컴포넌트 기저 벡터를 포함하고;
△t는 상태 업데이트 시간 단계이고;
m은 0 내지 nT=T/△t의 범위에서 선택된 기저 벡터 인덱스이다.
보편성을 잃지 않으면서, 일 구현에서, 0 초기 조건 dbm/dt=0 (t=0에서)이 식 20의 설명과 함께 사용될 수 있다. 하나 또는 그보다 많은 구현들에서, 기저 벡터
Figure pct00052
의 차원은 식 18의 상태 벡터 Si(t)의 차원과 일치하도록 선택될 수 있다.
식 20에 도시된 바와 같이, 벡터들 bm은 더 이상 입력 스파이크 이력(즉, 스파이크 트레인
Figure pct00053
)에 의존하지 않는다. 따라서, 식 20의 해는, 서로로부터 독립적으로, 뉴런의 개별 접속 시냅스들에 대해 식 7을 계산하는 것에 의존하는 종래 기술의 방법론과는 반대로 뉴런에 대해 전체로서 (즉, 하나 또는 그보다 많은 구현들에서, 뉴런과 모든 그 복수의 접속들로서) 결정될 수 있다.
하나 또는 그보다 많은 구현들에서, 식 20은 예를 들어 다음 식과 같이 오일러 적분 기술들을 이용하여 풀 수 있다:
Figure pct00054
(식 21)
특정 인덱스 m을 갖는 식 20의 형태의 각각의 식은, 단지 하나의 입력 스파이크가 시간 tm=t-m△t에서 발생했던 것처럼, 접속 상태 벡터 Si(t)의 해를 기술할 수 있다. 중첩 원리에 따르면, 식 18의 해는 예를 들어, 식 20으로부터 다음 식과 같이 결정된 컴포넌트들
Figure pct00055
의 선형 조합으로서 발견될 수 있다.
Figure pct00056
(식 22)
Figure pct00057
Figure pct00058
엘리먼트들과 동일한 엔트리들을 가진 대각 행렬이다. 일부 구현들에서, 식 22의 합계에서 인덱스들 m은, 도 6에 대하여 아래에 상세하게 설명된 바와 같은, i번째 시냅스와 연관된 입력 스파이크들(즉, 식 12의 m번째 해에 대응하는 시간 단계들에서 발생했던 스파이크들)을 포함할 수 있다.
하나 또는 그보다 많은 구현들에서, 예를 들어, 스파이킹 뉴런 네트워크들에서 이산 시간 학습 프로세스들에 대한 적용가능한 도 19의 해는 식 22를 이용하여 우측 변 항을 다음 식과 같이 표현함으로써 결정될 수 있다:
Figure pct00059
(식 23)
하나 또는 그보다 많은 구현들에서, 적격성 트레이스 ei 상태 변수들의 역학 기저는 다음 미분 식을 이용함으로써 표현될 수 있다:
Figure pct00060
(식 24)
여기서, ym(t)는 적격성 트레이스 기저 상태 변수이고;
m은 0 내지 nT의 범위 내의 인덱스이고;
Figure pct00061
는 위에서 설명된 접속 상태 벡터(예를 들어, 식 20의 해)이다.
0 초기 조건들을 가정하면, 식 24의 해는 식 21에 의해 설명된 것과 유사하게, 예를 들어, 오일러 적분을 이용하여 결정될 수 있다. 적격성 트레이스 ei(t)는 이후, 적격성 트레이스 기저 상태 변수들의 선형 조합으로서 중첩 원리를 이용하여 다음 식과 같이 결정될 수 있다:
Figure pct00062
(식 25)
식 25의 합계에서 인덱스들 m은, 도 6에 대하여 아래에 상세하게 설명된 바와 같이, i번째 시냅스의 입력 스파이크들(식 11의 m번째 해에 대응하는 시간 단계들에서 발생했던 스파이크들)에 대응하도록 구성될 수 있다.
효율적인 시냅틱 업데이트들
이제 도 6-6a를 참고하면, 스파이킹 뉴럴 네트워크(예를 들어, 도 4의 네트워크(400))에서 뉴런의 효율적인 시냅틱 업데이트들이 하나 또는 그보다 많은 구현들에 따라 도시되고 설명된다. 도 5는 종래 기술의 통상적인 업데이트 방법론(패널 500)과 본 개시의 효율적인 업데이트 방법론(패널 510)에 대한 계산 주기와 부하를 도시한다. 종래 기술의 방법론은, 네트워크 업데이트 간격 △t만큼 떨어져 있을 수 있는 시간들 ti, ti -1에서 각각 발생하는 하나 또는 그보다 많은 업데이트들(504_i, 504_i+1)을 포함할 수 있다. 종래 기술의 개별 업데이트들(504)은 M×C개의 계산들을 포함할 수 있으며, M은 뉴런(도 4의 뉴런 (430))당 시냅틱 접속들(예를 들어, 접속들(414))의 수이고, 블록(502)은 접속당/업데이트당 C개의 계산들을 포함하는 하나의 접속 업데이트에 대응할 수 있다. 일부 구현들에서, 접속 업데이트(502)는 접속 동적 프로세스 및/또는 뉴런 동적 프로세스에 따라서 구성될 수 있다.
패널 500에 도시된 업데이트들은 패널 610에 도시된 본 개시의 효율적인 업데이트들을 이용하는 것과는 대조적이다. 일 구현에 따르면, 효율적인 업데이트들은 네트워크 업데이트 간격 △t 만큼 떨어져 있을 수 있는 시간들 ti, ti +1에서 각각 발생하는 하나 또는 그보다 많은 업데이트들(614_i, 614_i+1)을 포함한다. 개별 업데이트들(614)은 nT×C개의 계산들을 포함할 수 있고, nT=T/△t는 앞의 상세한 설명에서 설명된 바와 같은 업데이트당 계산될 수 있는 EDCC 컴포넌트들의 수이고, C는 아래의 도 5에 도시된 EDCC 컴포넌트(612) 당 계산들의 수이다. nT<M인 경우 하나 또는 그보다 많은 구현들에 따라 실시된 업데이트들(614)은 뉴럴 네트워크에서의 시냅틱 업데이트들과 연관된 계산적 그리고 메모리 부하를 유리하게 감소시킨다.
도 6은 본 개시의 EDCC 컴포넌트들의 하나 또는 그보다 많은 구현들을 도시한다. 커브 그룹(622)은 EDCC 컴포넌트 트레이스들의 시간 변화를 도시한다. 일부 구현들(예를 들어, 도 6의 커브 그룹(622)에 의해 도시된 구현)에서, EDCC 컴포넌트의 최대 크기는 시간에 따라 변할 수 있다. 하나 또는 그보다 많은 구현들에서, 감쇠 시간 스케일 T는 상이한 EDCC 컴포넌트들에 대해 상이하게 구성될 수 있다. 일부 구현들에서, 감쇠 시간 스케일 T은 커브 그룹(622)에 의해 도시된 바와 같이 모든 컴포넌트들에 대해 동일하게 구성될 수 있다. 도 6에서, 시간 인스턴스 ti+nT는 현재 시간(tup)에 대응하고, 하나 또는 그보다 많은 구현들에서, 커브들(622)은 시간 증분 △t만큼 서로로부터 떨어져 있을 수 있으므로, 커브들의 총 수는 nT=T/△t이다.
일부 구현들에서, 도 6a의 커브 그룹(632)에 의해 도시된 바와 같이, 예를 들어, 식 19의 뉴로널 역학 항 Q(t)가 시변인 경우, EDCC 컴포넌트 트레이스들은 가소성 변경들의 시변 최대 크기를 포함할 수 있다.
식 18과 식 19에 대하여 상술된 바와 같이, 개별 EDCC 컴포넌트들은 시간 간격(tup-T) 내에 발생했던 하나 또는 그보다 많은 이벤트들로 인해 시간(tup)에서 전체 시냅틱 가소성 조정에 대한 기여를 기술할 수 있다. EDCC 컴포넌트들(622, 632)이 시간에 따라 감쇠하기 때문에, 시간(tup)에서 전체 가소성 조정에 대한 (시간 인스턴스 ti=tup-i△t에 대응하는) 개별 EDCC 컴포넌트들(bm)의 기여는, 컴포넌트(즉, 차 tup-i△t)의 에이지(age)가 더 길어짐에 따라, 점진적으로 줄어든다. 하나 또는 그보다 많은 구현들에서, 도 6의 라인 628에 의해 도시된 감쇠 가중치에 의해, 이 에이징(ageing) 기여 디스카운트의 전체적인 효과가 표현될 수 있다. 그에 따라, 시간(tup)에서, STDP 컴포넌트들(bm)과 연관된 기여들이 도 6의 ×심볼들(630)로 도시된다. 에이지-기반 디스카운트 레이트의 하나의 실현이 표 1에 제공되며, 여기서 nT=20이고, 디스카운트 Di는 시간(tup=tnT)에서 컴포넌트들(bm)의 디스카운트된 크기에 대응한다.
i Di
1 2
2 3
3 3
...
nT-2 67
nT-1 82
nT 100
이벤트-기반 업데이트들
본원에 설명된 효율적인 시냅틱 업데이트들은 다음의 이벤트들 중 하나 또는 그보다 많은 것에 기초하여 실시될 수 있다.
(ⅰ)일정 간격들(예를 들어, △t)에서 발생하는 글로벌 네트워크 업데이트;
(ⅱ)타이머에 기초하여 발생하는 로컬 뉴런 업데이트;
(ⅲ)뉴런 발생 응답(스파이크)에 기초하여 발생하는 로컬 뉴런 업데이트;
(ⅳ)피드-포워드 입력(스파이크)를 수신하는 뉴런에 기초하여 발생하는 로컬 뉴런 업데이트;
(ⅴ)측방 및/또는 피드백 입력(스파이크)를 수신하는 뉴런에 기초하여 발생하는 로컬 뉴런 업데이트;
(ⅵ)트리거에 기초하여 발생하는 글로벌/로컬 업데이트. 하나 또는 그보다 많은 구현들에서, 트리거는 뉴런에 대한 입력 액티비티를 저장하도록 구성된 메모리 버프와 연관된 버퍼 오버플로우 신호를 포함할 수 있으며, 예를 들어, 공동 소유이며 공동 계류 중이고 2011년 9월 21일에 출원되었으며 명칭이 "APPARATUS AND METHODS FOR SYNAPTIC UPDATE IN A PULSE-CODED NETWORK"인 미국 특허 출원 제13/239,255호[클라이언트 참조번호 BRAIN.008A]에 설명되어 있으며 그 전체가 본원에 인용에 의해 포함된다.
(ⅶ)강화-기반 네트워크 학습 성능과 연관된 보상 신호, 예를 들어, 공동 소유이며 공동 계류 중인 2012년 6월 5일 출원되었으며 명칭이 "APPARATUS AND METHODS FOR REINFORCEMENT LEARNING IN ARTIFICIAL NEURAL NETWORKS"인 미국 특허 출원 일련번호 제13/489,280호[클라이언트 참조번호 BC201204A]에 설명되어 있으며, 앞에 포함되어 있다.
도 7 및 도 8은 하나 또는 그보다 많은 구현들에 따라 업데이트들의 타이밍과 EDCC 컴포넌트 선택을 도시한다. 도 7의 패널(740)은 예를 들어, 식 20과 도 6에 대하여 상술된 것과 같은 EDCC 컴포넌트들(741, 742, 744, 746, 748)의 시퀀스를 나타낸다. 도 7의 패널(750)은 예를 들어, 뉴런 입력들(752, 754, 756, 758, 759)(이를 테면 피드-포워드 입력 및/또는 강화 스파이크들)를 포함하는 이벤트 시퀀스를 도시한다. 일 구현에서, (미도시) 이벤트 클록과 EDCC 컴포넌트들 계산 클록이 동기화되고 일정한 네트워크 업데이트 간격들, 예를 들어, 1ms 간격들로 업데이트되도록 선택될 수 있다. 도 7에 도시된 구현에서, 예를 들어, 이벤트들(752)과 가소성 컴포넌트(741) 간의 타이밍 불일치에 의해 도시된 바와 같이 이벤트 클록 및 EDCC 계산 클록이 동기화되지 않는다. 그에 따라, 업데이트들을 수행할 경우, 가장 최근의 EDCC 컴포넌트는 도 7의 대시기호 화살표들에 의해 나타내어진 바와 같이 개별 이벤트들에 대해 선택될 수 있다. 표 2는, 제 1 컬럼이 이벤트들의 시간 스탬프(예를 들어, 도 7의 이벤트들(750))를 나열하고, 제 2 컬럼은 가장 최근의 EDCC 컴포넌트의 시간을 나타내고, 제 3 및 제 4 컬럼들은 전체 가소성 업데이트에 대한 이벤트의 기여를 계산하기 위해 사용되는 EDCC 컴포넌트(예를 들어, 도 7의 컴포넌트(740))와 컴포넌트 인덱스 i를 포함하는, 하나의 이러한 실현을 나타낸다. 하나 또는 그보다 많은 구현들에서, 컴포넌트는 도 5의 x-심볼들(630)에 의해 도시된 디스카운트된 EDCC 기여에 대응할 수 있다. 표 2에 예시된 구현이 시불변 시냅틱 접속 역학에 대응한다는 것(즉, 식 19에서 Q(t)=상수)은 주목할 만하다. 그에 따라, 이러한 실현들에서, 업데이트는 네트워크 동작의 시작 시에 하나의 룩업 테이블(LUT)을 계산함으로써 그리고 인덱스 i를 사용함으로써 실시되어 적절한 가소성 기여를 획득할 수 있다. 이러한 구현들에서, 업데이트들과 연관된 전체 프로세싱 부하는 종래 기술과 비교하여 훨씬 더 감소될 수 있다.
T 이벤트 T 업데이트 EDCC 인덱스 i Di
2 5 1 2
8 10 2 6
10 10 2 14
14 15 3 25
19 20 4 55
21 25 5 100
시변 접속 역학을 실시하는 일부 구현들에서, 업데이트 LUT(예를 들어, 테이블 2)는 개별 업데이트들에 대해 평가될 수 있다. 일부 구현들에서, 시변 시냅스 역학은 하나 또는 그보다 많은 세그먼트들로 분리될 수 있으며, 역학은 반-고정식으로 근사화될 수 있어서, 단일 LUT(예를 들어, 테이블 2)는 이러한 세그먼트 단위로 계산될 수 있다.
상술된 바와 같이, 시변 접속 역학에 대해 본 개시에 따라 효과적인 가소성 업데이트들을 구현하기 위해서, 개별 업데이트 인스턴스들에서, 가소성 EDCC 트레이스들의 어레이가 계산될 수 있으므로 업데이트 LUT가 구성될 수 있다. 일부 구현들에서, LUT 계산들은 도 8의 패널(800)에 의해 도시된 바와 같이 개별 네트워크 업데이트 단계들(예를 들어, △t 간격)에서 실시될 수 있으며, 업데이트들(814)은 개별 시간 단계들 t에서 실시될 수 있다(주기적 업데이트로도 지칭됨). 패널(800)로부터 볼 수 있는 바와 같이, 시냅틱 업데이트들(814)의 수행을 요구할 수 있는 단지 3개의 이벤트들(802, 806, 808)이 존재할 수 있다. 따라서, 계산 리소스들 중 일부는, 연관된 이벤트의 부재 시 업데이트들(예를 들어, 시간 인스턴스
Figure pct00063
에서의 업데이트들(814))이 수행될 수 있을 경우 낭비될 수 있다.
업데이트들과 연관된 계산 부하를 감소시키도록 구성된 일부 구현들에서, 업데이트들(온-디맨드 업데이트들로도 지칭됨)은 단지, 도 8의 패널들(820, 830n)에 의해 도시된 바와 같이 이벤트에 기초하여 수행될 수 있다. 패널(820)은 즉시 온-디맨드 업데이트들을 나타내며, 여기서 업데이트들(824)은 이벤트(822, 826, 828)의 검출 직후 수행될 수 있다.
패널(830)은 지연 동기식 온-디맨드 업데이트들을 도시하며, 업데이트들(834)은 클록(예를 들어, 로컬 뉴런 클록 또는 글로벌 네트워크 클록)과 동기화될 수 있고 다음에 뒤따르는 클록 인스턴스에서 수행될 수 있다. 도 8의 예시로서, 이벤트(834)와 연관된 업데이트(834_i)는 클록 인스턴스(ti+1)에서 수행될 수 있고, 이벤트(836)와 연관된 업데이트(834_i+2)는 클록 인스턴스(ti+n-l)에서 수행될 수 있다.
이벤트# T 이벤트(ms) T 동기식 T 즉시적
업데이트(ms) 업데이트(ms)
1 1.8 2 1.8
2 8.9 10 8.9
3 9.7 10 9.7
4 20 20 20
5 42.5 44 42.5
6 49.0 50 49.0
7 51.0 52 51.0
표 3은 하나 또는 그보다 많은 구현들에 따른 온-디맨드 업데이트들의 타이밍을 예시한다. 표 3에 대응하는 네트워크 업데이트들은 2ms 증분들에서 발생하고, 시간 리졸루션은 0.1ms에서 선택될 수 있다. 당업자는, 이러한 파라미터들이 예시적이고 임의의 적용가능한 네트워크 업데이트 레이트 및/또는 클록 리졸루션이 다른 구현들에서 사용될 수 있다는 것을 인식할 것이다. 표 3의 제 1 컬럼은 이벤트 수를 포함한다; 제 2 컬럼은 이벤트들의 시간 스탬프(즉, 강화 신호, 입력 스파이크 등)를 도시한다. 제 3 컬럼은 다음 네트워크 업데이트 사이클에서 발생하는 동기식 온-디맨드 업데이트들의 시간을 포함한다. 유한 업데이트 주기 리졸루션(예를 들어, 2-ms) 때문에, 업데이트들(즉, 업데이트들 1-3, 5-7) 중 몇몇은 다음 업데이트 주기까지 지연될 수 있다는 것이 주목할 만하다. 또한, 둘 또는 그보다 많은 이벤트들(예를 들어, 표 3의 이벤트들 2-3)이 동시에 (예를 들어, 10 ms 단계로) 실시될 수 있는데, 이는 네트워크 장치 상에서 동일한 업데이트들의 계산 부하를 잠재적으로 감소시킨다. 제 4 컬럼은 이벤트의 검출 즉시 발생하는 즉시적 온-디맨드 업데이트들의 시간을 포함한다. 이러한 즉시적 업데이트 구현에서, 개별 이벤트들은 별개의 업데이트를 유발할 수 있다는 것은 주목할 만하다.
변조식 STDP
하나 또는 그보다 많은 구현들에서, EDCC 컴포넌트들은 예를 들어, 시냅틱 접속들의 가중치들의 적응과 같은 시냅틱 가소성을 구현하기 위해 구성된 하나 또는 그보다 적격성 트레이스를 포함할 수 있다. 하나의 이러한 구현에서, 2007년 12월 21일 출원되고 명칭이 "SOLVING THE DISTAL REWARD PROBLEM THROUGH LINKAGE OF STDP AND DOPAMINE SIGNALING"인 미국 특허 제8,103,602호에 상세하게 기술된 하나의 이러한 구현에서, 본 발명의 효율적인 업데이트 방법론에 유용한 가소성 메커니즘은 추가 파라미터에 의해 변조되는 STDP를 포함할 수 있다. 일부 구현들에서, 파라미터는 개별 뉴런들에 특정한 것으로서 구성될 수 있다. 하나 또는 그보다 많은 구현들에서, 파라미터는, 예를 들어, 생물학적 신경전달 도파민의 보상 동작들을 시뮬레이팅할 경우, 네트워크 규모(network-wide)로 구성될 수 있다.
변조식 STD의 일부 구현들에서, 프로세스(예를 들어, 식 7 및 식 8)는 다음 프레임워크를 이용하여 표현될 수 있다:
-1차원 시냅스 상태 벡터
Figure pct00064
;
-시냅틱 계수 벡터 ki=1;
-입력 및/또는 출력 액티비티에 의존하지 않고 시변인 1차원 행렬
Figure pct00065
,
Figure pct00066
는 STDP 시상수(통상적으로 30-100ms)임;
-포스트-시냅틱 스파이크 이후 시냅스 리셋 조건 Rs(t)=-Si(t);
-뉴런의 상태의 함수
Figure pct00067
;
Figure pct00068
(식 26)
Figure pct00069
(식 27)
r은 적격성 트레이스 시상수(통상적으로 50-500ms)이고,
Sik(t)는 시냅틱 상태 벡터
Figure pct00070
의 k번째 엘리먼트이다.
일부 구현들에서, 기저 벡터들
Figure pct00071
는 프리시냅틱 스파이크의 시간 t-m×△t에 참조된 지수(exponents)를 이용하여 표현될 수 있다.
Figure pct00072
(식 28)
식 28로부터 알 수 있는 바와 같이, 컴포넌트 벡터들
Figure pct00073
는 입력 및/또는 출력 스파이크 시간에 의존하지 않는다. 그에 따라, 하나 또는 그보다 많은 구현들에서, 뉴런 네트워크 동작에 앞서 벡터 트레이스들
Figure pct00074
가 사전 계산될 수 있다. 일부 구현들에서, 스파이킹 뉴런 네트워크의 업데이트들을 실행하는 것과 연관된 계산 부하는, 업데이트 시에 컴포넌트들의 재계산을 수행하는 것 대신에 네트워크 동작의 지속기간 동안 이렇게 사전 계산된 것을 이용함으로써 추가로 감소될 수 있다.
하나 또는 그보다 많은 구현들에서, 시냅틱 접속 가중치 변경들은 다음 식과 같이 추가적인 스파이킹 신호 D(t)에 기초할 수 있다.
Figure pct00075
(식 29)
tr은 D(t)의 스파이크들과 연관된 도달 시간이다. 일부 구현들에서, 신호 D(t)는 보상-기반 학습을 구현하는데 사용될 수 있다.
확률 SRP 뉴런에 대한 상태-의존성 적격성 트레이스들
하나 또는 그보다 많은 구현들에서, EDCC 컴포넌트들은, 예를 들어, 시냅틱 접속들의 가중치들의 적응과 같이 접속 업데이트들을 구현하기 위해 구성된 하나 또는 그보다 많은 적격성 트레이스를 포함할 수 있다. 스파이크-응답 프로세스(SRP)에 따라 동작가능한 확률 뉴런의 하나 또는 그보다 많은 구현들에서, 적격성 트레이스는 각각의 이벤트(예를 들어, 입력 스파이크) 시에 접속의 상태에 의존하는 것으로 구성될 수 있다.
하나의 이러한 구현에서, 업데이트 프로세스(예를 들어, 식 7 및 식 8)는 다음 프레임워크를 이용하여 표현될 수 있다:
-2차원 시냅스 상태 벡터
Figure pct00076
;
-
Figure pct00077
={0,1}
-시간 및 액티비티 의존성 2차원 행렬이 다음 식으로 표현된다:
Figure pct00078
(식 30)
-개별 포스트-시냅틱 스파이크들 이후 시냅스 상태를 0으로 리셋하는 것은 Rs(t)=-
Figure pct00079
로 표현된다;
-이산 시간(예를 들어, 식 17)에서의 뉴런의 상태 함수는 다음 식으로 표현된다:
Figure pct00080
(식 31)
그에 따라, 업데이트 프로세스는 다음을 특징으로 할 수 있다:
Figure pct00081
(식 32)
Figure pct00082
(식 33)
Figure pct00083
(식 34)
τs는 STDP 시상수(통상적으로 30-100ms)이고,
τ는 적격성 트레이스 시상수(통상적으로 50-500ms)이고, 그리고
Sik(t)는 시냅틱 상태 벡터
Figure pct00084
의 k번째 엘리먼트이다.
하나 또는 그보다 많은 구현들에서, 가중치들 변경은 다음 식과 같이 추가 신호 F(t)에 기초하여 구성될 수 있다:
Figure pct00085
(식 35)
F(t)는 뉴런 네트워크 업데이트들에 의해 실시된 학습 프로세스와 연관된 성능 함수이다. 하나 또는 그보다 많은 구현들에서, 학습은 성능 함수 F(t)를 최소화함으로써 실시될 수 있으며, 예를 들어, 공동 소유이며 공동 계류 중이고 2012년 6월 4일에 출원되고 명칭이 "STOCHASTIC APPARATUS AND METHODS FOR IMPLEMENTING GENERALIZED LEARNING RULES"인 미국 특허 출원 일련번호 제13/487,499호, [대리인 관리번호 021672-0405921, 클라이언트 참조번호 BC201202A](그 전체의 내용이 인용에 의해 본원에 포함됨)에 설명된 바와 같다.
일부 구현들에서, 본원에 설명된 효과적인 업데이트 방법론은 공동 소유이며 공동 계류 중이고 2012년 3월 15일에 출원되고 명칭이 "TAG-BASED APPARATUS AND METHODS FOR NEURAL NETWORKS"인 미국 특허 출원 일련번호 제13/385,938호, [대리인 관리번호 021672-0403358, 클라이언트 참조번호 Brain.01DV1](그 전체가 본원에 인용에 의해 포함됨)에 상세하게 설명된 HLND(high level neuromorphic language description)를 이용하여 실시될 수 있다. 도 13a-13d는 예를 들어, 위에서 설명된 도 9a 내지 도 9d의 방법에 사용하기 위해 상태-의존성 적격성 트레이스를 실시하기 위해 구성된 일 예시적인 HLND 스크립트를 나타낸다.
넌-어소시에이티브 LTP 용어에 따른 적격성 트레이스들
하나 또는 그보다 많은 구현들에서, EDCC 컴포넌트들은, 예를 들어, LTD(long term connection depression)을 포함하는 시냅틱 접속들의 가중치들을 적응시키는 것과 같이 넌-어소시에이티브 접속 업데이트들을 구현하기 위해 구성된 하나 또는 그보다 많은 적격성 트레이스를 포함할 수 있다.
하나의 이러한 구현에서, 업데이트 프로세스(예를 들어, 식 7 및 식 8)는 다음 프레임워크를 이용하여 표현될 수 있다:
-1차원 시냅스 상태 벡터
Figure pct00086
;
-ki=1;
-시간 및 액티비티 독립적 1차원 행렬이
Figure pct00087
로 표현된다;
-개별 포스트-시냅틱 스파이크들 이후 시냅스 상태를 0으로 리셋 Rs(t)=-Si(t);
-뉴런 상태 프로세스가 다음 식으로 표현된다:
Figure pct00088
(식 36)
Figure pct00089
(식 37)
Figure pct00090
(식 38)
τs는 STDP 시상수(통상적으로 30-100ms)이고,
τ는 적격성 트레이스 시상수(통상적으로 50-500ms)이고,
Sik(t)는 시냅틱 스테이트 벡터
Figure pct00091
의 k번째 엘리먼트이고,
P는 넌-어소시에이티브 LTP(예를 들어, 입력 스파이크들을 수신했던 가중치들의 넌-어소시에이티브 증강(potentiation))이다.
일부 구현들에서, 기저 벡터들
Figure pct00092
은 프리시냅틱 스파이크의 시간 t-m×△t에 참조된 지수를 이용하여 표현될 수 있다.
Figure pct00093
(식 39)
식 39로부터 알 수 있는 바와 같이, 컴포넌트 벡터들
Figure pct00094
는 입력 및/또는 출력 스파이크 시간에 의존하지 않는다. 그에 따라, 하나 또는 그보다 많은 구현들에서, 뉴런 네트워크 동작에 앞서 벡터 트레이스들
Figure pct00095
가 사전 계산될 수 있다. 일부 구현들에서, 스파이킹 뉴런 네트워크의 업데이트들을 실행하는 것과 연관된 계산 부하는, 업데이트 시에 컴포넌트들의 재계산을 수행하는 것 대신에 네트워크 동작의 지속기간 동안 이렇게 사전 계산된 것을 이용함으로써 추가로 감소될 수 있다.
하나 또는 그보다 많은 구현들에서, 가중치 변경들은 추가적인 스파이킹 신호에 의해 실시될 수 있다:
Figure pct00096
(식 40)
tr은 추가적인 신호 스파이크들의 도달 시간이다.
최근 특허로부터 탐구적(exploratory) 용어를 이용하는 STDP 트레이스들
하나 또는 그보다 많은 구현들에서, EDCC 컴포넌트들은 강화 학습 동안 보상-기반 탐구를 구현하기 위해 구성된 하나 또는 그보다 많은 적격성 트레이스를 포함할 수 있다. 하나 또는 그보다 많은 구현들에서, 탐구는 비활성 뉴런들의 증강현상을 포함할 수 있으며, 예를 들어, 공동 소유이며 2012년 6월 5일 출원되었으며 명칭이 "APPARATUS AND METHODS FOR REINFORCEMENT LEARNING IN ARTIFICIAL NEURAL NETWORKS"인 미국 특허 출원 일련번호 제13/489,280호[클라이언트 참조번호 BC201204A]에 설명된 바와 같으며, 위에 포함되어 있다.
-1차원 시냅스 상태 벡터
Figure pct00097
;
-ki=1;
-시간 및 액티비티 독립적 1차원 행렬
Figure pct00098
;
-개별 포스트-시냅틱 스파이크들 이후 시냅스 상태를 0으로 리셋 Rs(t)=-Si(t);
-뉴런의 상태의 함수
Figure pct00099
Figure pct00100
, 및
Figure pct00101
τs는 STDP 시상수(통상적으로 30-100ms)이고,
τ는 적격성 트레이스 시상수(통상적으로 50-500ms)이고,
Sik(t)는 시냅틱 스테이트 벡터
Figure pct00102
의 k번째 엘리먼트이고,
P는 넌-어소시에이티브 LTD(예를 들어, 입력 스파이크들을 수신했던 가중치들의 넌-어소시에이티브 억제(depression))를 기술한다.
인수가 포지티브이면, H(χ)는 1과 같은 헤비사이드(Heaviside) 스텝 함수이고, 그렇지 않으면 0이다.
일부 구현들에서, 기저 벡터들
Figure pct00103
은 프리시냅틱 스파이크의 시간 t-m×△t에 참조된 지수를 이용하여 표현될 수 있다:
Figure pct00104
(식 41)
식 39로부터 알 수 있는 바와 같이, 컴포넌트 벡터들
Figure pct00105
는 입력 및/또는 출력 스파이크 시간에 의존하지 않는다. 그에 따라, 하나 또는 그보다 많은 구현들에서, 뉴런 네트워크 동작에 앞서 벡터 트레이스들
Figure pct00106
가 사전 계산될 수 있다. 일부 구현들에서, 스파이킹 뉴런 네트워크의 업데이트들을 실행하는 것과 연관된 계산 부하는, 업데이트 시에 컴포넌트들의 재계산을 수행하는 것 대신에 네트워크 동작의 지속기간 동안 이렇게 사전 계산된 것을 이용함으로써 추가로 감소될 수 있다.
하나 또는 그보다 많은 구현들에서, 가중치 변경들은 추가적인 신호 R(t)에 기초하여 다음 식으로서 구성될 수 있다:
Figure pct00107
(식 42)
R(t)는 뉴런 네트워크 업데이트들에 의해 실시되는 학습 프로세스와 연관된 강화 (예를 들어, 보상 및/또는 처벌) 신호이다. 하나 또는 그보다 많은 구현들에서, 학습은 강호 신호에 따라서 비활성 뉴런들을 선택적으로 증강시킴으로써 실시될 수 있으며, 예를 들어, 공동 소유이며 공동 계류 중이고 2012년 6월 5일에 출원되었으며 명칭이 "APPARATUS AND METHODS FOR REINFORCEMENT LEARNING IN ARTIFICIAL NEURAL NETWORKS"인 미국 특허 출원 일련번호 제13/489,280호, [클라이언트 참조번호 BC201204A](앞에서 포함되었음)에 설명된 바와 같다.
예시적인 방법들
도 9a 내지 도 9e는 하나 또는 그보다 많은 구현들에 따라 뉴럴 네트워크의 뉴런에 대한 효율적인 접속 업데이트들의 방법들을 도시한다. 아래에 제시되는 방법들(900, 920, 930, 940, 950)의 동작들은 예시적인 것으로 의도될 수 있다. 일부 구현들에서, 방법들(900, 920, 930, 940, 950)은 설명되지 않은 하나 또는 그보다 많은 추가 동작들을 따라고 그리고/또는 설명된 동작들 중 하나 또는 그보다 많은 동작을 실시하지 않고 달성될 수 있다. 추가적으로, 방법들(900, 920, 930, 940, 950)의 동작들이 도 9a 내지 도 9e에서 예시되고 그리고 아래에 설명되는 순서는 그것으로 제한하는 것을 의도하지 않는다.
일부 구현들에서, 도 9a 내지 도 9e의 방법들은 하나 또는 그보다 많은 프로세싱 디바이스들(예를 들어, 디지털 프로세서, 아날로그 프로세서, 정보를 처리하도록 설계된 디지털 회로, 정보를 처리하도록 설계된 아날로그 회로, 상태 머신 및/또는 정보를 전자적으로 처리하기 위한 다른 메커니즘들)에서 구현될 수 있다. 하나 또는 그보다 많은 프로세싱 디바이스들은 전자식 저장 매체에 전자적으로 저장된 명령들에 응답하여 방법(900, 920, 930, 940, 950)의 동작들 중 일부 또는 전부를 실행하는 하나 또는 그보다 많은 디바이스들을 포함할 수 있다. 하나 또는 그보다 많은 프로세싱 디바이스들은 방법(900, 920, 930, 940, 950)의 동작들 중 하나 또는 그보다 많은 동작의 실행을 위해 구체적으로 설계되는 하드웨어, 펌웨어, 및/또는 소프트웨어를 통해 구성된 하나 또는 그보다 많은 디바이스들을 포함할 수 있다.
이제, 도 9a를 참고하면, 시불변 접속 동적 상태에 사용하기 위한 효율적인 업데이트 방법의 하나의 이러한 구현이 상세하게 설명된다.
방법(900)의 단계 902에서, 접속 액티비티이 모니터링될 수 있고 입력들의 이력이 저장될 수 있다. 이력 기록의 다양한 구현들이 아래의 도 9b의 방법(920)의 단계(922)에 대하여 설명된다.
단계 904에서, 업데이트가 수행될 수 있는지를 결정하기 위해서 업데이트 표시가 체크될 수 있다.
업데이트가 수행되는 경우, 단계 906에서, EDCC 컴포넌트들 ym(t)은, 예를 들어, 도 6 내지 도 8에 대하여 상술된 방법론 중 임의의 것을 이용하여 계산될 수 있다. 일부 구현들에서, 컴포넌트들 ym(t)를 계산하는 대신에 로컬 또는 글로벌 룩업 테이블(예를 들어, 테이블 2)이 사용될 수 있다.
단계 908에서, 예를 들어, 식 25 및 식 6을 이용하여 접속 파라미터 변경(예를 들어, 가소성 업데이트)이 계산될 수 있다.
단계 910에서, 뉴런 접속의 학습 파라미터들(θij)가 적용가능한 방법론들 중 임의의 것을 이용하여 업데이트될 수 있다.
이제, 도 9b를 참고하면, 예를 들어, 도 4의 뉴런(430)에 사용하기 위한 본 개시의 효율적인 업데이트 방법의 일 예시적인 구현이 상세하게 설명된다. 도 9b의 방법(920)은, 뉴런으로 하여금:(ⅰ)주기적 업데이트들을 구현하게 하고; (ⅱ)(동기식 온-디맨드 업데이트들을 비롯한) 온-디맨드 업데이트들을 구현하게 하고; 접속 지연들, 접속 가중치들(예를 들어, 단기 및/또는 장기 가소성)을 비롯한(이것으로 제한되지 않음) 뉴런 입력 접속의 다양한 학습 파라미터들을 업데이트하게 한다. 더욱이 도 9b의 방법(920)은 (ⅰ)입력(예를 들어, 피드-포워드, 및/또는 피드백, 및/또는 측방향) 액티비티; 예를 들어, 외부 강화 신호, 버퍼 오버플로우, 타이머 등으로 인한 이벤트 트리거 기반 업데이트들 중 임의의 것에 기초한 시냅틱 업데이트들을 실시하게 하는 데에 사용될 수 있다.
방법(920)의 단계(922)에서, 접속 액티비티가 모니터링될 수 있고 입력들의 이력이 저장될 수 있다. 일부 구현들에서, 이력은 하나 또는 그보다 많은 접속들(예를 들어, 도 4의 접속들(414))을 통해 뉴런에 제공된 입력 스파이크들과 연관된 시간 스탬프(예를 들어, 시간 카운터 값, 클록 틱 카운트, 절대적 또는 상대적 로컬 시간)(글로벌 네트워크 클록 또는 로컬 노드 클록으로 언급됨) 등)를 포함할 수 있다. 하나 또는 그보다 많은 구현들에서, 입력 이력 기록은 전송 노드 ID를 포함할 수 있다. 하나 또는 그보다 많은 구현들에서, 입력 이력 기록은 입력 스파이킹 액티비티를 저장하도록 구성된 공유/로컬 큐에 대한 인덱스 엔트리들을 포함할 수 있다. 일부 구현들에서, 이력 기록은 순환식 메모리 버퍼에 저장될 수 있으며, 예를 들어, 공동 소유이며 공동 계류 중이며 2011년 9월 21일에 출원되었고 명칭이 "APPARATUS AND METHODS FOR SYNAPTIC UPDATE IN A PULSE-CODED NETWORK"인 미국 특허 출원 제13/239,255호[클라이언트 참조번호 BRAIN.008A](위에 포함되어 있음)에 설명된 바와 같다. 이러한 구현들에서, 버퍼는 주어진 클록 사이클에 대해 입력 스파이크들의 부재/존재를 나타내는 0과 1의 값들을 갖는 복수의 비트들(클록 사이클 당 1 비트)을 포함할 수 있다.
단계 924에서, 업데이트가 수행될 수 있는지를 결정하기 위해서 업데이트 표시가 체크될 수 있다. 일부 구현들에서, 표시는 네트워크 및/또는 뉴런 주기적 업데이트들을 위해 사용되는 다음 클록 틱 로컬/글로벌 클록을 포함할 수 있다. 하나 또는 그보다 많은 구현들에서, 이 표시는 다음 이벤트: 외부 트리거, 강화 신호, 버퍼 오버플로우 트리거/메시지 이벤트, 타이머 만기, 뉴런에 의해 생성된 응답(예를 들어, 도 5의 커브(544)에 의해 나타내어진 포스트 시냅틱 업데이트), 하나 또는 그보다 많은 접속들에 의해 통신된 입력(예를 들어, 도 5의 커브 542에 의해 나타내어진 프리-시냅틱 업데이트) 등 중 어느 것을 포함할 수 있으며, 이것으로 제한되지 않는다.
업데이트가 수행되는 경우, 단계 926에서, EDCC 컴포넌트들 ym(t)는 예를 들어, 도 6 내지 도 8을 참고로 하여 상술된 방법론들 중 임의의 것을 이용하여 계산될 수 있다. 일부 구현들에서, nT개의 컴포넌트들은 시간 간격(tup-T)을 커버하고 식 24를 사용하기 위해 계산될 수 있다.
단계 928에서, 접속 파라미터 변경(예를 들어, 가소성 업데이트)이 예를 들어, 식 25와 식 26을 이용하여 계산될 수 있다.
단계 929에서 뉴런 접속들의 학습 파라미터들(θij)이 적용가능한 방법론 중 임의의 것을 이용하여 업데이트될 수 있다.
도 9b와 관련하여 도시되고 설명된 방법(920)이, 다른 것들 중에서도, 예를 들어, 식 18의 시간-의존성 행렬 A(t)에 의해 설명되고 도 6의 패널(632)에 의해 예시된 바와 같이, 시간-의존성 역학을 포함하는 시냅틱 접속의 업데이트들을 구현하는 데에 사용될 수 있다.
하나 또는 그보다 많은 구현들에서, 시냅틱 접속은 시불변 상태 식을 포함할 수 있으므로, 상이한 시간 인스턴스들에서 식 18의 해들은, 예를 들어, 도 5의 패널(630)의 커브에 의해 예시된 바와 같이, 시간(tup-T)으로부터 시간들(tup-T+i△t)까지 결정된 하나의 해의 포워드 트랜슬레이션(전파)을 이용하여 결정될 수 있다. 그에 따라, 이러한 구현에서, 시간 간격(tup-T)에 대한 이벤트 의존성 접속 변경 컴포넌트들의 계산들은, 방법(920)의 단계 926에 의해 나타내어진 바와 같이 모든 업데이트에 대해 계산되는 대신, 네트워크 동작(또는 실행) 당 한번 수행될 수 있고 (접속 상태 변수 S(t)에 대한 시불변 조건이 유지되는 시간 기간 내의) 모든 후속 업데이트들에 대해 사용될 수 있다.
도 9c는, 하나 또는 그보다 많은 구현들에 따라서, 도 9a 및 도 9b에 도시된 방법들에 사용할 시냅틱 가중치들 업데이트들을 도시한다.
방법(930)의 단계 932에서, 이벤트-의존성 접속 변경 기저 벡터들 bm(t)의 세트가, 식 20 및 식 22에 대하여 상술된 바와 같이, 시간 간격(tup-T) 동안 계산될 수 있다.
단계 934에서 EDCC 컴포넌트들 ym(t)가 예를 들어, 기저 벡터들 bm(t)과 식 24에 대하여 오일러의 적분 방법을 이용함으로써 계산될 수 있다.
단계 936에서, 적격성 트레이스들 eij(t)가 예를 들어, 식 25에 의해 나타낸 바와 같이 EDCC 컴포넌트들 ym(t)의 선형 조합을 이용함으로써 계산될 수 있다.
단계 938에서, 접속 파라미터(θij) 조정(예를 들어, 가소성 업데이트)이 예를 들어, 식 6에 의해 나타낸 바와 같이 적격성 트레이스들 및 성능 함수를 이용하여 계산될 수 있다. 하나 또는 그보다 많은 구현들에서, 성능 함수는 공동 계류 중이고 공동 소유된 2012년 6월 4일에 출원되었고 명칭이 "APPARATUS AND METHODS FOR IMPLEMENTING GENERALIZED STOCHASTIC LEARNING RULES"인 미국 특허 출원 일련번호 제13/487,499호 [대리인 관리번호 021672-0405921, 클라이언트 참조번호 BC201202A](위에 포함되어 있음)에 상세하게 설명되어 있는 바와 같이 원하는 네트워크 출력과 실제 출력 간의 차이를 포함할 수 있다.
도 9d는, 하나 또는 그보다 많은 구현들에 따라 도 9a 내지 도 9c 및 도 9e에 예시된 방법들에 사용하기 위한 효율적인 동기식 및 즉시 접속 업데이트를 도시한다.
방법 940의 단계 942에서, 즉시 업데이트가 수행될지에 관한 결정이 이루어질 수 있다. 일부 구현들에서, 결정은 플래그(예를 들어, 플래그, 논리 상태, 메모리 레지스터 등)를 체크하는 것을 포함할 수 있다.
즉시 업데이트가 수행되는 경우, 방법(940)은 단계들 944, 946으로 진행하며, 이 단계들에서, 예를 들어, 앞의 도 8의 패널(820)에 의해 나타내어진 바와 같이 접속 파라미터 조정이 계산될 수 있고 M-접속들의 학습 파라미터들이 본원에 설명된 적용가능한 방법론들 중 임의의 것을 이용하여 조정될 수 있다. 일부 구현들에서, 즉시 업데이트는, 이를 테면, 도 9c의 방법 930에 대하여 설명된 바와 같이 이벤트에 응답하는 즉시 온-디맨드 업데이트를 포함할 수 있다.
동기식 업데이트가 수행되는 경우, 방법(940)은 단계 948로 진행하고, 이 방법이 다음 클록 증분까지 대기한다. 일부 구현들에서, 동기식 업데이트는, 이를 테면, 도 9c의 방법(930)에 대하여 설명된 바와 같이 그리고 예를 들어, 상기 도 8의 패널(830)에 의해 도시된 바와 같이 이벤트에 응답하여 온-디맨드 업데이트를 포함할 수 있다. 하나 또는 그보다 많은 구현들에서, 동기식 업데이트는, 예를 들어, 상기 도 8의 패널(800)에 의해 도시된 바와 같이, 이를 테면, 개별 클록 증분들에 응답하여 주기적 업데이트를 포함할 수 있다.
다음 클록 사이클의 발생 시, 방법은 상술된 단계들(944, 946)로 진행한다.
도 9e는, 하나 또는 그보다 많은 구현들에 따라, 도 9a 내지 도 9d에 도시된 효율적인 접속 업데이트 방법들에 사용하기 위한 업데이트 타입 선택 방법을 도시한다.
방법(950)의 단계 952에서, EDCC 컴포넌트들은 예를 들어, 도 6 내지 도 8에 대하여 상술된 방법론들 중 임의의 것을 이용하여 계산될 수 있다. 일부 구현들에서, 컴포넌트들 ym(t)을 계산하는 대신에 로컬 또는 글로벌 룩업 테이블(예를 들어, 테이블 2)이 사용될 수 있다.
단계 954에서 업데이트 타입이 선택될 수 있다. 하나 또는 그보다 많은 구현들에서, 접속 업데이트는 접속 가소성 조정(W)을 포함할 수 있다. 일부 구현들에서, 가소성 조정은 접속 가중치(w), 및 가소성 윈도우αi 중 하나 또는 둘 모두를 변경하는 것을 포함할 수 있다:
Figure pct00108
일부 구현들에서, 가소성 조정은 장기 접속 가중치 조정에 의해 실시되는 장기 가소성을 포함할 수 있다.
Figure pct00109
일부 구현들에서, 가소성 조정은 단기 접속 조정에 의해 실시되는 단기 가소성을 포함할 수 있다.
Figure pct00110
일부 구현들에서, 가소성 조정은 장기 및 단기 가소성 조정 둘 모두를 포함할 수 있다.
Figure pct00111
본원에 사용된 바와 같이, 용어 단기 및 장기 가소성은, 각각 장기 시간 스케일들(L)과 단기 시간 스케일들(S)에 따른 뉴런 역학에 대한 접속 기여에 영향을 미치도록 구성될 수 있는 접속 조정들을 설명하는 데에 사용될 수 있다. 하나 또는 그보다 많은 구현들에서, 단기 시간 스케일들(S)은 네트워크로 들어가는 현재 입력(예를 들어, 도 4의 네트워크(400)의 입력(402))과 연관된 시간 스케일들에 대응할 수 있다. 하나 또는 그보다 많은 구현들에서, 장기 시간 스케일들(L)은 네트워크로 들어가는 이전의 입력들(예를 들어, 도 4의 네트워크(400)의 입력(402)에 앞서, 과거에 언젠가 발생했을 수도 있는 입력)과 연관된 시간 스케일들에 대응할 수 있다. 하나 또는 그보다 많은 구현들에서, 단기 시간 스케일들(S)은 1ms 내지 1000ms에서 선택될 수 있는 반면에, 장기 시간 스케일들은 1초 내지 며칠에 걸쳐 선택될 수 있다.
예시적인 장치
(예를 들어, 상기 설명된 효율적인 접속 가소성 업데이트 메커니즘을 이용하는) 본원에 제시되는 하나 또는 그보다 많은 방법들을 포함하는 다양한 예시적인 스파이킹 네트워크 장치가 이제, 도 10 내지 도 11d에 대하여 설명된다.
적응형 프로세싱 장치
예를 들어, 효율적인 접속 가소성 업데이트 메커니즘을 포함하는 스파이킹 뉴럴 네트워크를 이용하는 감각적 정보(예를 들어, 시각, 오디오, 체성감각)의 프로세싱을 위한 하나의 장치가 도 10에 도시된다. 도시된 프로세싱 장치(1000)는 입력 감각적 신호(1020)를 수신하도록 구성된 입력 인터페이스를 포함할 수 있다. 일부 구현들에서, 이 감각적 입력은 이미징 센서 어레이(RGC들, 전하 결합식 디바이스(CCD), 또는 활성-픽셀 센서(APS)를 포함함)에 진입하는 전자기파들(예를 들어, 가시광, IR, UV 등)을 포함할 수 있다. 이 경우에 입력 신호는 수신기 장치를 통해 CCD 카메라로부터 수신되거나 파일로부터 다운로드된 이미지들의 시퀀스(이미지 프레임들)이다. 대안으로, 이미지는 24Hz 프레임 레이트에서 리프레시된 RGB 값들의 2차원 행렬이다. 당업자는, 상기 이미지 파라미터들이 단지 예시적이고, 많은 다른 이미지 리프리젠테이션들(예를 들어, 비트맵, CMYK, 그레이스케일 등) 및/또는 프레임 레이트들이 동일하게 본 발명에 유용하다는 것을 인식할 것이다.
장치(1000)는 입력 신호를 인코딩 신호로 변환(인코딩)(1026)하도록 구성된 인코더(1024)를 포함할 수 있다. 일 구현에서, 인코딩된 신호는 뉴런 거동을 모델링하도록 구성된 복수의 펄스들(펄스들의 그룹으로도 지칭됨)을 포함할 수 있다. 인코딩된 신호(1026)는 인코더(1024)로부터 다수의 접속들(전송 채널들, 통신 채널들 또는 시냅틱 접속)(1004)을 통해 하나 또는 그보다 많은 뉴로널 노드들(검출기들로도 지칭됨)(1002)로 통신될 수 있다.
도 10의 구현에서, 동일한 계층(hierarchical layer)의 상이한 검출기들이 "_n" 표시자에 의해 표시될 수 있어서, 예를 들어, 표시자(1002_1)가 층(1002)의 제 1 검출기를 나타낼 수 있다. 명료함을 위해서 단지 2개의 검출기들(1002_1, 1002_n)만 도 10의 실시형태에 도시되었지만, 인코더는 검출 장치 하드웨어 및 소프트웨어 제한들과 호환되는 임의의 수의 검출기 노드들에 결합될 수 있다는 것을 인식한다. 더욱이, 하나의 검출기 노드가 임의의 적절한 수의 인코더들에 결합될 수 있다.
일 실시형태에서, 검출기들(1002_1, 1002_n)의 개별적인 검출기들은, 통신 채널들(1008)을 통해 전송된 포스트-시냅틱 검출 신호들을 생성하기 위해, 예를 들어, 2010년 8월 26일 출원되고 명칭이 "SYSTEMS AND METHODS FOR INVARIANT PULSE LATENCY CODING"인 미국 특허 출원 제12/869,573호, 2010년 8월 26일 출원되고 명칭이 "INVARIANT PULSE LATENCY CODING SYSTEMS AND METHODS"인 미국 특허 출원 제 12/869,583호, 2011년 5월 26일 출원되고 명칭이 "APPARATUS AND METHODS FOR POLYCHRONOUS ENCODING AND MULTIPLEXING IN NEURONAL PROSTHETIC DEVICES"인 미국 특허 출원 제13/117,048호, [클라이언트 참조번호 BRAIN.006A] 2011년 6월 2일 출원되고 명칭이 "APPARATUS AND METHODS FOR PULSE-CODE INVARIANT OBJECT RECOGNITION"인 미국 특허 출원 제13/152,084호, [클라이언트 참조번호 BRAIN.001A](상기 특허 출원은 그 전체가 본원에 인용에 의해 포함된다)에 설명된 메커니즘들 중 예시적인 임의의 메커니즘을 이용하여, 인코딩된 신호(1004)의 펄스들의 미리결정된 패턴을 인식하도록 구성된 (소프트웨어 코드, 하드웨어 논리, 또는 이들의 조합으로서 구현될 수 있는) 논리를 포함한다. 도 10에서, 표시자들(1008_1, 1008_n)은 각각 검출기들(1002_1, 1002_n)의 출력을 나타낸다.
일 구현에서, 검출 신호들은 복잡한 객체 특징들과 객체들의 인식을 위한 (검출기들(1012_1, 1012_m, 1012_k)을 포함함) 검출기들(1012)의 다음 층으로 전달될 수 있으며, 이는 2011년 6월 2일에 출원되고 명칭이 "APPARATUS AND METHODS FOR PULSE-CODE INVARIANT OBJECT RECOGNITION"인 공동 소유이며 공동 계류 중인 미국 특허 출원 제13/152,084호[클라이언트 참조번호 BRAIN.0001A](그 전체가 인용에 의해 본원에 포함됨)에 설명된 예시적인 구현과 유사하다. 이 구현에서, 검출기들의 개별적인 후속 층들은 이전 검출기 층으로부터 신호들을 수신하고 (앞의 검출기 층에 의해 검출된 특징들과 비교하여) 더 복잡한 특징들과 객체들을 검출하도록 구성될 수 있다. 예를 들어, 에지 검출기들의 뱅크 다음에 바 검출기들의 뱅크, 그 다음엔 코너 검출기들의 뱅크 식으로 이어짐으로써, 장치에 의한 알파벳 인식을 가능하게 한다.
검출기들(1002)의 개별적인 검출기들은 상이한 전도 지연으로 검출기들(1012)로 전파할 수 있는 통신 채널들(1008_1, 1008_n)(적절한 레이턴시를 가짐) 상에 검출(포스트-시냅틱) 신호들을 출력할 수 있다. 도 10의 실시형태의 검출기 캐스케이드는, 다른 것들 중에서도, 검출 장치의 소프트웨어/하드웨어 리소스들 및 검출되고 있는 객체들의 복잡성에 의해 결정되는 임의의 적절한 수의 검출기 노드들 및 검출기 뱅크들을 포함할 수 있다.
도 10에 도시된 감각적 프로세싱 장치 구현은 측방향 접속들(1006)을 추가로 포함할 수 있다.
일부 구현들에서, 장치(1000)는, 도 10의 피드백 접속들(1014_1)에 의해 도시된 바와 같이, 콘텍스트 정보를 하나의 계층 내의 검출기로부터 이전 층들로 통신하도록 구성된 피드백 접속들(1014)을 포함할 수 있다. 일부 구현들에서, 피드백 접속(1014_2)은 인코더(1024)에 피드백을 제공하도록 구성될 수 있음으로써 감각적 입력 인코딩을 용이하게 하며, 공동 소유이며 공동 계류 중이고 2011년 6월 2일 출원되었으며 명칭이 "APPARATUS AND METHODS FOR PULSE-CODE INVARIANT OBJECT RECOGNITION"인 미국 특허 출원 제13/152,084호[클라이언트 참조번호 BRAIN.001A](위에 포함되어 있음)에서 상세하게 설명되어 있는 바와 같다.
컴퓨터화된 뉴로모픽 시스템
컴퓨터화된 스파이킹 네트워크를 동작시키기 위한 (그리고 앞에서 설명된 예시적인 효율적인 접속 가소성 업데이트 방법론을 구현하기 위한) 컴퓨터화된 뉴로모픽 프로세싱 시스템의 일 특정 구현이 도 11a에 도시된다. 도 11a의 컴퓨터화된 시스템(1100)은 인터페이스(1110), 예를 들어, 이미지 센서, 컴퓨터화된 스파이킹 레티나, 오디오 어레이, 터치-감응식 입력 디바이스 등을 포함할 수 있다. 입력 인터페이스(1110)는 입력 통신 인터페이스(1114)를 통해 프로세싱 블록(예를 들어, 하나의 또는 멀티-프로세서 블록)에 결합될 수 있다. 시스템(1100)은 뉴럴 상태들 및 접속 파라미터들(예를 들어, 도 5의 가중치들(526))을 저장하고 시냅틱 업데이트들을 용이하게 하도록 구성된 랜덤 액세스 메모리(RAM)(1108)를 포함할 수 있다. 일부 구현들에서, 예를 들어, 2011년 9월 21일에 출원되고 명칭이 "APPARATUS AND METHODS FOR SYNAPTIC UPDATE IN A PULSE-CODED NETWORK"인 미국 특허 출원 제13/239,255호, [클라이언트 참조번호 BRAIN.008A](위에서 인용에 의해 포함됨)에 제공된 설명에 따라 시냅틱 업데이트들이 수행될 수 있다.
일부 구현들에서, 메모리(1108)는 직접 접속(메모리 버스)(1116)을 통해 프로세서(1102)에 결합될 수 있다. 메모리(1108)는 또한 고속 프로세서 버스(1112)를 통해 프로세서(1102)에 결합될 수 있다.
시스템(1100)은, 다른 것들 중에서도, 스파이킹 뉴럴 네트워크 동작(예를 들어, 뉴런들의 동작 모델, 접속 가소성, 감각식 입력 인코딩 등)의 다양한 양상들을 구현하기 위해 구성된 컴퓨터 판독가능 명령들을 포함하는 비휘발성 저장 디바이스(1106)를 더 포함할 수 있다. 하나 또는 그보다 많은 구현들에서, 비휘발성 스토리지(1106)는, 예를 들어, 이전에 저장된 네트워크 구성을 나중에 이용하고 로딩하기 위해 네트워크 상태 스냅샷을 저장/로딩하거나, 또는 콘텍스트 스위칭을 구현(예를 들어, 그 중에서도 특히, 접속 가중치들 및 업데이트 규칙들, 뉴로널 상태들 및 학습 규칙들 등을 포함하는 현재 네트워크 구성을 절감함)할 경우 뉴런들 및 접속들의 상태 정보를 저장하기 위해 사용될 수 있다.
일부 구현들에서, 컴퓨터화된 장치(1100)가 I/O 인터페이스(1120), 이를 테면, 컴퓨터 I/O 버스(PCI-E), 유선(예를 들어, 이더넷) 또는 무선(예를 들어, Wi-Fi) 네트워크 접속을 경유하여 하나 또는 그보다 많은 외부 프로세싱/저장/입력 디바이스들에 결합될 수 있다.
일부 구현들에서, 입력/출력 인터페이스는 사용자 명령들을 수신하고 인식하도록 구성된 스피치 입력(예를 들어, 마이크로폰) 및 스피치 인식 모듈을 포함할 수 있다.
당업자는, 다양한 프로세싱 디바이스들이 싱글 코어/멀티코어 CPU, DSP, FPGA, GPU, ASIC 이들의 조합들, 및/또는 다른 프로세서들(이것으로 제한되지 않음)을 포함하는 컴퓨터화된 시스템(1100)에 사용될 수 있다는 것을 인식할 것이다. 다양한 사용자 입력/출력 인터페이스들이, 예를 들어, LCD/LED 모니터, 터치-스크린 입력 및 디스플레이 디바이스, 스피치 입력 디바이스, 스타일러스, 라이트 펜, 트랙볼 등을 포함하는 본 발명의 실시형태들에 유사하게 적용가능할 수 있다.
이제, 도 11b를 참고하면, 스파이킹 네트워크에서 효율적인 접속 가소성 업데이트 메커니즘을 구현하도록 구성된 뉴로모픽 컴퓨터화된 시스템의 일 구현이 상세하게 설명된다. 도 11b의 뉴로모픽 프로세싱 시스템(1130)은 복수의 프로세싱 블록들(마이크로-블록들)(1140)을 포함할 수 있으며, 개개의 마이크로 코어들은 컴퓨팅 로직 코어(1132)와 메모리 블록(1134)을 포함할 수 있다. 로직 코어(1132)는 다양한 양상들의 뉴로널(neuronal) 노드 동작, 이를 테면, 노드 모델, 및 시냅틱 업데이트 규칙들(예를 들어, I-STDP) 및/또는 다른 네트워크 동작 관련 태스크들을 구현하도록 구성될 수 있다. 메모리 블록은, 다른 것들 중에서도, 접속들(1138)의 뉴로널 상태 변수들 및 접속 파라미터들(예를 들어, 가중치들, 지연들, I/O 맵핑)을 저장하도록 구성될 수 있다.
마이크로-블록들(1140)은 접속들(1138) 및 라우터들(1136)을 이용하여 서로 상호접속될 수 있다. 당업자가 인식하는 바와 같이, 도 11b의 접속 레이아웃은 예시적이고, 많은 다른 접속 구현들(예를 들어, 하나 대 모두, 모두 대 모두 등)이 본 개시와 호환가능하다.
뉴로모픽 장치(1130)는 인터페이스(1142)를 통해 입력(예를 들어, 시각적 입력)을 수신하도록 구성될 수 있다. 하나 또는 그보다 많은 구현들에서, 예를 들어, 컴퓨터화된 스파이킹 레티나(retina) 또는 이미지 어레이와의 인터페이싱에 적용가능 한, 장치(1130)는 인터페이스(1142)를 통해 피드백 정보를 제공하여 입력 신호의 인코딩을 용이하게 할 수 있다.
뉴로모픽 장치(1130)는 인터페이스(1144)를 통해 출력(예를 들어, 인식된 객체 또는 특징의 표시, 또는 예를 들어, 이미지 어레이를 주밍/패닝하기 위한 모터 커맨드)을 제공하도록 구성될 수 있다.
하나 또는 그보다 많은 구현들에서, 장치(1130)는 고 대역폭 메모리 인터페이스(1148)를 통해 외부 고속 응답 메모리(예를 들어, RAM)와 인터페이싱할 수 있음으로써, 중간 네트워크 동작 파라미터들(예를 들어, 스파이크 타이밍 등)의 저장을 가능하게 한다. 장치(1130)는 또한, 프로그램 로딩, 동작 모드 변경, 및 리타겟팅을 용이하게 하기 위해서 하부 대역폭 메모리 인터페이스(1146)를 통해 외부 저속 메모리(예를 들어, 플래시, 또는 자기(하드 드라이브))와 인터페이싱할 수 있으며, 현재 태스크에 대한 네트워크 노드와 접속 정보가 나중 사용을 위해 저장되고 플러쉬되고, 이전에 저장된 네트워크 구성이 그 해당 위치로 로딩된다.
도 11c는 위에서 도 11b에 대하여 설명된 마이크로-블록들(공유된 것(1140)에 결합된 아키텍처)을 포함하는 공유식 버스 뉴로모픽 컴퓨터화된 시스템의 하나 또는 그보다 많은 구현들을 도시한다. 마이크로-블록들(1140)을 서로 상호접속시키기 위해서 도 11c의 장치(1145)가 하나의 (또는 그보다 많은) 공유 버스(1146)에 사용된다.
도 11d에는 스파이킹 네트워크에서 효율적인 접속 가소성 업데이트 메커니즘을 구현하도록 구성된 셀-기반 뉴로모픽 컴퓨터화된 시스템 아키텍처의 일 구현들이 상세하게 설명된다. 도 11d의 뉴로모픽 시스템(1150)은 프로세싱 블록들(셀들 블록)의 계층을 포함할 수 있다. 일부 구현들에서, 장치(1150)의 최저 레벨 L1 셀(1152)은 논리 및 메모리를 포함할 수 있고 도 11b에 도시된 장치의 마이크로 블록(1140)에 유사하게 구성될 수 있다. 다수의 셀 블록들이 클러스터들에 배열되고 로컬 상호접속들(1162, 1164)이 서로 통신할 수 있다. 이러한 클러스터들의 개별적인 클러스터들이 도 11d에서 1154로 나타내어진 상위 레벨 셀, 예를 들어, 셀 L2를 형성할 수 있다. 유사하게 몇 개의 L2 클러스터들이 제 2 레벨 상호접속(1166)을 통해 서로 통신하고 도 11d에서 1156으로 나타내어진 슈퍼-클러스터(L3)를 형성할 수 있다. 슈퍼-클러스터들(1154)은 제 3 레벨 상호접속(1168)을 통해 통신할 수 있고 다음 레벨 클러스터를 형성할 수 있는 식이다. 당업자는, 4개의 셀들-퍼-레벨(cells-per-level)을 포함하는 장치(1150)의 계층 구조는 단지 하나의 예시적인 구현일 뿐이고, 다른 구현들은 레벨당 더 많거나 더 적은 셀들을, 그리고/또는 더 적거나 더 많은 레벨들 당 더 많거나 더 적은 셀들을 포함할 수 있다는 것을 인식할 것이다.
장치(1150)의 상이한 셀 레벨들(예를 들어, L1, L2, L3)은 다양한 레벨의 복합성 기능을 수행하도록 구성될 수 있다. 일 구현에서, 상이한 L1 셀들은 시각 입력의 상이한 부분들을 동시에 프로세싱(예를 들어, 상이한 프레임 매크로-블록들을 인코딩함)할 수 있고, L2, L3 셀들은 점진적으로 더 높은 레벨 기능(예를 들어, 에지 검출, 객체 검출)을 수행한다. 또한, 상이한 L2, L3 셀들은, 예를 들어, 로봇을 동작시키는 상이한 양상들을 수행할 수 있으며, 하나 또는 그보다 많은 L2/L3 셀들이 카메라로부터의 시각적 데이터를 프로세싱하고, 다른 L2/L3 셀들이 객체를 추적하는 렌즈 모션을 구현하거나 렌즈 안정화 기능들을 수행하기 위한 모터 제어 블록을 동작시킨다.
뉴로모픽 장치(1150)는 인터페이스(1160)를 통해 입력(예를 들어, 시각적 입력)을 수신할 수 있다. 하나 또는 그보다 많은 구현들에서, 예를 들어, 컴퓨터화된 스파이킹 레티나 또는 이미지 어레이와의 인터페이싱에 적용가능한, 장치(1150)는 인터페이스(1160)를 통해 피드백 정보를 제공하여 입력 신호의 인코딩을 용이하게 할 수 있다.
뉴로모픽 장치(1150)는 인터페이스(1170)를 통해 출력(예를 들어, 인식된 객체 또는 특징의 표시, 또는 예를 들어, 이미지 어레이를 주밍/패닝하는 모터 커맨드)을 제공할 수 있다. 일부 구현들에서, 장치(1150)는 하나의 I/O 블록(미도시)을 이용하여 I/O 기능 모두를 수행할 수 있다.
하나 또는 그보다 많은 구현들에서, 장치(1150)는 고 대역폭 메모리 인터페이스(미도시)를 통해 외부 고속 응답 메모리(예를 들어, RAM)와 인터페이싱할 수 있음으로써, 중간 네트워크 동작 파라미터들(예를 들어, 스파이크 타이밍 등)의 저장을 가능하게 한다. 하나 또는 그보다 많은 구현들에서, 장치(1150)는 또한, 프로그램 로딩, 동작 모드 변경, 및 리타겟팅을 용이하게 하기 위해서 하부 대역폭 메모리 인터페이스(미도시)를 통해 외부 저속 메모리(예를 들어, 플래시, 또는 자기(하드 드라이브))와 인터페이싱할 수 있으며, 현재 태스크에 대한 네트워크 노드와 접속 정보가 나중 사용을 위해 저장되고 플러쉬되고, 이전에 저장된 네트워크 구성이 그 해당 위치로 로딩될 수 있다.
시뮬레이션 결과들
도 12는 상술된 효율적인 접속 업데이트 방법론을 구현하도록 구성된 예시적인 컴퓨터화된 스파이킹 네트워크 장치의, 본원의 양수인에 의해 시뮬레이트되고 테스팅되는 동안 획득된 결과들을 나타낸다. 일 구현에서, 예시적인 장치는 앞의 도 4에 대하여 상세하게 설명된 스파이킹 뉴럴 네트워크(400)를 포함할 수 있다.
도 12는 M=100개의 접속을 포함하는 뉴런에 대해 계산된 EDCC(event-dependent connection change) 컴포넌트들을 도시한다. 이 접속 상태 감쇠 시간 스케일 T가 20ms에서 선택될 수 있고 네트워크는 1ms 간격들에서 동기식 주기적 업데이트들을 이용하여 업데이트되었다. 이 구현의 업데이트 프로세스는 식 19의 상태-의존성 적격성 트레이스들을 이용하여 구성될 수 있으며, 항 Q(i)Si(t)가 식 17을 이용하여 구성될 수 있다.
트레이스들(1202, 1204, 1206, 1208, 1210, 1212)은 도 13a-13d의 HLND 리스팅에 기술된 부동 변수에 해당하는 LUT 내부 EDCC 컴포넌트들의 시간 변화를 도시한다.
본 발명의 특정 양상들의 예시적인 용도 및 응용들
본원에 설명된 방법론은, 유익하게도, 많은 시냅틱 접속을 포함하는 스파이킹 뉴런에 대한 시냅틱 업데이트들을 구현하기 위해 요구될 수 있는 계산들의 수에 있어서의 실질적인 감소를 제공한다. 본 개시의 효율적인 업데이트 방법론은 뉴런의 M개의 시냅스들 모두를 업데이트하기 위해서 C×nT의 연산들과 M×nT의 메모리 위치들을 요구하며, nT는 통상적으로 2 내지 50의 범위일 수 있다. 뉴런 당 100 내지 10,000개의 통상의 시냅스 밀도의 경우, 이는 종래 기술과 비교하여, 계산들의 수에서 5 내지 500 배의 감소에 해당할 수 있다. 시냅틱 업데이트들에 필요한 계산들의 수는, 온-디맨드 업데이트들을 구현하고 그리고/또는 네트워크 동작을 시간-간격들로 분할함으로써 훨씬 더 감소될 수 있으며, 시냅스 역학은 반-고정식(semi-stationary)(시불변)일 수 있으므로 EDCC 컴포넌트들이 세그먼트 당 한번 계산될 수 있다.
효율적인 업데이트 방법론은 유리하게도, (ⅰ) 네트워크를 동작시키는데 요구되는 뉴로모픽 장치의 비용, 복잡성, 크기 및 전력 소모에서의 감소; 및/또는 (ⅱ) 장치 스루풋들을 증가시킴으로써 네트워크들의 더 높은 시냅스 밀도를 가능하게 하는 것에 대해 트레이드될 수 있다.
하나 또는 그보다 많은 구현들에서, 본 개시의 효율적인 업데이트 장치는 (예를 들어, 디지털 프로세서를 포함하는) 컴퓨터화된 뉴럴 네트워크 장치에 의해 실행되도록 구성된 소프트웨어 라이브러리로서 구현될 수 있다. 일부 구현들에서, 일반 학습 장치는 특수 하드웨어 모듈(예를 들어, 임베딩된 프로세서 또는 제어기)을 포함할 수 있다. 일부 구현들에서, 스파이킹 네트워크 장치는 특수 또는 범용 집적 회로(예를 들어, ASIC, FPGA 및/또는 PLD)에서 구현될 수 있다. 본 개시를 고려해 볼 때, 당업자들에 의해 인식될 수많은 다른 구현들이 존재할 수 있다.
유리하게도, 본 개시는 산업 제어, 적응형 신호 프로세싱, 네비게이션, 및 로보틱스(이것으로 제한되지 않음)를 포함한 제어 애플리케이션들의 광범위한 구색에 대한 제어 태스크들을 단순화하고 개선시키는 데에 사용될 수 있다. 본 개시의 예시적인 구현들은 보철 디바이스(이를 테면, 의족), 산업 제어, 자율적이고 로봇식인 장치, HVAC, 및 정확한 안정화, 세팅-포인트 제어, 궤도 추적 기능 또는 다른 제어 타입들을 필요로 하는 다른 전기기계 디바이스들(이것으로 제한되지 않음)을 포함한 다양한 디바이스들에 유용할 수 있다. 이러한 로봇식 디바이스들의 예들은 제조 로봇들(예를 들어, 자동차), 군사 디바이스들, 및 의료 디바이스들(예를 들어, 수술 로봇들용)을 포함할 수 있다. 자율적 네비게이션의 예들은 로버들(예를 들어, 외계, 수중, 유해 탐사 환경), 무인 비행체, 수중 차량, 스마트 기기들(예를 들어, ROOMBA®) 및/또는 로봇식 토이들을 포함할 수 있다. 본 개시는, 유리하게도, 머신 비전, 패턴 검출 및 패턴 인식, 객체 분류, 신호 필터링, 데이터 분할, 데이터 압축, 데이터 마이닝, 최적화 및 스케줄링, 및/또는 컴플렉스 맵핑을 포함한 적응형 신호 프로세싱 시스템들(예를 들어, 인공 뉴럴 네트워크들을 포함함)의 모든 다른 응용들에 사용될 수 있다.
본 개시의 특정 양상들이 방법의 단계들의 특정 시퀀스에 관하여 설명되었지만, 이러한 설명은 단지 본 발명의 광범위한 방법들의 예시일 뿐이고, 특정 응용에 의해 요구되는 것으로서 수정될 수 있다는 것을 인식할 것이다. 특정 단계들은 특정 환경들 하에서 불필요하거나 선택적인 것이 될 수 있다. 추가적으로, 단계들 또는 기능이 개시된 구현들에 대해 추가될 수 있거나, 2개 또는 그보다 많은 단계들의 수행 순서가 교환될 수 있다. 이러한 모든 변형들은 본원에 개시된 개시와 청구범위 내에 포함되는 것으로 간주된다.
앞의 상세한 설명이 본 개시의 신규한 특징들을 다양한 구현들에 적용되는 것으로 도시되고, 설명되고, 지적되었지만, 예시된 디바이스 또는 프로세스의 형태와 상세들에서의 다양한 생략, 치환, 및 변경들이 본 개시로부터 벗어나지 않고 당업자에 의해 이루어질 수 있다는 것을 이해될 것이다. 앞의 설명은 본 발명을 실행하기 위해 현재 예상되는 최선의 모드이다. 본 설명은 제한하는 것으로 여겨지지 않으며, 오히려 본 발명의 일반 원리들의 예시인 것으로 취해져야 한다. 본 개시의 범위는 청구범위들을 참고하여 결정되어야 한다.

Claims (24)

  1. 명령들을 포함하는 컴퓨터 판독가능 저장 매체로서,
    상기 명령들은, 프로세서에 의해, 스파이킹 뉴런의 복수의 접속들의 학습 파라미터들의 업데이트를 구현하기 위한 방법을 수행하도록 실행가능하고,
    상기 방법은,
    시간 간격들로 업데이트되도록 구성되는 프로세스에 따라 상기 뉴런을 동작시키는 단계;
    상기 복수의 접속들을 통해 상기 뉴런에 제공되는 하나 또는 그보다 많은 입력들의 시간 이력을 저장하는 단계 ―주어진 입력의 상기 시간 이력은, 상기 주어진 입력이 발생한 시각을 기술하고(descriptive), 상기 시간 이력을 저장하는 단계는 복수의 시간 간격들을 포함하는 시간 윈도우 내에서 수행됨―;
    상기 업데이트가 수행될지를 전달하는 표시(indication)를 수신하는 단계;
    상기 표시에 응답하여, 복수의 IDCC들(input-dependent connection change components)을 결정하는 단계 ―상기 복수의 IDCC 컴포넌트들의 개별적인 컴포넌트들은, 상기 복수의 시간 간격들의 개별적인 시간 간격들과 연관되고, 상기 복수의 IDCC 컴포넌트들은 상기 표시의 시간에 기초하고, 상기 하나 또는 그보다 많은 입력들의 개별적인 입력들의 시간은 상기 복수의 시간 간격들의 개별적인 시간 간격들에 대응함―; 및
    상기 학습 파라미터들을 조정함으로써 상기 업데이트를 실시하는 단계를 포함하고,
    상기 조정은 상기 복수의 IDCC 컴포넌트들에 기초하여 결정되는,
    컴퓨터 판독가능 저장 매체.
  2. 제 1 항에 있어서,
    상기 업데이트는 복수의 적격성 트레이스들(eligibility traces)의 결정을 더 포함하고, 상기 복수의 적격성 트레이스들의 개별적인 적격성 트레이스들은, 상기 복수의 접속들 중 주어진 접속과 연관되고, 상기 복수의 접속들 중 상기 주어진 접속에 대해 상기 하나 또는 그보다 많은 입력들 중 적어도 하나의 발생의 임시 기록을 포함하고; 그리고
    상기 복수의 적격성 트레이스들의 결정은 상기 복수의 IDCC 컴포넌트들의 각각의 IDCC 컴포넌트들의 적분에 기초하여 실시되는, 컴퓨터 판독가능 저장 매체.
  3. 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법으로서,
    상기 방법은, 컴퓨터 프로그램 모듈들을 실행하도록 구성되는 하나 또는 그보다 많은 프로세서들에 의해 수행되고,
    상기 방법은,
    상기 복수의 데이터 인터페이스들을 통해 제공될 수 있는 하나 또는 그보다 많은 데이터 항목들의 시간 기록을 저장하는 단계 ―주어진 데이터 항목의 상기 시간 기록은 상기 주어진 데이터 항목이 발생한 시각을 기술함―;
    업데이트가 수행될지를 전달하는 표시에 기초하여 복수의 파라미터들을 업데이트하는 단계를 포함하고,
    상기 복수의 파라미터들은, 상기 복수의 데이터 인터페이스들과 연관되고, 상기 업데이트는,
    상기 복수의 파라미터들의 이전의 값들을 판독하는 것;
    상기 복수의 파라미터들의 업데이트된 값들을 결정하는 것; 및
    상기 복수의 파라미터들의 상기 업데이트된 값들을 저장하는 것을 포함하고,
    상기 업데이트된 값들을 결정하는 것은 상기 시간 기록의 적어도 일부에 기초하고, 상기 시간 기록의 적어도 일부는 상기 표시 이전의 시간 간격을 커버하고; 그리고
    상기 업데이트된 값들을 결정하는 것은, 상기 하나 또는 그보다 많은 데이터 항목들의 수에 비례하는 동작들의 수를 포함하고, 상기 동작들의 수는, 상기 복수의 데이터 인터페이스들의 수와는 독립적인,
    컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  4. 제 3 항에 있어서,
    인터페이스 동적 프로세스에 따라 상기 복수의 데이터 인터페이스들의 개별적인 데이터 인터페이스들을 동작시키는 단계를 더 포함하고,
    상기 동적 프로세스는 시간 기간들에서 업데이트될 수 있는 동적 상태를 특징으로 하고, 상기 동적 프로세스는 감쇠 간격을 특징으로 하고;
    상기 시간 간격은, 적어도 감쇠 시간 윈도우의 기간을 커버하도록 구성되고
    업데이트된 값들을 결정하는 것은, 상기 표시 및 상기 시간 기록에 기초하여 복수의 인터페이스 변경 컴포넌트들을 획득하는 것을 더 포함하고, 상기 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은, 상기 시간 간격 윈도우 내에서 발생하는 하나 또는 그보다 많은 데이터 항목들로 인해, 상기 표시와 연관된 시간 인스턴스에서 실시되는 복수의 파라미터들의 개별적인 파라미터들의 변경을 특징으로 하도록 구성되는, 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  5. 제 4 항에 있어서,
    상기 컴퓨터화된 네트워크는 SNN(spiking neuron network)을 포함하고;
    상기 복수의 데이터 인터페이스들의 개별적인 데이터 인터페이스들은 상기 SNN의 시냅틱 접속들을 포함하고;
    상기 복수의 파라미터들의 개별적인 파라미터들은 각각의 시냅틱 접속의 시냅틱 가중치를 포함하고,
    상기 가중치는, 상기 시간 간격 내에서 상기 하나 또는 그보다 많은 데이터 항목들 중 일 데이터 항목의 발생에 적어도 기초하고; 그리고
    상기 감쇠 시간 윈도우는, 지수함수적 감쇠 윈도우의 지속기간 내에서 약 2.7배의 상기 가중치의 감소를 특징으로 하는 지수함수적 감쇠 윈도우를 포함하는, 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  6. 제 5 항에 있어서,
    상기 SNN은, 외부 신호를 특징으로 하는 학습 프로세스를 구현할 수 있고, 상기 학습 프로세스는 결과를 생성하도록 구성되고;
    상기 업데이트는, 상기 결과가 생성되는 것을 보조할 수 있고; 그리고
    상기 표시는 상기 외부 신호의 적어도 일부를 포함하는, 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  7. 제 4 항에 있어서,
    상기 복수의 파라미터들의 개별적인 파라미터들은, 상기 복수의 데이터 인터페이스들의 각각의 데이터 인터페이스와 연관된 접속 지연을 포함하고; 그리고
    상기 복수의 인터페이스 변경 컴포넌트들은 상기 복수의 데이터 인터페이스들의 업데이트를 제공할 수 있는, 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  8. 제 4 항에 있어서,
    시간 기간은 동일한 지속기간의 규칙적인 기간을 포함하고;
    상기 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은 표시 시간 인스턴스 이전에 정수의 지속기간들을 발생시키는 각각의 시간 기간과 연관되고; 그리고
    하나 또는 그보다 많은 인터페이스 변경 컴포넌트들은, (i) 각각의 시간 기간과 (ii)표시 시간 인스턴스 사이의 차이에 기초하여 결정되는, 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  9. 제 8 항에 있어서,
    상기 하나 또는 그보다 많은 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은, 상기 각각의 시간 기간 내에서 발생하는 상기 하나 또는 그보다 많은 데이터 항목들 중 적어도 하나의 데이터 항목과 연관되는, 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  10. 제 4 항에 있어서,
    상기 표시는, (i) 하나 또는 그보다 많은 데이터 항목들 중 일 데이터 항목의 발생, 또는 (ii) 현재의 업데이트 시간 기간의 만료를 나타내는 타이머 이벤트 중 하나 또는 둘 모두에 기초하는, 컴퓨터화된 네트워크에서 복수의 데이터 인터페이스들을 동작시키는 컴퓨터-구현 방법.
  11. 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템으로서,
    상기 시스템은,
    하나 또는 그보다 많은 동작들을 수행하기 위해 하나 또는 그보다 많은 컴퓨터 프로그램 모듈들을 실행하도록 구성되는 하나 또는 그보다 많은 프로세서들을 포함하고,
    상기 하나 또는 그보다 많은 동작들은,
    시간 간격들로 업데이트될 수 있는 노드 동적 프로세스에 따라 노드를 동작시키는 것; 및
    업데이트가 수행될지를 전달하는 표시에 기초하여, 상기 복수의 통신 인터페이스들과 연관된 복수의 파라미터들의 업데이트를 실시함으로써 상기 계산 부하를 감소시키는 것
    을 포함하고,
    상기 업데이트는 상기 표시 이전에 상기 복수의 통신 인터페이스들 중 적어도 하나를 통해 통신되는 하나 또는 그보다 많은 데이터 항목들에 기초하고,
    상기 복수의 파라미터들의 업데이트는 동작들의 수를 포함하고, 상기 동작들의 수는 상기 복수의 통신 인터페이스들의 수와는 독립적인, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  12. 제 11 항에 있어서,
    상기 표시는 스파이킹 뉴런에 의해 생성되는 출력에 기초하는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  13. 제 11 항에 있어서,
    상기 복수의 데이터 인터페이스들의 개별적인 데이터 인터페이스들은, 안정된 평형을 특징으로 하는 선형 인터페이스 동적 프로세스에 따라 동작될 수 있고, 상기 안정된 평형은 상기 선형 인터페이스 동적 프로세스와 연관된 감쇠 시간 스케일을 갖는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  14. 제 13 항에 있어서,
    상기 복수의 파라미터들의 개별적인 파라미터들은 가중치를 포함하고, 상기 가중치는, 상기 감쇠 시간 스케일 내에서 상기 하나 또는 그보다 많은 데이터 항목들 중 일 데이터 항목의 발생에 기초하여 상기 노드의 상태를 변경할 수 있고; 그리고
    상기 업데이트는,
    (1) 상기 선형 인터페이스 동적 프로세스와 연관된 인터페이스 상태를, 복수의 정형화된(stereotypical) 컴포넌트들로 분해하는 것;
    (2) 상기 하나 또는 그보다 많은 데이터 항목들의 발생과 표시의 발생 사이의 시간차에 기초하여 상기 복수의 정형화된 컴포넌트들의 개별적인 정형화된 컴포넌트들을 결정하는 것; 또는
    (3) 상기 복수의 정형화된 컴포넌트들의 선형 조합 ―상기 선형 조합은 상기 하나 또는 그보다 많은 데이터 항목들의 발생 시각에 대응하는 상기 복수의 정형화된 컴포넌트들의 개별적인 정형화된 컴포넌트들의 값에 기초하여 결정되고, 상기 값은 감쇠 시간 스케일 및 상기 시간차에 따라서 디스카운트됨―
    중 하나 또는 그보다 많은 것에 기초하는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  15. 제 11 항에 있어서,
    상기 하나 또는 그보다 많은 컴퓨터 프로그램 모듈들의 개별적인 컴퓨터 프로그램 모듈들의 실행은 상기 하나 또는 그보다 많은 프로세서들로 하여금, 상기 하나 또는 그보다 많은 데이터 항목들이 상기 복수의 통신 인터페이스들을 통해 시간 윈도우 내에 제공되었던 시기를 전달하는 시간 이력을 저장하게 하고, 상기 시간 윈도우는 감쇠 시간 스케일과 동일하거나 더 긴, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  16. 제 15 항에 있어서,
    상기 컴포넌트들의 수는 2 내지 40 (2와 40을 포함함)에서 선택되고; 그리고
    상기 복수의 통신 인터페이스들의 수는 41 내지 100000 (41과 100000을 포함함)에서 선택되는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  17. 제 15 항에 있어서,
    상기 복수의 파라미터들의 업데이트는 상기 표시 및 상기 시간 이력에 기초하여 복수의 인터페이스 변경 컴포넌트들을 결정하는 것을 포함하고,
    상기 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은, 표시 시간 인스턴스 이전에 감쇠 윈도우 내에서 발생한 상기 하나 또는 그보다 많은 데이터 항목들에 응답하여 상기 표시와 연관된 표시 시간 인스턴스에서 실시되는 상태의 변경을 특징으로 하도록 구성되는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  18. 제 17 항에 있어서,
    선형 인터페이스 동적 프로세스는 시간 간격에 주기적으로 업데이트될 수 있고;
    상기 감쇠 윈도우는 상기 시간 간격들 중 둘 또는 그보다 많은 것을 포함하고;
    상기 복수의 인터페이스 변경 컴포넌트들을 결정하는 것은 룩-업 테이블을 통해 실시되고 ―상기 룩-업 테이블은 상기 시간 간격들 중 둘 또는 그보다 많은 것과 연관된 둘 또는 그보다 많은 엔트리들을 포함함―; 그리고
    상기 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은 상기 업데이트들의 개별적인 업데이트들에 대한 상기 룩-업 테이블의 결정을 경감시키기 위해 상기 시간 간격의 제 1 발생 이전에 상기 룩-업 테이블의 결정을 가능하기 하기 위해 상기 노드의 상태와는 무관하게 구성되는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  19. 제 17 항에 있어서,
    선형 인터페이스 동적 프로세스는 시간 간격에 주기적으로 업데이트될 수 있고;
    상기 감쇠 윈도우는 둘 또는 그보다 많은 상기 시간 간격들을 포함하고;
    상기 복수의 인터페이스 변경 컴포넌트들을 결정하는 것은 상기 시간 간격들 중 둘 또는 그보다 많은 것과 연관된 둘 또는 그보다 많은 엔트리들을 포함하는 룩-업 테이블을 통해 실시되고;
    상기 복수의 인터페이스 변경 컴포넌트들의 개별적인 인터페이스 변경 컴포넌트들은 상기 노드의 상태에 기초하여 구성되고; 그리고
    상기 룩-업 테이블은 상기 업데이트들 중 둘 또는 그보다 많은 것에 대해 결정되는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  20. 제 11 항에 있어서,
    상기 업데이트는 온-디맨드 업데이트를 포함하고; 그리고
    상기 표시는 이력의 저장과 연관된 버퍼 이벤트를 포함하는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  21. 제 11 항에 있어서,
    노드 상태 업데이트는 규칙적인 시간 간격으로 실시되는 주기적 업데이트를 특징으로 하고;
    상기 표시는 상기 규칙적인 시간 간격과 연관된 타이머 이벤트를 포함하는, 네트워크 노드의 상기 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  22. 제 11 항에 있어서,
    노드 상태 업데이트는 규칙적인 시간 간격으로 실시되는 주기적 업데이트를 포함하고; 그리고
    상기 표시는 상기 복수의 통신 인터페이스들 중 적어도 하나를 경유하여 통신된 상기 하나 또는 그보다 많은 데이터 항목들 중 상기 데이터 항목에 기초하는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  23. 제 22 항에 있어서,
    상기 업데이트는, 상기 하나 또는 그보다 많은 데이터 항목들의 상기 데이터 항목의 발생에 후속하여 다음 규칙적인 시간 간격이 발생할 때까지 지연되는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
  24. 제 11 항에 있어서,
    상기 노드 동적 프로세스는 결과를 발생시키도록 구성된 강화 학습 프로세스를 포함하고;
    상기 복수의 파라미터들의 상기 업데이트는 상기 결과가 발생되는 것을 보조할 수 있고; 그리고
    상기 표시는 노드 출력 대 상기 결과의 평가에 기초하여 생성된 강화 스파이크를 포함하는, 네트워크 노드의 복수의 통신 인터페이스들을 동작시키기 위해 계산 부하를 감소시키도록 구성되는 뉴럴 네트워크 시스템.
KR1020157004869A 2012-07-27 2013-07-25 스파이킹 뉴런 네트워크들에서 효율적인 업데이트들을 위한 장치 및 방법 KR101626444B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/560,891 2012-07-27
US13/560,891 US9256823B2 (en) 2012-07-27 2012-07-27 Apparatus and methods for efficient updates in spiking neuron network
PCT/US2013/052127 WO2014018793A1 (en) 2012-07-27 2013-07-25 Apparatus and methods for efficient updates in spiking neuron networks

Publications (2)

Publication Number Publication Date
KR20150038334A true KR20150038334A (ko) 2015-04-08
KR101626444B1 KR101626444B1 (ko) 2016-06-01

Family

ID=49995855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157004869A KR101626444B1 (ko) 2012-07-27 2013-07-25 스파이킹 뉴런 네트워크들에서 효율적인 업데이트들을 위한 장치 및 방법

Country Status (5)

Country Link
US (1) US9256823B2 (ko)
KR (1) KR101626444B1 (ko)
CN (1) CN104662526B (ko)
IN (1) IN2014MN02625A (ko)
WO (1) WO2014018793A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180068292A (ko) * 2016-12-13 2018-06-21 엑시스 에이비 뉴럴 네트워크 트레이닝을 위한 방법, 컴퓨터 제품 및 디바이스
KR20200002250A (ko) * 2018-06-29 2020-01-08 포항공과대학교 산학협력단 뉴럴 네트워크 하드웨어
KR20200076083A (ko) * 2018-12-19 2020-06-29 에스케이하이닉스 주식회사 오류 역전파를 이용하여 지도 학습을 수행하는 뉴로모픽 시스템
KR20210004346A (ko) * 2019-07-04 2021-01-13 한국과학기술연구원 뉴로모픽 장치 및 그 장치에서 수행되는 시그널링 방법
KR20210004342A (ko) * 2019-07-04 2021-01-13 한국과학기술연구원 뉴로모픽 장치
KR20210008150A (ko) * 2015-10-28 2021-01-20 구글 엘엘씨 연산 그래프 수정
KR20210064767A (ko) * 2019-11-26 2021-06-03 성균관대학교산학협력단 스파이킹 뉴런 모델 및 그의 스파이크 생성 방법

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US8315305B2 (en) 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US9152915B1 (en) 2010-08-26 2015-10-06 Brain Corporation Apparatus and methods for encoding vector into pulse-code output
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9047568B1 (en) 2012-09-20 2015-06-02 Brain Corporation Apparatus and methods for encoding of sensory data using artificial spiking neurons
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US20150127154A1 (en) * 2011-06-02 2015-05-07 Brain Corporation Reduced degree of freedom robotic controller apparatus and methods
US8990133B1 (en) 2012-12-20 2015-03-24 Brain Corporation Apparatus and methods for state-dependent learning in spiking neuron networks
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9070039B2 (en) 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US9104973B2 (en) 2011-09-21 2015-08-11 Qualcomm Technologies Inc. Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel
US9460387B2 (en) 2011-09-21 2016-10-04 Qualcomm Technologies Inc. Apparatus and methods for implementing event-based updates in neuron networks
US8725662B2 (en) 2011-09-21 2014-05-13 Brain Corporation Apparatus and method for partial evaluation of synaptic updates based on system events
US8725658B2 (en) 2011-09-21 2014-05-13 Brain Corporation Elementary network description for efficient memory management in neuromorphic systems
US9412064B2 (en) 2011-08-17 2016-08-09 Qualcomm Technologies Inc. Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update
US8719199B2 (en) 2011-09-21 2014-05-06 Brain Corporation Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules
US9390369B1 (en) * 2011-09-21 2016-07-12 Brain Corporation Multithreaded apparatus and methods for implementing parallel networks
US9098811B2 (en) 2012-06-04 2015-08-04 Brain Corporation Spiking neuron network apparatus and methods
US10210452B2 (en) 2011-09-21 2019-02-19 Qualcomm Incorporated High level neuromorphic network description apparatus and methods
US9146546B2 (en) 2012-06-04 2015-09-29 Brain Corporation Systems and apparatus for implementing task-specific learning using spiking neurons
US9213937B2 (en) 2011-09-21 2015-12-15 Brain Corporation Apparatus and methods for gating analog and spiking signals in artificial neural networks
US9117176B2 (en) 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
US9104186B2 (en) 2012-06-04 2015-08-11 Brain Corporation Stochastic apparatus and methods for implementing generalized learning rules
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US9156165B2 (en) 2011-09-21 2015-10-13 Brain Corporation Adaptive critic apparatus and methods
US9129221B2 (en) 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9256823B2 (en) 2012-07-27 2016-02-09 Qualcomm Technologies Inc. Apparatus and methods for efficient updates in spiking neuron network
US9256215B2 (en) 2012-07-27 2016-02-09 Brain Corporation Apparatus and methods for generalized state-dependent learning in spiking neuron networks
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US9189730B1 (en) 2012-09-20 2015-11-17 Brain Corporation Modulated stochasticity spiking neuron network controller apparatus and methods
US9373074B2 (en) * 2012-10-09 2016-06-21 Qualcomm Incorporated Method and apparatus for time management and scheduling for sychronous processing on a cluster of processing nodes
US9082079B1 (en) 2012-10-22 2015-07-14 Brain Corporation Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
US9195934B1 (en) 2013-01-31 2015-11-24 Brain Corporation Spiking neuron classifier apparatus and methods using conditionally independent subsets
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9552546B1 (en) * 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9959499B2 (en) * 2013-09-25 2018-05-01 Qualcomm Incorporated Methods and apparatus for implementation of group tags for neural models
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9672464B2 (en) 2014-02-28 2017-06-06 Qualcomm Incorporated Method and apparatus for efficient implementation of common neuron models
US20150269485A1 (en) * 2014-03-24 2015-09-24 Qualcomm Incorporated Cold neuron spike timing back-propagation
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10194163B2 (en) 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10055850B2 (en) 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
US10839302B2 (en) 2015-11-24 2020-11-17 The Research Foundation For The State University Of New York Approximate value iteration with complex returns by bounding
CN105371888B (zh) * 2015-11-27 2017-11-07 航天东方红卫星有限公司 一种基于机器视觉的卫星电连接器插接检验系统及方法
KR102565273B1 (ko) 2016-01-26 2023-08-09 삼성전자주식회사 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 학습 방법
US20170286829A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Event-driven Learning and Reward Modulation with Spike Timing Dependent Plasticity in Neuromorphic Computers
US11003984B2 (en) 2016-05-31 2021-05-11 Samsung Electronics Co., Ltd. Timing sequence for digital STDP synapse and LIF neuron-based neuromorphic system
US11238337B2 (en) * 2016-08-22 2022-02-01 Applied Brain Research Inc. Methods and systems for implementing dynamic neural networks
US20180053086A1 (en) * 2016-08-22 2018-02-22 Kneron Inc. Artificial neuron and controlling method thereof
US11741352B2 (en) * 2016-08-22 2023-08-29 International Business Machines Corporation Area and power efficient implementation of resistive processing units using complementary metal oxide semiconductor technology
US11501130B2 (en) * 2016-09-09 2022-11-15 SK Hynix Inc. Neural network hardware accelerator architectures and operating method thereof
US11281963B2 (en) 2016-09-26 2022-03-22 Intel Corporation Programmable neuron core with on-chip learning and stochastic time step control
CN106569478B (zh) * 2016-10-25 2019-07-02 西安兰海动力科技有限公司 用于自主水下航行器自动驾驶仪计算机测试的实时仿真装置
US11037054B2 (en) * 2016-12-20 2021-06-15 Intel Corporation Trace-based neuromorphic architecture for advanced learning
US10248906B2 (en) 2016-12-28 2019-04-02 Intel Corporation Neuromorphic circuits for storing and generating connectivity information
US10360478B2 (en) 2017-06-14 2019-07-23 Motorola Solutions, Inc. Systems and methods for inline object detection using a hue saturation value
US20190005377A1 (en) * 2017-06-30 2019-01-03 Advanced Micro Devices, Inc. Artificial neural network reduction to reduce inference computation time
WO2019125419A1 (en) * 2017-12-19 2019-06-27 Intel Corporation Device, system and method for varying a synaptic weight with a phase differential of a spiking neural network
US20200272883A1 (en) * 2017-12-19 2020-08-27 Intel Coporation Reward-based updating of synpatic weights with a spiking neural network
CN108470212B (zh) * 2018-01-31 2020-02-21 江苏大学 一种能利用事件持续时间的高效lstm设计方法
US11645501B2 (en) * 2018-02-28 2023-05-09 International Business Machines Corporation Distributed, event-based computation using neuromorphic cores
US11157810B2 (en) * 2018-04-16 2021-10-26 International Business Machines Corporation Resistive processing unit architecture with separate weight update and inference circuitry
CN111868749B (zh) * 2018-04-17 2024-02-27 赫尔实验室有限公司 用于计算条件概率的神经元网络拓扑
CN108830379B (zh) * 2018-05-23 2021-12-17 电子科技大学 一种基于参数量化共享的神经形态处理器
US10872293B2 (en) * 2018-05-29 2020-12-22 Deepmind Technologies Limited Deep reinforcement learning with fast updating recurrent neural networks and slow updating recurrent neural networks
CN108846349A (zh) * 2018-06-08 2018-11-20 电子科技大学 一种基于动态Spiking神经网络的人脸识别方法
EP3605401A1 (en) * 2018-07-31 2020-02-05 GrAl Matter Labs S.A.S. Data processing module, data processing system and data processing method
US20190042916A1 (en) * 2018-09-28 2019-02-07 Intel Corporation Reward-Based Updating of Synaptic Weights with A Spiking Neural Network to Perform Thermal Management
US11354572B2 (en) * 2018-12-05 2022-06-07 International Business Machines Corporation Multi-variables processing neurons and unsupervised multi-timescale learning for spiking neural networks
US11270195B2 (en) 2019-03-05 2022-03-08 International Business Machines Corporation Neuromorphic computing in dynamic random access memory
CN110111234B (zh) * 2019-04-11 2023-12-15 上海集成电路研发中心有限公司 一种基于神经网络的图像处理系统架构
US20210103801A1 (en) * 2019-10-03 2021-04-08 International Business Machines Corporation Artificial intelligence hardware with synaptic reuse
CN111815640B (zh) * 2020-07-21 2022-05-03 江苏经贸职业技术学院 一种基于忆阻器的rbf神经网络医学图像分割算法
WO2023091061A1 (en) * 2021-11-17 2023-05-25 Telefonaktiebolaget Lm Ericsson (Publ) Delay encoded vector symbolic radio multiple access
CN114724217B (zh) * 2022-04-07 2024-05-28 重庆大学 基于snn的边缘特征提取与面部表情识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004027704A1 (en) * 2002-09-20 2004-04-01 Ecole Polytechnique Federale De Lausanne (Epfl) Spiking neural network device
WO2010133401A1 (en) * 2009-05-21 2010-11-25 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using memory-switching elements
US20120084241A1 (en) * 2010-09-30 2012-04-05 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
US20120173471A1 (en) * 2010-12-30 2012-07-05 International Business Machines, Inc. Synaptic weight normalized spiking neuronal networks

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0349820B1 (de) * 1988-07-05 1995-04-19 Siemens Aktiengesellschaft Netzwerk -Baustein und Architektur für die programmierbare Emulation künstlicher neuronaler Netze mit digitaler Arbeitsweise
US5063603A (en) 1989-11-06 1991-11-05 David Sarnoff Research Center, Inc. Dynamic method for recognizing objects and image processing system therefor
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5355435A (en) 1992-05-18 1994-10-11 New Mexico State University Technology Transfer Corp. Asynchronous temporal neural processing element
US5673367A (en) 1992-10-01 1997-09-30 Buckley; Theresa M. Method for neural network control of motion using real-time environmental feedback
FI92361C (fi) 1992-12-14 1994-10-25 Nokia Telecommunications Oy Menetelmä kehysvälitysverkon ylikuormitustilanteiden hallitsemiseksi sekä kehysvälitysverkon solmu
RU2108612C1 (ru) 1994-09-14 1998-04-10 Круглов Сергей Петрович Адаптивная система управления с идентификатором и неявной эталонной моделью
US5845271A (en) 1996-01-26 1998-12-01 Thaler; Stephen L. Non-algorithmically implemented artificial neural networks and components thereof
US6009418A (en) 1996-05-02 1999-12-28 Cooper; David L. Method and apparatus for neural networking using semantic attractor architecture
PL338507A1 (en) 1997-06-11 2000-11-06 Univ Southern California Dynamic synapsis for processing signals in the network of nerve cells
JP4131340B2 (ja) 1997-07-11 2008-08-13 ソニー株式会社 制御装置、制御方法、および受信装置
US6458157B1 (en) 1997-08-04 2002-10-01 Suaning Gregg Joergen Retinal stimulator
US6581046B1 (en) 1997-10-10 2003-06-17 Yeda Research And Development Co. Ltd. Neuronal phase-locked loops
US6545705B1 (en) 1998-04-10 2003-04-08 Lynx System Developers, Inc. Camera with object recognition/data output
US20070094224A1 (en) 1998-05-28 2007-04-26 Lawrence Au Method and system for determining contextual meaning for network search applications
US6546291B2 (en) 2000-02-16 2003-04-08 Massachusetts Eye & Ear Infirmary Balance prosthesis
US7054850B2 (en) 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
US6910060B2 (en) 2001-05-21 2005-06-21 Computational Sensor Corp. Spatio-temporal filter and method
CN1273912C (zh) 2001-08-23 2006-09-06 索尼公司 机器人装置、面容识别方法和面容识别装置
US8156057B2 (en) 2003-03-27 2012-04-10 Knowm Tech, Llc Adaptive neural network utilizing nanotechnology-based components
US7426501B2 (en) 2003-07-18 2008-09-16 Knowntech, Llc Nanotechnology neural network methods and systems
US20060161218A1 (en) 2003-11-26 2006-07-20 Wicab, Inc. Systems and methods for treating traumatic brain injury
JP4780921B2 (ja) 2004-03-17 2011-09-28 キヤノン株式会社 並列パルス信号処理装置、及びその制御方法
JP2005352900A (ja) 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
US20060224533A1 (en) 2005-03-14 2006-10-05 Thaler Stephen L Neural network development and data analysis tool
US7420396B2 (en) 2005-06-17 2008-09-02 Knowmtech, Llc Universal logic gate utilizing nanotechnology
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units
CA2642041C (en) 2005-12-23 2014-07-15 Le Tan Thanh Tai Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
US7849030B2 (en) 2006-05-31 2010-12-07 Hartford Fire Insurance Company Method and system for classifying documents
RU2406105C2 (ru) 2006-06-13 2010-12-10 Филипп Геннадьевич Нестерук Способ обработки информации в нейронных сетях
JP4087423B2 (ja) 2006-10-17 2008-05-21 京セラミタ株式会社 携帯通信装置
US8103602B2 (en) 2006-12-29 2012-01-24 Neurosciences Research Foundation, Inc. Solving the distal reward problem through linkage of STDP and dopamine signaling
RU2459254C2 (ru) 2007-04-27 2012-08-20 Сименс Акциенгезелльшафт Способ компьютеризованного обучения одной или более нейронных сетей
CN101868803A (zh) * 2007-09-21 2010-10-20 科德博克斯计算机服务有限责任公司 神经元网络结构和操作神经元网络结构的方法
CN102056554A (zh) 2008-06-09 2011-05-11 百乐仕医疗器械有限公司 用于管状器官的医疗工具
US20100084479A1 (en) 2008-10-02 2010-04-08 Silverbrook Research Pty Ltd Position-coding pattern having tag coordinates encoded by bit-shifted subsequences of cyclic position code
US8160354B2 (en) 2008-12-26 2012-04-17 Five Apes, Inc. Multi-stage image pattern recognizer
US8200593B2 (en) 2009-07-20 2012-06-12 Corticaldb Inc Method for efficiently simulating the information processing in cells and tissues of the nervous system with a temporal series compressed encoding neural network
US8429107B2 (en) 2009-11-04 2013-04-23 International Business Machines Corporation System for address-event-representation network simulation
US8275727B2 (en) 2009-11-13 2012-09-25 International Business Machines Corporation Hardware analog-digital neural networks
US8311965B2 (en) 2009-11-18 2012-11-13 International Business Machines Corporation Area efficient neuromorphic circuits using field effect transistors (FET) and variable resistance material
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US8315305B2 (en) 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US8510239B2 (en) 2010-10-29 2013-08-13 International Business Machines Corporation Compact cognitive synaptic computing circuits with crossbar arrays spatially in a staggered pattern
CN102226740B (zh) 2011-04-18 2013-05-22 中国计量学院 基于外加周期信号控制随机共振的轴承故障检测方法
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US8712941B2 (en) 2011-09-21 2014-04-29 Brain Corporation Elementary network description for efficient link between neuronal models and neuromorphic systems
US8719199B2 (en) 2011-09-21 2014-05-06 Brain Corporation Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules
US9104973B2 (en) 2011-09-21 2015-08-11 Qualcomm Technologies Inc. Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel
US8725658B2 (en) 2011-09-21 2014-05-13 Brain Corporation Elementary network description for efficient memory management in neuromorphic systems
US8725662B2 (en) * 2011-09-21 2014-05-13 Brain Corporation Apparatus and method for partial evaluation of synaptic updates based on system events
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US9117176B2 (en) 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
US9104186B2 (en) 2012-06-04 2015-08-11 Brain Corporation Stochastic apparatus and methods for implementing generalized learning rules
US9098811B2 (en) 2012-06-04 2015-08-04 Brain Corporation Spiking neuron network apparatus and methods
US20130325774A1 (en) 2012-06-04 2013-12-05 Brain Corporation Learning stochastic apparatus and methods
US20130151450A1 (en) 2011-12-07 2013-06-13 Filip Ponulak Neural network apparatus and methods for signal conversion
US8712939B2 (en) 2011-09-21 2014-04-29 Brain Corporation Tag-based apparatus and methods for neural networks
US9146546B2 (en) 2012-06-04 2015-09-29 Brain Corporation Systems and apparatus for implementing task-specific learning using spiking neurons
US10210452B2 (en) 2011-09-21 2019-02-19 Qualcomm Incorporated High level neuromorphic network description apparatus and methods
US20130297539A1 (en) 2012-05-07 2013-11-07 Filip Piekniewski Spiking neural network object recognition apparatus and methods
US9129221B2 (en) 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9256215B2 (en) 2012-07-27 2016-02-09 Brain Corporation Apparatus and methods for generalized state-dependent learning in spiking neuron networks
US9256823B2 (en) 2012-07-27 2016-02-09 Qualcomm Technologies Inc. Apparatus and methods for efficient updates in spiking neuron network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004027704A1 (en) * 2002-09-20 2004-04-01 Ecole Polytechnique Federale De Lausanne (Epfl) Spiking neural network device
WO2010133401A1 (en) * 2009-05-21 2010-11-25 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using memory-switching elements
US20120084241A1 (en) * 2010-09-30 2012-04-05 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
US20120173471A1 (en) * 2010-12-30 2012-07-05 International Business Machines, Inc. Synaptic weight normalized spiking neuronal networks

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210008150A (ko) * 2015-10-28 2021-01-20 구글 엘엘씨 연산 그래프 수정
KR20180068292A (ko) * 2016-12-13 2018-06-21 엑시스 에이비 뉴럴 네트워크 트레이닝을 위한 방법, 컴퓨터 제품 및 디바이스
KR20200002250A (ko) * 2018-06-29 2020-01-08 포항공과대학교 산학협력단 뉴럴 네트워크 하드웨어
KR20200076083A (ko) * 2018-12-19 2020-06-29 에스케이하이닉스 주식회사 오류 역전파를 이용하여 지도 학습을 수행하는 뉴로모픽 시스템
KR20210004346A (ko) * 2019-07-04 2021-01-13 한국과학기술연구원 뉴로모픽 장치 및 그 장치에서 수행되는 시그널링 방법
KR20210004342A (ko) * 2019-07-04 2021-01-13 한국과학기술연구원 뉴로모픽 장치
KR20210064767A (ko) * 2019-11-26 2021-06-03 성균관대학교산학협력단 스파이킹 뉴런 모델 및 그의 스파이크 생성 방법

Also Published As

Publication number Publication date
US20140032458A1 (en) 2014-01-30
KR101626444B1 (ko) 2016-06-01
US9256823B2 (en) 2016-02-09
WO2014018793A1 (en) 2014-01-30
CN104662526A (zh) 2015-05-27
CN104662526B (zh) 2017-12-19
IN2014MN02625A (ko) 2015-10-16

Similar Documents

Publication Publication Date Title
KR101626444B1 (ko) 스파이킹 뉴런 네트워크들에서 효율적인 업데이트들을 위한 장치 및 방법
US9256215B2 (en) Apparatus and methods for generalized state-dependent learning in spiking neuron networks
US8990133B1 (en) Apparatus and methods for state-dependent learning in spiking neuron networks
US11331800B2 (en) Adaptive predictor apparatus and methods
US9189730B1 (en) Modulated stochasticity spiking neuron network controller apparatus and methods
US9367798B2 (en) Spiking neuron network adaptive control apparatus and methods
US9436908B2 (en) Apparatus and methods for rate-modulated plasticity in a neuron network
US9183493B2 (en) Adaptive plasticity apparatus and methods for spiking neuron network
US20150074026A1 (en) Apparatus and methods for event-based plasticity in spiking neuron networks
Johansson et al. Towards cortex sized artificial neural systems
US9224090B2 (en) Sensory input processing apparatus in a spiking neural network
US9129221B2 (en) Spiking neural network feedback apparatus and methods
US9098811B2 (en) Spiking neuron network apparatus and methods
US20130325774A1 (en) Learning stochastic apparatus and methods
Javanshir et al. Advancements in algorithms and neuromorphic hardware for spiking neural networks
Zhang et al. Event-driven intrinsic plasticity for spiking convolutional neural networks
US20130297539A1 (en) Spiking neural network object recognition apparatus and methods
US20150269481A1 (en) Differential encoding in neural networks
Frenkel et al. Bottom-up and top-down approaches for the design of neuromorphic processing systems: tradeoffs and synergies between natural and artificial intelligence
Galluppi et al. Real time on-chip implementation of dynamical systems with spiking neurons
EP3537344B1 (en) Signal processing method and device based on spiking neural network
CN111461862B (zh) 为业务数据确定目标特征的方法及装置
Wan et al. Memristor-based circuit design of episodic memory neural network and its application in hurricane category prediction
Shymyrbay et al. Low precision quantization-aware training in spiking neural networks with differentiable quantization function
Licata Are neural networks imitations of mind

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee