KR20230114149A - 스파이킹 뉴럴 네트워크의 타임스텝 세분화 기반의 조기 판단 학습 장치 및 그 동작방법 - Google Patents
스파이킹 뉴럴 네트워크의 타임스텝 세분화 기반의 조기 판단 학습 장치 및 그 동작방법 Download PDFInfo
- Publication number
- KR20230114149A KR20230114149A KR1020220031156A KR20220031156A KR20230114149A KR 20230114149 A KR20230114149 A KR 20230114149A KR 1020220031156 A KR1020220031156 A KR 1020220031156A KR 20220031156 A KR20220031156 A KR 20220031156A KR 20230114149 A KR20230114149 A KR 20230114149A
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- membrane potential
- membrane
- time step
- threshold value
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 9
- 238000012421 spiking Methods 0.000 title claims abstract description 8
- 239000012528 membrane Substances 0.000 claims abstract description 175
- 230000001133 acceleration Effects 0.000 claims abstract description 8
- 210000002569 neuron Anatomy 0.000 claims description 52
- 230000011218 segmentation Effects 0.000 claims description 35
- 239000000872 buffer Substances 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000009826 distribution Methods 0.000 claims description 10
- 239000013023 spike buffer Substances 0.000 claims description 8
- 238000013467 fragmentation Methods 0.000 abstract 3
- 238000006062 fragmentation reaction Methods 0.000 abstract 3
- 210000004027 cell Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005265 energy consumption Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 스파이킹 뉴럴 네트워크의 타입스텝 세분화 기반의 조기 판단 학습 장치 및 그 동작방법에 관한 것이다. 본 발명의 일 실시예에 있어서, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법은 타임스텝을 세분화하는 타임스텝 세분화 단계, 현재 학습 과정 동안의 세분화된 타임스텝 별 제1 및 제2 막전위를 측정하는 막전위 측정 단계, 상기 제1 및 제2 막전위에 기초하여 다음 학습 과정에서 사용될 임계값을 계산하는 임계값 계산 단계, 및 상기 세분화된 타임스텝에서 상기 제1 및 제2 막전위의 차이가 상기 임계값보다 큰 경우, 상기 이미지에 상기 학습 기여도가 없다고 판단하여 상기 세분화된 타임스텝에서의 학습을 종료하는 학습 조기 종료 단계를 포함할 수 있다.
Description
본 발명은 스파이킹 뉴럴 네트워크의 타입스텝 세분화 기반의 조기 판단 학습 장치 및 그 동작방법에 관한 것이다.
스파이킹 뉴럴 네트워크는 0과 1의 spike 단위로 정보를 입력받고, 전달하므로 하드웨어 구현에 있어 저전력의 장점이 있다. 또한 temporal coding의 도입으로 추론 과정의 spike 수가 감소해 추론 과정의 에너지를 크게 감소시켰다. 하지만 뉴럴 네트워크의 학습은 매우 많은 수의 학습 이미지에 대해 추론, 역전파, 가중치 업데이트의 학습 과정이 반복되기 때문에 에너지 소모와 시간이 매우 크다는 문제점이 있다.
본 발명은 타임스텝을 세분화하고 학습 이미지의 네트워크 기여도를 판단하여 학습 기여도가 없는 이미지 학습의 조기 종료를 통해 학습 에너지와 시간을 감소시킬 수 있는 타임스텝 세분화 기반의 조기 판단 학습 방법은 제공하는 것에 목적이 있다.
본 발명의 일 실시예에 있어서, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법은 타임스텝을 세분화하는 타임스텝 세분화 단계, 현재 학습 과정 동안의 세분화된 타임스텝 별 제1 및 제2 막전위를 측정하는 막전위 측정 단계, 상기 제1 및 제2 막전위에 기초하여 다음 학습 과정에서 사용될 임계값을 계산하는 임계값 계산 단계, 및 상기 세분화된 타임스텝에서 상기 제1 및 제2 막전위의 차이가 상기 임계값보다 큰 경우, 상기 이미지에 상기 학습 기여도가 없다고 판단하여 상기 세분화된 타임스텝에서의 학습을 종료하는 학습 조기 종료 단계를 포함할 수 있다.
본 발명의 일 실시예에 있어서, 상기 제1 막전위는 정답 뉴런의 막전위이고, 상기 제2 막전위는 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위일 수 있다.
본 발명의 일 실시예에 있어서, 상기 임계값 계산 단계는 수학식 1에 기초하여 상기 임계값을 계산하고, 상기 수학식 1은 a=m+2σ이고, 상기 a는 상기 임계값이고, 상기 m은 상기 학습 기여도가 있는 이미지의 막전위 차 분포의 평균이며, 상기 σ는 상기 학습 기여도가 있는 이미지의 막전위 차 분포의 편차일 수 있다.
본 발명의 일 실시예에 있어서, 상기 학습 조기 종료 단계는 수학식 2에 기초하여 상기 학습 기여도가 없는 이미지와 상기 학습 기여도가 있는 이미지의 경계를 설정하고, 상기 수학식 2는 y=x-a이고, 상기 a는 상기 이전 학습 과정에서 계산된 임계값이고, 상기 x는 상기 정답 뉴런의 막전위이고, 상기 y는 상기 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위일 수 있다.
본 발명의 일 실시예에 있어서, 상기 학습 조기 종료 단계는 상기 수학식 2로부터 변형된 수학식 3에 기초하여 상기 학습 기여도가 없는 이미지를 판단하고, 상기 수학식 3은 x-y≥a이고, 상기 a는 상기 이전 학습 과정에서 계산된 임계값이고, 상기 x는 상기 정답 뉴런의 막전위이고, 상기 y는 상기 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위일 수 있다.
본 발명의 일 실시예에 있어서, 상기 학습 조기 종료 단계는 상기 세분화된 타임스텝 별 상기 제1 및 제2 막전위, 및 상기 임계값을 상기 수학식 3에 대입하여 상기 수학식 3이 성립될 경우에 학습 기여도가 없는 이미지로 판단하여 상기 세분화된 타임스텝에서의 학습을 종료하고, 상기 세분화된 타임스텝 별 상기 제1 및 제2 막전위, 및 상기 임계값을 상기 수학식 3에 대입하여 상기 수학식 3이 성립되지 않을 경우에 학습 기여도가 있는 이미지로 판단하여 학습을 진행할 수 있다.
본 발명의 일 실시예에 있어서, 상기 세분화된 타임스텝은 하나의 타임스텝을 2개 내지 16개 중 하나로 세분화한 타임스텝일 수 있다.
본 발명의 일 실시예에 따른 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 스파이킹 뉴럴 네트워크의 입력 스파이크 신호가 입력되는 입력 레이어 모듈, 상기 입력 스파이크 신호를 입력받는 히든 레이어 모듈, 상기 히든 레이어 모듈로부터 입력 스파이크 신호를 전달받고, 학습 기여도가 없는 이미지를 판단하며, 상기 학습 기여도의 유무를 판단하기 위한 임계값을 계산하는 출력 레이어 모듈, 및 상기 출력 레이어 모듈이 판단한 상기 학습 기여도의 유무에 기초하여 학습 과정을 종료하는 글로벌 컨트롤러를 포함할 수 있다.
본 발명의 일 실시예에 있어서, 상기 히든 레이어 모듈은, 상기 입력 레이어 모듈로부터 입력 스파이크 신호를 전달받고, 입력 스파이크에 기초하여 복수 개의 뉴런들의 막전위를 계산하는 막전위 업데이트 모듈, 상기 입력 스파이크 신호의 입력에 기초하여 상기 입력 스파이크들의 가중치들을 상기 막전위에 더하는 가중치 업데이트 모듈, 상기 복수 개의 뉴런들의 막전위를 저장하는 막전위 버퍼, 및 상기 복수 개의 뉴런들의 스파이크 발생 시간을 저장하는 스파이크 시간 버퍼를 포함할 수 있다.
본 발명의 일 실시예에 있어서, 상기 출력 레이어 모듈은, 상기 히든 레이어 모듈로부터 상기 입력 스파이크 신호를 전달받는 스파이크 버퍼, 상기 스파이크 버퍼로부터 입력 스파이크 신호를 전달받고, 입력 스파이크에 기초하여 복수 개의 뉴런들의 막전위를 계산하는 막전위 업데이트 모듈, 상기 입력 스파이크 신호의 입력에 기초하여 상기 입력 스파이크들의 가중치들을 상기 막전위에 더하는 가중치 업데이트 모듈, 상기 복수 개의 뉴런들의 막전위를 저장하는 막전위 버퍼, 상기 복수 개의 뉴런들의 스파이크 발생 시간을 저장하는 스파이크 시간 버퍼, 학습 과정 중 순전파 과정이 모두 끝난 후의 상기 복수 개의 뉴런들의 스파이크 발생 시간과 목표하는 정답 신호와의 차이를 계산하는 에러 계산부, 상기 순전파 과정에서 각 타임스텝의 연산이 끝났을 때, 상기 학습 기여도가 없는 이미지를 판단하는 조기 판단부, 및 상기 순전파 과정이 모두 끝난 후에 다음 학습에서 사용될 임계값을 계산하는 임계값 계산부를 포함할 수 있다.
본 발명의 일 실시예에 잇어서, 상기 조기 판단부는 타임스텝에서 제1 및 제2 막전위의 차이가 상기 임계값보다 큰 경우, 상기 이미지에 상기 학습 기여도가 없다고 판단하여 상기 타임스텝에서의 학습을 종료할 수 있다.
본 발명의 일 실시예에 있어서, 상기 임계값 계산부는 상기 복수 개의 뉴런들의 막전위 중 제1 및 제2 막전위의 분포 데이터에 기초하여 다음 학습 과정에서 사용될 상기 임계값을 계산할 수 있다.
본 발명의 일 실시예에 있어서, 상기 제1 막전위는 정답 뉴런의 막전위이고, 상기 제2 막전위는 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위일 수 있다.
본 발명의 타임스텝 세분화 기반의 조기 판단 학습 방법은 타임스텝을 세분화하고 학습 이미지의 네트워크 기여도를 판단하여 학습 기여도가 없는 이미지 학습의 조기 종료를 통해 학습 에너지와 시간을 감소시킬 수 있다.
도 1은 학습 과정에 따른 학습 기여도가 없는 이미지의 비율을 보여주는 그래프이다.
도 2는 본 발명의 일 실시예에 따른 타임스텝 세분화 기반의 조기 판단 학습 가속 방법을 보여주는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 타임스텝 세분화 단계의 예를 보여주는 도이다.
도 4는 본 발명의 일 실시예에 따른 임계값을 계산하는 방법을 보여주는 도이다.
도 5는 본 발명의 일 실시예에 따른 학습 기여도가 없는 이미지를 판단하여 학습을 조기 종료하는 방법을 보여주는 도이다.
도 6은 본 발명의 일 실시예에 따른 세분화된 타임스텝에 대한 학습 조기 종료의 예를 보여주는 도이다.
도 7은 본 발명의 일 실시예에 따른 타임스텝 세분화 기반의 조기 판단 학습 가속 장치를 보여주는 도이다.
도 2는 본 발명의 일 실시예에 따른 타임스텝 세분화 기반의 조기 판단 학습 가속 방법을 보여주는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 타임스텝 세분화 단계의 예를 보여주는 도이다.
도 4는 본 발명의 일 실시예에 따른 임계값을 계산하는 방법을 보여주는 도이다.
도 5는 본 발명의 일 실시예에 따른 학습 기여도가 없는 이미지를 판단하여 학습을 조기 종료하는 방법을 보여주는 도이다.
도 6은 본 발명의 일 실시예에 따른 세분화된 타임스텝에 대한 학습 조기 종료의 예를 보여주는 도이다.
도 7은 본 발명의 일 실시예에 따른 타임스텝 세분화 기반의 조기 판단 학습 가속 장치를 보여주는 도이다.
이하, 본 출원의 기술적 사상을 본 출원의 기술분야에서 통상의 지식을 가진자가 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 출원의 실시 예를 첨부된 도면을 참조하여 설명하기로 한다.
도 1은 학습 과정에 따른 학습 기여도가 없는 이미지의 비율을 보여주는 그래프이다.
도 1을 참조하면, 복수 개의 데이터셋들을 이용하여 학습 과정에 따른 학습 기여도가 없는 이미지의 비율을 측정할 수 있다. 이때, x축은 학습 과정이고, y축은 복수 개의 데이터셋들 별로 학습 데이터 중 학습에 기여하지 않는 이미지의 비율일 수 있다. 복수 개의 데이터셋들은 MNIST, Fashion-MNIST, 및 ETH-80일 수 있다.
MNIST 데이터셋의 경우, 학습 세트의 크기가 60000개이고, 학습 과정에 따른 학습 기여도가 없는 이미지의 비율이 0.5라면 30000개의 학습 기여도가 없는 이미지가 존재할 수 있다.
Fashion-MNIST 데이터셋의 경우, 학습 세트의 크기가 60000개이고, 학습 과정에 따른 학습 기여도가 없는 이미지의 비율이 0.5라면 30000개의 학습 기여도가 없는 이미지가 존재할 수 있다.
ETH-80 데이터셋의 경우, 전체 3280개의 이미지로 이루어져 있다. 예를 들어, 이 중 80%인 2624개의 이미지가 학습 세트로 사용될 수 있고, 20%인 656개의 이미자가 추론 세트로 사용될 수 있다.
상술한 바와 같이, 종래의 기술에 기반한 스파이킹 뉴럴 네트워크의 학습 과정은 기여도가 없는 이미지의 비율이 크고, 학습이 진행됨에 따라 기여도가 없는 이미지의 양이 더욱 증가하는 것을 알 수 있다. 이와 같이, 학습 과정 중 기여도가 없는 이미지의 양이 증가할 경우 에너지 소모량이 증가하고 연산 시간이 오래 걸린다는 문제점이 있다.
도 2는 본 발명의 일 실시예에 따른 타임스텝 세분화 기반의 조기 판단 학습 가속 방법을 보여주는 순서도이다.
S10 단계에서, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 타임스텝을 세분화할 수 있다. 예를 들어, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 하나의 타임스텝을 2개 내지 16개 중 하나로 세분화할 수 있다.
S20 단계에서, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 막전위를 측정할 수 있다. 예를 들어, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 현재 학습 과정 동안의 세분화된 타임스텝 별 제1 및 제2 막전위를 측정할 수 있다.
이때, 제1 막전위는 정답 뉴런의 막전위이고, 제2 막전위는 복수 개의 막전위 중 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위일 수 있다.
S30 단계에서, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 임계값을 계산할 수 있다. 예를 들어, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 현재의 제1 및 제2 막전위의 분포 데이터에 기초하여, 다음 학습 과정에서 사용될 임계값을 계산할 수 있다. 이때, 임계값은 수학식 1에 기초하여 계산될 수 있으며, 이와 관련하여 구체적인 내용은 도 4에서 후술될 것이다.
S40 단계에서, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 세분화된 타임스텝에서 제1 및 제2 막전위의 차이가 상기 임계값보다 큰 경우, 이미지에 학습 기여도가 없다고 판단하여 세분화된 타임스텝에서의 학습을 종료할 수 있다. 이에 따라, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 학습 기여도가 없는 이미지에 대한 학습을 종료시킴으로써, 정확도 감소없이 연산량과 연산시간을 감소시킬 수 있다.
좀 더 자세하게, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 하나의 타임스텝을 세분화하여 학습 기여도가 없는 이미지에 대한 학습을 종료함으로써, 하나의 타임스텝에서 학습 기여도가 없는 이미지에 대한 학습을 종료시키는 것 보다 연산량과 연산시간을 감소시킬 수 있다.
도 3은 본 발명의 일 실시예에 따른 타임스텝 세분화 단계의 예를 보여주는 도이다.
도 3을 참조하면, 하나의 타임스텝은 16칸으로 구성되고, 16칸은 중 적어도 하나는 입력 스파이크를 가지고 있을 수 있다. 예를 들어, 도 3과 같이 하나의 타임스텝은 제1 내지 제16번째 칸을 포함하고, 제1, 제4, 제6, 제11, 제13번째 칸은 입력 스파이크를 가지고 있을 수 있다.
타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 하나의 타임스텝을 4개로 세분화할 수 있다.
이때, 제1 세분화 구역은 제1, 제3, 제9, 제11번째 칸을 포함하고, 제2 세분화 구역은 제2, 제4, 제10, 제12번째 칸을 포함하고, 제3 세분화 구역은 제5, 제7, 제13, 제15번째 칸을 포함하며, 제4 세분화 구역은 제6, 제8, 제14, 제16번째 칸을 포함할 수 있다.
다만, 상술한 내용은 하나의 예시일 뿐이며, 타임스텝은 2개 내지 16개로 세분화될 수 있다.
예를 들어, 타임스텝을 2개의 타임스텝으로 세분화할 경우에 제1 세분화 구역은 제1 내지 제8번째 칸을 포함하고, 제2 세분화 구역은 제9 내지 제16번째 칸을 포함할 수 있다.
다른 예로, 타임스텝을 2개의 타임스텝으로 세분화할 경우에 제1 세분화 구역은 제1, 제3, 제5, 제7, 제9, 제11, 제13, 제15번째 칸을 포함하고, 제2 세분화 구역은 제2, 제4, 제6, 제8, 제10, 제12, 제14, 제16번째 칸을 포함할 수 있다.
본 출원의 실시 예에 있어서, 설계자는 하드웨어의 구성에 따라 타임스텝의 세분화 개수를 적절히 설계할 수 있다. 예를 들어, 타임스텝의 세분화 개수를 늘리게 되면, 조기 판단을 더욱 수행할 수 있어 학습 가속 효과가 증가될 수 있다. 그러나, 타입스텝의 세분화 개수가 늘어날수록 하드웨어 측면에서는 조기 판단 모듈이 자주 동작하여야 하기 때문에, 추가적인 에너지 소모가 발생할 수 있다. 따라서, 설계자는 하드웨어 구성 및 성능을 고려하여 타임스텝의 개수를 적절히 설계할 수 있다.
도 4는 본 발명의 일 실시예에 따른 임계값을 계산하는 방법을 보여주는 도이다.
도 4를 참조하면, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 학습 과정 동안 학습 기여도가 있는 이미지(NZL images)와 학습 기여도가 없는 이미지(ZL images)를 가우시안의 형태로 나타낼 수 있다.
예를 들어, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 학습 기여도가 있는 이미지(NZL images)와 학습 기여도가 없는 이미지(ZL images)를 x축이 막전위의 갭이고, y축이 해당 막전위 갭을 갖는 이미지의 개수인 가우시안의 형태로 나타낼 수 있다.
타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 가우시안 형태로 나타낸 데이터에 기초하여, 타임스텝에 따라 막전위의 갭과 해당 막전위 갭을 갖는 이미지의 개수에 기초하여 임계값(threshold)을 계산할 수 있다. 이때, 막전위의 갭은 정답 뉴런 막전위와 나머지 뉴런 막전위 중 최대값의 차일 수 있다.
임계값은 수학식 1에 기초하여 계산될 수 있다. 수학식 1은 아래와 같다.
(수학식 1)
이때, a는 임계값이고, m은 학습 기여도가 있는 이미지의 막전위 차 분포의 평균이며, σ는 학습 기여도가 있는 이미지의 막전위 차 분포의 편차일 수 있다.
임계값은 경험적으로 찾지 않고 타임스텝과 학습과정 별로 계산됨에 따라, 데이터넷과 네트워크에 무관하게 자동적으로 계산할 수 있다.
도 5는 본 발명의 일 실시예에 따른 학습 기여도가 없는 이미지를 판단하여 학습을 조기 종료하는 방법을 보여주는 도이다.
도 5를 참조하면, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 학습 기여도가 없는 이미지 및 학습 기여도가 있는 이미지의 분포를 x축이 정답 뉴런의 막전위(Vans)이고, y축이 정답 뉴런을 제외한 뉴런들의 막전위 중 최대값의 막전위(Vres,max)인 산점도의 형태로 나타낼 수 있다.
타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 산점도 형태로 나타낸 데이터에 기초하여, 타임스텝에 따라 학습 과정의 한 학습의 횟수동안 학습 이미지들에서 제1 및 제2 막전위의 관계를 판단할 수 있다.
타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 수학식 2에 기초하여, 학습 기여도가 없는 이미지와 학습 기여도가 있는 이미지의 경계를 설정할 수 있다.
수학식 2는 y=x-a일 수 있다.
이때, a는 이전 학습 과정에서 계산된 임계값이고, x는 정답 뉴런의 막전위인 제1 막전위이고, y는 복수 개의 막전위 중 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위인 제2 막전위일 수 있다.
타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 수학식 2를 변환하여 생성된 수학식 3에 기초하여, 학습 기여도가 없는 이미지에 대해 학습을 종료할 수 있다.
수학식 3은 x-y≥a일 수 있다.
이때, a는 이전 학습 과정에서 계산된 임계값이고, x는 정답 뉴런의 막전위인 제1 막전위이고, y는 복수 개의 막전위 중 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위인 제2 막전위일 수 있다.
타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 수학식 3이 성립될 경우에 학습 기여도가 없는 이미지로 판단하여 진행 중인 학습을 종료할 수 있다. 반면, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 수학식 3이 성립되지 않을 경우에 학습 기여도가 있는 이미지로 판단하여 학습을 진행할 수 있다.
즉, 제1 막전위와 제2 막전위의 차이가 임계값보다 큰 경우(선의 우측 부분)에 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 이미지의 학습 기여도가 없음을 판단하고 학습을 종료할 수 있다.
도 6은 본 발명의 일 실시예에 따른 세분화된 타임스텝에 대한 학습 조기 종료의 예를 보여주는 도이다.
도 6을 참조하면, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 세분화된 타임스텝에서, 제1 및 제2 막전위의 차(Vgap)가 임계값 이상일 경우에 해당 세분화된 타임스텝에서 학습을 종료시킬 수 있다.
예를 들어, 하나의 타임스텝을 제1 내지 제4 타임스텝(T1, T2, T3, T4)으로 세분화하고, 제1 및 제2 타임스텝(T1, T2) 사이에서 제1 및 제2 막전위의 차(Vgap)가 임계값 이상일 경우, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 제2 타임스텝(T2)에서 학습을 종료할 수 있다.
상술한 바와 같이, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치는 하나의 타임스텝의 전체에 대해 학습이 종료되는 것이 아닌 제1 및 제2 막전위 차(Vgap)와 임계값(a)에 기초하여 하나의 타임스텝의 중간에 학습이 종료될 수 있다, 이에 따라, 학습의 연산량 및 연산 시간을 감소시킬 수 있다.
`도 7은 본 발명의 일 실시예에 따른 타임스텝 세분화 기반의 조기 판단 학습 가속 장치를 보여주는 도이다.
도 7을 참조하면, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치(10)는 입력 레이어 모듈(200), 히든 레이어 모듈(300), 출력 레이어 모듈(400), 및 글로벌 컨트롤러(500)를 포함할 수 있다.
입력 레이어 모듈(200)은 스파이킹 뉴럴 네트워크의 입력 스파이크 신호가 입력될 수 있다.
히든 레이어 모듈(300)은 입력 레이어 모듈(200)로부터 입력 스파이크 신호를 입력받을 수 있다. 이때, 히든 레이어 모듈(300)은 막전위 업데이트 모듈(310), 가중치 업데이트 모듈(320), 막전위 버퍼(330), 및 스파이크 시간 버퍼(340)를 포함할 수 있다.
막전위 업데이트 모듈(310)은 입력 레이어 모듈(200)로부터 입력 스파이크 신호를 전달받고, 입력 스파이크에 기초하여 복수 개의 뉴런들의 막전위를 계산할 수 있다.
막전위 업데이트 모듈(310)은 학습 가중치 저장부(311) 및 추론 가중치 저장부(312)를 포함할 수 있다.
학습 가중치 저장부(311)는 학습 과정에서 가중치 업데이트 모듈(320)로부터 가중치를 입력받아, 막전위를 업데이트 할 수 있다.
추론 가중치 저장부(312)는 추론 과정에서 가중치 업데이트 모듈(320)로부터 가중치를 입력받아, 막전위를 업데이트 할 수 있다.
가중치 업데이트 모듈(320)은 입력 스파이크 신호의 입력에 기초하여 입력 스파이크들의 가중치들을 막전위에 더할 수 있다. 가중치 업데이트 모듈(320)은 가중치 정보에 대해 학습 가중치 저장부(311) 및 추론 가중치 저장부(312)로 전송할 수 있다. 또한, 가중치 업데이트 모듈(320)은 가중치 정보를 출력 레이어 모듈(400)의 가중치 업데이트 모듈(430)로 전송할 수 있다.
막전위 버퍼(330)는 복수 개의 뉴런들의 막전위를 저장할 수 있다. 막전위 버퍼는 막전위 업데이트 모듈(310)로 막전위 값을 전송하거나 전송받을 수 있다. 또한, 막전위 버퍼(330)는 스파이크 시간 버퍼(340)로 막전위에 대한 정보를 전송할 수 있다.
스파이크 시간 버퍼(340)는 복수 개의 뉴런들의 스파이크 발생 시간을 저장할 수 있다.
출력 레이어 모듈(400)은 히든 레이어 모듈(300)로부터 입력 스파이크 신호를 전달받고, 학습 기여도가 없는 이미지를 판단하며, 학습 기여도의 유무를 판단하기 위한 임계값을 계산할 수 있다. 이때, 출력 레이어 모듈(400)은 스파이크 버퍼(410), 막전위 업데이트 모듈(420), 가중치 업데이트 모듈(430), 막전위 버퍼(440), 조기 판단부(450), 임계값 계산부(460), 스파이크 시간 버퍼(470), 및 에러 계산부(480)를 포함할 수 있다.
스파이크 버퍼(410)는 히든 레이어 모듈(300)의 막전위 업데이트 모듈로부터 입력 스파이크 신호를 전달받을 수 있다. 스파이크 버퍼(410)는 입력 스파이크 신호를 막전위 업데이트 모듈(420)로 전송할 수 있다.
막전위 업데이트 모듈(420)은 히든 레이어 모듈(300)로부터 입력 스파이크 신호를 전달받고, 입력 스파이크에 기초하여 복수 개의 뉴런들의 막전위를 계산할 수 있다.
막전위 업데이트 모듈(420)은 학습 가중치 저장부(421) 및 추론 가중치 저장부(422)를 포함할 수 있다.
학습 가중치 저장부(421)는 학습 과정에서 가중치 업데이트 모듈(430)로부터 가중치를 입력받아, 막전위를 업데이트 할 수 있다.
추론 가중치 저장부(422)는 추론 과정에서 가중치 업데이트 모듈(430)로부터 가중치를 입력받아, 막전위를 업데이트 할 수 있다.
가중치 업데이트 모듈(430)은 입력 스파이크 신호의 입력에 기초하여 입력 스파이크들의 가중치들을 막전위에 더할 수 있다. 가중치 업데이트 모듈(430)은 가중치 정보에 대해 학습 가중치 저장부(421) 및 추론 가중치 저장부(422)로 전송할 수 있다. 또한, 가중치 업데이트 모듈(430)은 가중치 정보를 히든 레이어 모듈(300)의 가중치 업데이트 모듈(320)로 전송할 수 있다.
막전위 버퍼(440)는 복수 개의 뉴런들의 막전위를 저장할 수 있다. 막전위 버퍼(440)는 막전위 업데이트 모듈(420)로 막전위 값을 전송하거나 전송받을 수 있다. 또한, 막전위 버퍼(440)는 스파이크 시간 버퍼(470) 및 조기 판단부(450)로 막전위에 대한 정보를 전송할 수 있다.
조기 판단부(450)는 순전파 과정에서 각 타임스텝의 연산이 끝났을 때, 학습 기여도가 없는 이미지를 판단할 수 있다. 조기 판단부(450)는 판단 결과를 글로벌 컨트롤러(500)로 전송할 수 있다.
예를 들어, 조기 판단부(450)는 타임스텝에서 제1 및 제2 막전위의 차이가 임계값보다 큰 경우, 이미지에 학습 기여도가 없다고 판단하여 타임스텝에서의 학습을 종료할 수 있다. 이때, 제1 막전위는 정답 뉴런의 막전위이고, 제2 막전위는 복수 개의 막전위 중 정답 뉴런의 막전위를 제외한 막전위 중 가장 큰 막전위일 수 있다.
임계값 계산부(460)는 순전파 과정이 모두 끝난 후에 다음 학습에서 사용될 임계값을 계산할 수 있다. 또한, 임계값 계산부(460)는 이전 학습에서 계산된 임계값을 조기 판단부(450)로 전송할 수 있다.
스파이크 시간 버퍼(470)는 복수 개의 뉴런들의 스파이크 발생 시간을 저장할 수 있다. 스파이크 시간 버퍼(470)는 스파이크 발생 시간을 에러 계산부(480)로 전송할 수 있다.
에러 계산부(480)는 순전파 과정이 모두 끝난 후의 복수 개의 뉴런들의 스파이크 발생 시간과 목표하는 정답 신호와의 차이를 계산하여 에러 여부를 계산할 수 있다. 에러 계산부는 계산 결과를 가중치 업데이트 모듈(430)로 전송할 수 있다.
글로벌 컨트롤러(500)는 출력 레이어 모듈(400)의 조기 판단부(450)가 판단한 학습 기여도의 유무에 기초하여 학습 과정을 종료할 수 있다. 예를 들어, 조기 판단부(450)에서 학습 기여도가 없는 이미지라고 판단했다면, 글로벌 컨트롤러(500)는 학습 과정을 종료할 수 있다.
본 명세서와 도면에 개시된 실시 예들은 본 개시의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
10 : 타임스텝 세분화 기반의 조기 판단 학습 가속 장치
200 : 입력 레이어 모듈
300 : 히든 레이어 모듈
310, 420 : 막전위 업데이트 모듈
311, 421 : 학습 가중치 저장부
312, 422 : 추론 가중치 저장부
320, 430 : 가중치 업데이트 모듈
330, 440 : 막전위 버퍼
340, 470 : 스파이크 시간 버퍼
400 : 출력 레이어 모듈
410 : 스파이크 버퍼
450 : 조기 판단부
460 : 임계값 계산부
480 : 에러 계산부
500 : 글로벌 컨트롤러
200 : 입력 레이어 모듈
300 : 히든 레이어 모듈
310, 420 : 막전위 업데이트 모듈
311, 421 : 학습 가중치 저장부
312, 422 : 추론 가중치 저장부
320, 430 : 가중치 업데이트 모듈
330, 440 : 막전위 버퍼
340, 470 : 스파이크 시간 버퍼
400 : 출력 레이어 모듈
410 : 스파이크 버퍼
450 : 조기 판단부
460 : 임계값 계산부
480 : 에러 계산부
500 : 글로벌 컨트롤러
Claims (13)
- 타임스텝을 세분화하는 타임스텝 세분화 단계;
현재 학습 과정 동안의 세분화된 타임스텝 별 제1 및 제2 막전위를 측정하는 막전위 측정 단계;
상기 제1 및 제2 막전위에 기초하여 다음 학습 과정에서 사용될 임계값을 계산하는 임계값 계산 단계; 및
상기 세분화된 타임스텝에서 상기 제1 및 제2 막전위의 차이가 상기 임계값보다 큰 경우, 상기 이미지에 상기 학습 기여도가 없다고 판단하여 상기 세분화된 타임스텝에서의 학습을 종료하는 학습 조기 종료 단계를 포함하는, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법. - 제1항에 있어서,
상기 제1 막전위는 정답 뉴런의 막전위이고, 상기 제2 막전위는 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위인, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법. - 제2항에 있어서,
상기 임계값 계산 단계는 수학식 1에 기초하여 상기 임계값을 계산하고,
상기 수학식 1은 a=m+2σ이고,
상기 a는 상기 임계값이고, 상기 m은 상기 학습 기여도가 있는 이미지의 막전위 차 분포의 평균이며, 상기 σ는 상기 학습 기여도가 있는 이미지의 막전위 차 분포의 편차인, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법. - 제2항에 있어서,
상기 학습 조기 종료 단계는 수학식 2에 기초하여 상기 학습 기여도가 없는 이미지와 상기 학습 기여도가 있는 이미지의 경계를 설정하고,
상기 수학식 2는 y=x-a이고,
상기 a는 상기 이전 학습 과정에서 계산된 임계값이고, 상기 x는 상기 정답 뉴런의 막전위이고, 상기 y는 상기 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위인, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법. - 제4항에 있어서,
상기 학습 조기 종료 단계는 상기 수학식 2로부터 변형된 수학식 3에 기초하여 상기 학습 기여도가 없는 이미지를 판단하고,
상기 수학식 3은 x-y≥a이고,
상기 a는 상기 이전 학습 과정에서 계산된 임계값이고, 상기 x는 상기 정답 뉴런의 막전위이고, 상기 y는 상기 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위인, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법. - 제5항에 있어서,
상기 학습 조기 종료 단계는 상기 세분화된 타임스텝 별 상기 제1 및 제2 막전위, 및 상기 임계값을 상기 수학식 3에 대입하여 상기 수학식 3이 성립될 경우에 학습 기여도가 없는 이미지로 판단하여 상기 세분화된 타임스텝에서의 학습을 종료하고,
상기 세분화된 타임스텝 별 상기 제1 및 제2 막전위, 및 상기 임계값을 상기 수학식 3에 대입하여 상기 수학식 3이 성립되지 않을 경우에 학습 기여도가 있는 이미지로 판단하여 학습을 진행하는, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법. - 제1항에 있어서,
상기 세분화된 타임스텝은 하나의 타임스텝을 2개 내지 16개 중 하나로 세분화한 타임스텝인, 타임스텝 세분화 기반의 조기 판단 학습 가속 방법. - 스파이킹 뉴럴 네트워크의 입력 스파이크 신호가 입력되는 입력 레이어 모듈;
상기 입력 스파이크 신호를 입력받는 히든 레이어 모듈;
상기 히든 레이어 모듈로부터 입력 스파이크 신호를 전달받고, 학습 기여도가 없는 이미지를 판단하며, 상기 학습 기여도의 유무를 판단하기 위한 임계값을 계산하는 출력 레이어 모듈; 및
상기 출력 레이어 모듈이 판단한 상기 학습 기여도의 유무에 기초하여 학습 과정을 종료하는 글로벌 컨트롤러를 포함하는, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치. - 제8항에 있어서,
상기 히든 레이어 모듈은,
상기 입력 레이어 모듈로부터 입력 스파이크 신호를 전달받고, 입력 스파이크에 기초하여 복수 개의 뉴런들의 막전위를 계산하는 막전위 업데이트 모듈;
상기 입력 스파이크 신호의 입력에 기초하여 상기 입력 스파이크들의 가중치들을 상기 막전위에 더하는 가중치 업데이트 모듈;
상기 복수 개의 뉴런들의 막전위를 저장하는 막전위 버퍼; 및
상기 복수 개의 뉴런들의 스파이크 발생 시간을 저장하는 스파이크 시간 버퍼를 포함하는, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치. - 제8항에 있어서,
상기 출력 레이어 모듈은,
상기 히든 레이어 모듈로부터 상기 입력 스파이크 신호를 전달받는 스파이크 버퍼;
상기 스파이크 버퍼로부터 입력 스파이크 신호를 전달받고, 입력 스파이크에 기초하여 복수 개의 뉴런들의 막전위를 계산하는 막전위 업데이트 모듈;
상기 입력 스파이크 신호의 입력에 기초하여 상기 입력 스파이크들의 가중치들을 상기 막전위에 더하는 가중치 업데이트 모듈;
상기 복수 개의 뉴런들의 막전위를 저장하는 막전위 버퍼;
상기 복수 개의 뉴런들의 스파이크 발생 시간을 저장하는 스파이크 시간 버퍼;
학습 과정 중 순전파 과정이 모두 끝난 후의 상기 복수 개의 뉴런들의 스파이크 발생 시간과 목표하는 정답 신호와의 차이를 계산하는 에러 계산부;
상기 순전파 과정에서 각 타임스텝의 연산이 끝났을 때, 상기 학습 기여도가 없는 이미지를 판단하는 조기 판단부; 및
상기 순전파 과정이 모두 끝난 후에 다음 학습에서 사용될 임계값을 계산하는 임계값 계산부를 포함하는, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치. - 제10항에 있어서,
상기 조기 판단부는 타임스텝에서 제1 및 제2 막전위의 차이가 상기 임계값보다 큰 경우, 상기 이미지에 상기 학습 기여도가 없다고 판단하여 상기 타임스텝에서의 학습을 종료하는, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치. - 제10항에 있어서,
상기 임계값 계산부는 상기 복수 개의 뉴런들의 막전위 중 제1 및 제2 막전위의 분포 데이터에 기초하여 다음 학습 과정에서 사용될 상기 임계값을 계산하는, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치. - 제12항에 있어서,
상기 제1 막전위는 정답 뉴런의 막전위이고, 상기 제2 막전위는 복수 개의 막전위 중 상기 정답 뉴런의 막전위 값을 제외한 막전위 중 가장 큰 막전위인, 타임스텝 세분화 기반의 조기 판단 학습 가속 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/099,560 US20230237317A1 (en) | 2022-01-24 | 2023-01-20 | Early determination training accelerator based on timestep splitting of spiking neural network and operation method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220009753 | 2022-01-24 | ||
KR20220009753 | 2022-01-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230114149A true KR20230114149A (ko) | 2023-08-01 |
Family
ID=87561463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220031156A KR20230114149A (ko) | 2022-01-24 | 2022-03-14 | 스파이킹 뉴럴 네트워크의 타임스텝 세분화 기반의 조기 판단 학습 장치 및 그 동작방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230114149A (ko) |
-
2022
- 2022-03-14 KR KR1020220031156A patent/KR20230114149A/ko unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210256348A1 (en) | Automated methods for conversions to a lower precision data format | |
US11911702B2 (en) | AI parameter configuration method and apparatus for racing AI model, AI parameter configuration device, and storage medium | |
CN111461226A (zh) | 对抗样本生成方法、装置、终端及可读存储介质 | |
KR102476343B1 (ko) | 자리수가 비교적 적은 고정 소수점 수치의 신경망 연산에 대한 지원 장치와 방법 | |
EP3913542A2 (en) | Method and apparatus of training model, device, medium, and program product | |
US20200090073A1 (en) | Method and apparatus for generating machine learning model | |
US20200380356A1 (en) | Information processing apparatus, information processing method, and program | |
CN115147687A (zh) | 学生模型训练方法、装置、设备及存储介质 | |
US11640534B2 (en) | Threshold triggered back propagation of an artificial neural network | |
JP2020027644A (ja) | モータ励起信号検索方法及び電子機器 | |
KR20230114149A (ko) | 스파이킹 뉴럴 네트워크의 타임스텝 세분화 기반의 조기 판단 학습 장치 및 그 동작방법 | |
CN115906921B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
US20230237317A1 (en) | Early determination training accelerator based on timestep splitting of spiking neural network and operation method thereof | |
JP2023073951A (ja) | 翻訳方法、モデル訓練方法、装置、電子デバイス及び記憶媒体 | |
KR20230114148A (ko) | 시간적 코딩 기반 스파이킹 뉴럴 네트워크의 지도 학습 가속 장치 및 그 동작방법 | |
GB2622756A (en) | Training agent neural networks through open-ended learning | |
CN114118358A (zh) | 图像处理方法、装置、电子设备、介质及程序产品 | |
CN114444606A (zh) | 模型训练和数据分类方法及装置 | |
CN114463851A (zh) | 图像检测方法、装置、设备及存储介质 | |
CN110110853B (zh) | 一种深度神经网络压缩方法、装置及计算机可读介质 | |
KR20200115102A (ko) | 유사도에 따라 후보 선택을 가속하는 방법 및 후보 선택을 수행하는 가속기 | |
JP2023536761A (ja) | 画像検索のためのニューラルネットワークのトレーニング方法、装置および電子装置 | |
US20230237318A1 (en) | Supervised training accelerator for temporal coding-based spiking neural network and operation method thereof | |
CN110188773A (zh) | 特征提取方法、图像处理方法及装置 | |
JP7552880B2 (ja) | ニューラルネットワーク構造探索装置およびニューラルネットワーク構造探索方法 |