KR102451519B1 - 룩업 테이블 기반의 비트-시리얼 처리 요소를 포함하는 심층 신경망 가속기 - Google Patents
룩업 테이블 기반의 비트-시리얼 처리 요소를 포함하는 심층 신경망 가속기 Download PDFInfo
- Publication number
- KR102451519B1 KR102451519B1 KR1020190146454A KR20190146454A KR102451519B1 KR 102451519 B1 KR102451519 B1 KR 102451519B1 KR 1020190146454 A KR1020190146454 A KR 1020190146454A KR 20190146454 A KR20190146454 A KR 20190146454A KR 102451519 B1 KR102451519 B1 KR 102451519B1
- Authority
- KR
- South Korea
- Prior art keywords
- target
- weight
- features
- results
- input
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 100
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 claims description 28
- 238000009825 accumulation Methods 0.000 claims description 9
- 230000002776 aggregation Effects 0.000 claims description 9
- 238000004220 aggregation Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 238000013527 convolutional neural network Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 238000012546 transfer Methods 0.000 description 4
- 101100215647 Aspergillus flavus (strain ATCC 200026 / FGSC A1120 / IAM 13836 / NRRL 3357 / JCM 12722 / SRRC 167) aflR gene Proteins 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
Abstract
Description
도 2는 도 1의 DNN 코어의 예시적인 블록도이다.
도 3은 도 2의 처리 요소들에서 수행되는 룩업 테이블 기반의 비트-시리얼 처리 동작을 설명하기 위한 도면이다.
도 4는 도 3에서 설명된 특징의 재사용을 설명하기 위한 그래프이다.
도 5 내지 도 7은 도 1 및 도 2에서 설명된 처리 요소를 사용하여 FCDNN 또는 RNN 동작을 수행하는 과정을 설명하기 위한 도면이다.
도 8 내지 도 10은 도 1 및 도 2에서 설명된 처리 요소를 사용하여 CNN 동작을 수행하는 과정을 설명하기 위한 도면이다.
도 11은 도 8 내지 도 10에서 설명된 CNN 동작이 DNN 코어에서 수행되는 과정을 설명하기 위한 도면이다.
도 12는 도 2의 처리 요소의 예시적인 블록도이다.
도 13은 도 12의 처리 요소의 룩업 테이블을 이용한 출력 특징 맵을 생성하는 과정을 설명하기 위한 도면이다.
도 14는 도 12의 LUT 모듈의 동작을 구체적으로 설명하기 위한 도면이다.
도 15는 1-비트 정밀도를 갖는 가중치에서, LUT 모듈의 동작을 설명하기 위한 도면이다.
도 16은 1-비트보다 큰 정밀도를 갖는 가중치에서, LUT 모듈의 동작을 설명하기 위한 도면이다.
120~124: DNN 코어 125: 입출력 회로
126: 특징 로더들 127: 가중치 메모리
128 처리 요소들 130: 집계 코어
LB: LUT 묶음 AC: 누산기
LM: LUT 모듈
Claims (20)
- 입력 특징들을 저장하는 특징 로더;
가중치를 저장하는 가중치 메모리; 및
상기 입력 특징들의 개수에 기초하여 0 및 1을 포함하는 가중치 값들의 모든 조합들을 생성하고,
상기 조합들 각각에 대한 상기 입력 특징들과 상기 가중치 값들의 부분 곱을 계산하여 결과들을 생성하고,
상기 가중치 메모리로부터 상기 입력 특징들에 대응되는 타겟 가중치를 수신하고,
상기 결과들 중 상기 수신된 타겟 가중치에 대응되는 타겟 결과를 선택하여 출력 특징들을 생성하는 처리 요소를 포함하는 심층 신경망 가속기. - 제1 항에 있어서,
상기 처리 요소는,
제1 시간 동안 상기 타겟 가중치의 제1 비트들을 수신하고, 상기 결과들 중 상기 제1 비트들에 대응되는 제1 타겟 결과를 선택하고,
상기 제1 시간 이후의 제2 시간 동안 상기 타겟 가중치의 제2 비트들을 수신하고, 상기 결과들 중 상기 제2 비트들에 대응되는 제2 타겟 결과를 선택하고, 상기 제1 타겟 결과에 상기 제2 타겟 결과를 누적하는 심층 신경망 가속기. - 삭제
- 제1 항에 있어서,
상기 타겟 가중치는, 상기 입력 특징들에 각각 대응되는 제1 가중치 값들 및 상기 타겟 결과의 반전 여부를 결정하는 제2 가중치 값을 포함하고, 상기 제1 가중치 값들 및 상기 제2 가중치 값은 제1 값 또는 제2 값을 갖는 1 비트 가중치이고,
상기 처리 요소는,
상기 제2 가중치 값이 상기 제1 값인 경우, 상기 제1 가중치 값들에 기초하여 상기 타겟 결과를 선택하고, 상기 타겟 결과에 기초하여 상기 출력 특징들을 생성하고,
상기 제2 가중치 값이 상기 제2 값인 경우, 상기 제1 가중치 값들을 반전하여 상기 타겟 결과를 선택하고, 상기 타겟 결과를 반전하여 상기 출력 특징들을 생성하는 심층 신경망 가속기. - 제1 항에 있어서,
상기 타겟 가중치는, 상기 입력 특징들에 각각 대응되는 가중치 값들을 포함하고, 상기 가중치 값들 각각은 1 비트보다 큰 비트 수를 갖고,
상기 처리 요소는,
상기 가중치 값들의 최하위 비트들에 기초하여 제1 타겟 결과를 선택하고, 상기 가중치 값들의 상기 최하위 비트들 및 최상위 비트들 사이의 비트들에 기초하여 제2 타겟 결과를 선택하고, 상기 가중치 값들의 상기 최상위 비트들에 기초하여 제3 타겟 결과를 선택하는 심층 신경망 가속기. - 제5 항에 있어서,
상기 처리 요소는,
상기 제2 타겟 결과를 비트-쉬프트하고, 상기 비트-쉬프트된 제2 타겟 결과를 상기 제1 타겟 결과에 가산하여 중간 누적 결과를 생성하고, 상기 제3 타겟 결과를 비트-쉬프트하여, 상기 중간 누적 결과에 상기 비트-쉬프트된 제3 타겟 결과를 감산하는 심층 신경망 가속기. - 제1 항에 있어서,
상기 처리 요소는,
상기 입력 특징들 중 제1 특징들에 대응되는 제1 결과들을 생성하고, 상기 가중치 메모리로부터 상기 제1 특징들에 대응되는 제1 타겟 가중치를 수신하고, 상기 제1 결과들 중 상기 제1 타겟 가중치에 대응되는 제1 타겟 결과를 출력하는 제1 룩업 테이블 묶음;
상기 입력 특징들 중 제2 특징들에 대응되는 제2 결과들을 생성하고, 상기 가중치 메모리로부터 상기 제2 특징들에 대응되는 제2 타겟 가중치를 수신하고, 상기 제2 결과들 중 상기 제2 타겟 가중치에 대응되는 제2 타겟 결과를 출력하는 제2 룩업 테이블 묶음; 및
상기 제1 타겟 결과 및 상기 제2 타겟 결과를 누적하여 상기 출력 특징들을 생성하는 누산기를 포함하는 심층 신경망 가속기. - 제1 항에 있어서,
상기 처리 요소는,
업데이트 신호에 기초하여, 상기 특징 로더로부터 수신된 상기 입력 특징들 또는 상기 가중치 메모리로부터 수신된 상기 타겟 가중치를 출력하는 멀티플렉서;
상기 입력 특징들 중 제1 특징들에 대응되는 제1 결과들을 저장하고, 상기 출력된 타겟 가중치 중 상기 제1 특징들에 대응되는 제1 타겟 가중치를 수신하고, 상기 제1 결과들 중 상기 제1 타겟 가중치에 대응되는 제1 타겟 결과를 출력하는 제1 룩업 테이블 모듈;
상기 입력 특징들 중 제2 특징들에 대응되는 제2 결과들을 저장하고, 상기 출력된 타겟 가중치 중 상기 제2 특징들에 대응되는 제2 타겟 가중치를 수신하고, 상기 제2 결과들 중 상기 제2 타겟 가중치에 대응되는 제2 타겟 결과를 출력하는 제2 룩업 테이블 모듈; 및
상기 제1 특징들에 기초하여 상기 제1 결과들을 생성하고, 상기 제2 특징들에 기초하여 상기 제2 결과들을 생성하고, 상기 제1 및 제2 타겟 결과들을 누적하는 모듈 가산기를 포함하는 심층 신경망 가속기. - 제1 항에 있어서,
상기 처리 요소는,
상기 결과들을 저장하는 파일 레지스터들; 및
상기 타겟 가중치를 수신하여 상기 파일 레지스터로부터 상기 타겟 결과를 선택하는 멀티플렉서들을 포함하는 심층 신경망 가속기. - 제9 항에 있어서,
상기 처리 요소는,
상기 타겟 가중치에서, 상기 입력 특징들의 개수 및 상기 멀티플렉서들의 개수의 곱과 같은 비트 개수의 가중치 값들을 수신하고, 상기 수신된 가중치 값들을 상기 멀티플렉서들에 전달하는 가중치 입력 회로를 더 포함하는 심층 신경망 가속기. - 제1 항에 있어서,
상기 특징 로더는 제1 입력 특징 맵의 제1 부분 및 제2 입력 특징 맵의 제2 부분을 정렬하여, 상기 입력 특징들을 생성하는 심층 신경망 가속기. - 각각이 입력 특징 맵 및 가중치에 기초하여 출력 특징 맵을 생성하는 심층 신경망 코어들; 및
상기 심층 신경망 코어들 각각으로부터 상기 출력 특징 맵을 수신하고, 상기 수신된 출력 특징 맵을 누적하여 최종 출력 특징 맵을 생성하는 집계 코어를 포함하고,
상기 심층 신경망 코어들 각각은,
상기 가중치를 저장하는 가중치 메모리;
각각이 상기 입력 특징 맵의 일부인 입력 특징들을 저장하는 특징 로더들; 및
각각이 상기 특징 로더들 중 하나로부터 상기 입력 특징들을 수신하고, 상기 입력 특징들에 대응되는 타겟 가중치에 기초하여 상기 출력 특징 맵에 포함되는 출력 특징들을 생성하는 처리 요소들을 포함하고,
상기 처리 요소들 각각은, 상기 입력 특징들의 개수에 기초하여 0 및 1을 포함하는 가중치 값들의 모든 조합들을 생성하고,
상기 조합들 각각에 대한 상기 입력 특징들과 상기 가중치 값들의 부분 곱을 계산하여 결과들을 생성하고,
상기 결과들 중 상기 수신된 타겟 가중치에 대응되는 타겟 결과를 선택하여 상기 출력 특징들을 생성하는 심층 신경망 가속기. - 제12 항에 있어서,
상기 특징 로더들 중 제1 특징 로더는 상기 입력 특징 맵의 제1 영역에 대응되는 입력 특징들을 상기 처리 요소들 중 제1 처리 요소로 출력하고,
상기 특징 로더들 중 제2 특징 로더는 상기 입력 특징 맵의 제2 영역에 대응되는 입력 특징들을 상기 처리 요소들 중 제2 처리 요소로 출력하는 심층 신경망 가속기. - 제13 항에 있어서,
상기 제1 영역의 일부는 상기 제2 영역의 일부에 중첩하는 심층 신경망 가속기. - 제12 항에 있어서,
상기 처리 요소들 각각은,
상기 입력 특징들 중 제1 특징들에 대응되는 제1 결과들을 생성하고, 상기 가중치 메모리로부터 상기 제1 특징들에 대응되는 제1 타겟 가중치를 수신하고, 상기 제1 결과들 중 상기 제1 타겟 가중치에 대응되는 제1 타겟 결과를 출력하는 제1 룩업 테이블 묶음;
상기 입력 특징들 중 제2 특징들에 대응되는 제2 결과들을 생성하고, 상기 가중치 메모리로부터 상기 제2 특징들에 대응되는 제2 타겟 가중치를 수신하고, 상기 제2 결과들 중 상기 제2 타겟 가중치에 대응되는 제2 타겟 결과를 출력하는 제2 룩업 테이블 묶음; 및
상기 제1 타겟 결과 및 상기 제2 타겟 결과를 누적하여 상기 출력 특징들을 생성하는 누산기를 포함하는 심층 신경망 가속기. - 제15 항에 있어서,
상기 입력 특징 맵은 제1 특징 맵 및 제2 특징 맵을 포함하고,
상기 특징 로더는, 상기 제1 특징 맵에서 상기 제1 특징들을 추출하고, 상기 제2 특징 맵에서 상기 제2 특징들을 추출하고, 상기 제1 특징들을 상기 제1 룩업 테이블 묶음으로 전달하고, 상기 제2 특징들을 상기 제2 룩업 테이블 묶음으로 전달하는 심층 신경망 가속기. - 제15 항에 있어서,
상기 제1 룩업 테이블 묶음은,
상기 제1 결과들의 제1 부분을 저장하고, 상기 제1 부분에 기초하여 상기 제1 타겟 결과의 제1 타겟 부분을 출력하는 제1 룩업 테이블 모듈;
상기 제1 결과들의 제2 부분을 저장하고, 상기 제2 부분에 기초하여 상기 제1 타겟 결과의 제2 타겟 부분을 출력하는 제2 룩업 테이블 모듈; 및
상기 제1 특징들에 기초하여 상기 제1 결과들을 생성하고, 상기 제1 타겟 부분 및 상기 제2 타겟 부분을 누적하여 상기 제1 타겟 결과를 생성하는 제1 모듈 가산기를 포함하고,
상기 제2 룩업 테이블 묶음은,
상기 제2 결과들의 제3 부분을 저장하고, 상기 제3 부분에 기초하여 상기 제2 타겟 결과의 제3 타겟 부분을 출력하는 제3 룩업 테이블 모듈;
상기 제2 결과들의 제4 부분을 저장하고, 상기 제4 부분에 기초하여 상기 제2 타겟 결과의 제4 타겟 부분을 출력하는 제4 룩업 테이블 모듈; 및
상기 제2 특징들에 기초하여 상기 제2 결과들을 생성하고, 상기 제3 타겟 부분 및 상기 제4 타겟 부분을 누적하여 상기 제2 타겟 결과를 생성하는 제2 모듈 가산기를 포함하는 심층 신경망 가속기. - 제12 항에 있어서,
상기 타겟 가중치는, 상기 입력 특징들에 각각 대응되는 제1 가중치 값들 및 상기 타겟 결과의 반전 여부를 결정하는 제2 가중치 값을 포함하고, 상기 제1 가중치 값들 및 상기 제2 가중치 값은 제1 값 또는 제2 값을 갖는 1 비트 가중치이고,
상기 처리 요소들 각각은,
상기 제2 가중치 값이 상기 제1 값인 경우, 상기 제1 가중치 값들에 기초하여 상기 타겟 결과를 선택하고, 상기 타겟 결과에 기초하여 상기 출력 특징들을 생성하고,
상기 제2 가중치 값이 상기 제2 값인 경우, 상기 제1 가중치 값들을 반전하여 상기 타겟 결과를 선택하고, 상기 타겟 결과를 반전하여 상기 출력 특징들을 생성하는 심층 신경망 가속기. - 제12 항에 있어서,
상기 타겟 가중치는, 상기 입력 특징들에 각각 대응되는 가중치 값들을 포함하고, 상기 가중치 값들 각각은 1 비트보다 큰 비트 수를 갖고,
상기 처리 요소들 각각은,
상기 가중치 값들의 최하위 비트들에 기초하여 제1 타겟 결과를 선택하고, 상기 가중치 값들의 상기 최하위 비트들 및 최상위 비트들 사이의 비트들에 기초하여 제2 타겟 결과를 선택하고, 상기 가중치 값들의 상기 최상위 비트들에 기초하여 제3 타겟 결과를 선택하는 심층 신경망 가속기. - 제19 항에 있어서,
상기 제2 타겟 결과를 비트-쉬프트하고, 상기 비트-쉬프트된 제2 타겟 결과를 상기 제1 타겟 결과에 가산하여 중간 누적 결과를 생성하고, 상기 제3 타겟 결과를 비트-쉬프트하여, 상기 중간 누적 결과에 상기 비트-쉬프트된 제3 타겟 결과를 감산하는 심층 신경망 가속기.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/689,199 US12079592B2 (en) | 2018-11-20 | 2019-11-20 | Deep neural network accelerator including lookup table based bit-serial processing elements |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180143617 | 2018-11-20 | ||
KR20180143617 | 2018-11-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200059153A KR20200059153A (ko) | 2020-05-28 |
KR102451519B1 true KR102451519B1 (ko) | 2022-10-07 |
Family
ID=70920099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190146454A KR102451519B1 (ko) | 2018-11-20 | 2019-11-15 | 룩업 테이블 기반의 비트-시리얼 처리 요소를 포함하는 심층 신경망 가속기 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102451519B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102437329B1 (ko) * | 2022-07-06 | 2022-08-30 | 주식회사 스퀴즈비츠 | 행렬곱 연산 장치 및 방법 |
KR102752792B1 (ko) * | 2023-11-01 | 2025-01-14 | 국민대학교산학협력단 | 8비트 avr 환경에서 부호화된 룩업테이블 기반의 모듈러 연산 최적화 방법 및 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016186823A1 (en) | 2015-05-21 | 2016-11-24 | Google Inc. | Batch processing in a neural network processor |
WO2017201627A1 (en) | 2016-05-26 | 2017-11-30 | The Governing Council Of The University Of Toronto | Accelerator for deep neural networks |
WO2018103736A1 (en) | 2016-12-09 | 2018-06-14 | Beijing Horizon Information Technology Co., Ltd. | Systems and methods for data management |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3035204B1 (en) * | 2014-12-19 | 2018-08-15 | Intel Corporation | Storage device and method for performing convolution operations |
KR102631381B1 (ko) * | 2016-11-07 | 2024-01-31 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
-
2019
- 2019-11-15 KR KR1020190146454A patent/KR102451519B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016186823A1 (en) | 2015-05-21 | 2016-11-24 | Google Inc. | Batch processing in a neural network processor |
WO2017201627A1 (en) | 2016-05-26 | 2017-11-30 | The Governing Council Of The University Of Toronto | Accelerator for deep neural networks |
WO2018103736A1 (en) | 2016-12-09 | 2018-06-14 | Beijing Horizon Information Technology Co., Ltd. | Systems and methods for data management |
Also Published As
Publication number | Publication date |
---|---|
KR20200059153A (ko) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12079592B2 (en) | Deep neural network accelerator including lookup table based bit-serial processing elements | |
US10867239B2 (en) | Digital architecture supporting analog co-processor | |
US11775313B2 (en) | Hardware accelerator for convolutional neural networks and method of operation thereof | |
CN109543816B (zh) | 一种基于权重捏合的卷积神经网络计算方法和系统 | |
US10621489B2 (en) | Massively parallel neural inference computing elements | |
JP6865847B2 (ja) | 処理装置、チップ、電子設備及び方法 | |
KR100336266B1 (ko) | 신경 프로세서, 포화 유니트, 계산 유니트 및 가산기 회로 | |
CN107704916A (zh) | 一种基于fpga实现rnn神经网络的硬件加速器及方法 | |
KR102451519B1 (ko) | 룩업 테이블 기반의 비트-시리얼 처리 요소를 포함하는 심층 신경망 가속기 | |
US20130212353A1 (en) | System for implementing vector look-up table operations in a SIMD processor | |
JPH05216627A (ja) | 乗算器および乗算方法 | |
CN110851779A (zh) | 用于稀疏矩阵运算的脉动阵列架构 | |
EP3841461B1 (en) | Digital circuit with compressed carry | |
Chalamalasetti et al. | MORA-an architecture and programming model for a resource efficient coarse grained reconfigurable processor | |
KR20230121151A (ko) | 디지털 곱셈기 회로망의 수치 정밀도 | |
Cai et al. | Convolution without multiplication: A general speed up strategy for CNNs | |
US20240192962A1 (en) | Pipeline architecture for bitwise multiplier-accumulator (mac) | |
US20230289287A1 (en) | Programmable Multi-Level Data Access Address Generator | |
CN108255463B (zh) | 一种数字逻辑运算方法、电路和fpga芯片 | |
WO2023120403A1 (ja) | Cgraによる疎行列計算とマージソートに関する演算ユニット | |
US20230244600A1 (en) | Process for Generation of Addresses in Multi-Level Data Access | |
GB2614327A (en) | Configurable pooling process unit for neural network accelerator | |
Chidambaram et al. | Accelerating the inference phase in ternary convolutional neural networks using configurable processors | |
CN112836793A (zh) | 浮点可分离卷积计算加速装置、系统以及图像处理方法 | |
US20240111525A1 (en) | Multiplication hardware block with adaptive fidelity control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20191115 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
PN2301 | Change of applicant |
Patent event date: 20210820 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20211224 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20220627 |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20220930 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20221004 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |