JP7329455B2 - ニューラルネットワーク量子化のための方法及び装置 - Google Patents
ニューラルネットワーク量子化のための方法及び装置 Download PDFInfo
- Publication number
- JP7329455B2 JP7329455B2 JP2020002058A JP2020002058A JP7329455B2 JP 7329455 B2 JP7329455 B2 JP 7329455B2 JP 2020002058 A JP2020002058 A JP 2020002058A JP 2020002058 A JP2020002058 A JP 2020002058A JP 7329455 B2 JP7329455 B2 JP 7329455B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- layers
- layer
- bit precision
- quantized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 260
- 238000000034 method Methods 0.000 title claims description 50
- 238000013139 quantization Methods 0.000 title claims description 46
- 238000007667 floating Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 14
- 238000010845 search algorithm Methods 0.000 claims description 5
- 239000010410 layer Substances 0.000 description 255
- 238000010586 diagram Methods 0.000 description 31
- 230000004913 activation Effects 0.000 description 17
- 238000001994 activation Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000001174 ascending effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 101150064138 MAP1 gene Proteins 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Description
10 ニューラルネットワーク量子化装置
110 プロセッサ
120 メモリ
Claims (17)
- プロセッサが実行する、ニューラルネットワーク量子化のための方法において、
第1ビット精度の第1ニューラルネットワークについて、複数のサイクルの順方向(feedforward)及び逆伝播(backpropagation)学習を繰り返して行う段階と、
前記第1ニューラルネットワークに含まれたレイヤそれぞれに対して、既設定の初期ウェイトと各サイクルの前記逆伝播学習によって決定された更新ウェイトとの間のウェイト差(weight differences)を獲得する段階と、
前記レイヤそれぞれに対する前記ウェイト差の統計量を分析する段階と、
前記分析された統計量の大きさ順に前記レイヤを整列(sort)する段階と、
前記分析された統計量に基づいて、前記レイヤのうち、前記第1ビット精度よりも低い第2ビット精度で量子化される1つ以上のレイヤを決定する段階であり、前記整列されたレイヤのうち、前記分析された統計量の大きさが相対的に小さいレイヤを前記量子化される1つ以上のレイヤとして決定する、段階と、
前記レイヤのうち、前記決定されたレイヤを前記第2ビット精度で量子化することで、量子化されたレイヤを含む第2ニューラルネットワークを生成する段階と、を含む、方法。 - 前記統計量は、
前記レイヤそれぞれに対する前記ウェイト差の平均二乗(mean square)を含む、請求項1に記載の方法。 - 前記決定する段階は、
二進探索(binary search)アルゴリズムを用いて、前記整列されたレイヤのうち、幾つかのレイヤが、前記第2ビット精度で量子化されたとき、前記第2ニューラルネットワークの精度損失(accuracy loss)が、前記第1ニューラルネットワークと比較して所定閾値以内であるか否かを探索することで、前記量子化される1つ以上のレイヤを決定する、請求項1に記載の方法。 - 前記精度損失は、
ニューラルネットワークの認識率(recognition rate)に係わるものである、請求項3に記載の方法。 - 前記決定する段階は、
前記整列されたレイヤのうち、前記分析された統計量の大きさが小さい順に既設定の所定数のレイヤを前記量子化される1つ以上のレイヤとして決定する、請求項1に記載の方法。 - 前記決定する段階は、
前記整列されたレイヤのうち、前記分析された統計量の大きさが最も小さいレイヤに対しては、前記量子化される1つ以上のレイヤとして決定しない、請求項1に記載の方法。 - プロセッサが実行する、ニューラルネットワーク量子化のための方法において、
第1ビット精度の第1ニューラルネットワークについて、複数のサイクルの順方向(feedforward)及び逆伝播(backpropagation)学習を繰り返して行う段階と、
前記第1ニューラルネットワークに含まれたレイヤそれぞれに対して、既設定の初期ウェイトと各サイクルの前記逆伝播学習によって決定された更新ウェイトとの間のウェイト差(weight differences)を獲得する段階と、
前記レイヤそれぞれに対する前記ウェイト差の統計量を分析する段階と、
前記分析された統計量に基づいて、前記レイヤのうち、前記第1ビット精度よりも低い第2ビット精度で量子化される1つ以上のレイヤを決定する段階と、
前記レイヤのうち、前記決定されたレイヤを前記第2ビット精度で量子化することで、量子化されたレイヤを含む第2ニューラルネットワークを生成する段階と、を含み、
前記第1ニューラルネットワークは、
前記第1ビット精度よりも高い第3ビット精度の浮動小数点(floating point)パラメータのレイヤを有する第3ニューラルネットワークから量子化された、前記第1ビット精度の固定小数点(fixed point)パラメータのレイヤを有するニューラルネットワークに該当し、
前記第2ニューラルネットワークは、
前記レイヤのうち、前記決定されたレイヤは、前記第2ビット精度の固定小数点パラメータを有し、残りのレイヤは、前記第1ビット精度の前記固定小数点パラメータを有する、方法。 - 前記第1ニューラルネットワークが前記第1ビット精度の浮動小数点パラメータのレイヤを有するニューラルネットワークに該当する場合、前記レイヤのうち、前記決定されていない残りのレイヤを、前記第1ビット精度より低く、前記第2ビット精度よりは高い、第4ビット精度の固定小数点パラメータのレイヤに量子化する段階をさらに含み、
前記第2ニューラルネットワークは、
前記レイヤのうち、前記決定されたレイヤは、前記第2ビット精度の固定小数点パラメータを有し、前記残りのレイヤは、前記第4ビット精度の固定小数点パラメータを有する、請求項1に記載の方法。 - 請求項1~8のうちいずれか1項に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータ読み取り可能記録媒体。
- ニューラルネットワーク量子化のための装置において、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行することで、ニューラルネットワーク量子化を行うプロセッサと、を含み、
前記プロセッサは、
第1ビット精度の第1ニューラルネットワークに対して、複数のサイクルの順方向及び逆伝播学習を繰り返して行い、
前記第1ニューラルネットワークに含まれたレイヤそれぞれに対して、既設定の初期ウェイトと各サイクルの前記逆伝播学習によって決定された更新ウェイトとの間のウェイト差を獲得し、
前記レイヤそれぞれに対する前記ウェイト差の統計量を分析し、
前記分析された統計量の大きさ順に前記レイヤを整列し、
前記分析された統計量に基づいて、前記レイヤのうち、前記第1ビット精度よりも低い第2ビット精度で量子化される1つ以上のレイヤを決定し、当該決定は、前記整列されたレイヤのうち、前記分析された統計量の大きさが相対的に小さいレイヤを前記量子化される1つ以上のレイヤとして決定することを有し、
前記レイヤのうち、前記決定されたレイヤを前記第2ビット精度で量子化することで、量子化されたレイヤを含む第2ニューラルネットワークを生成する、装置。 - 前記統計量は、
前記レイヤそれぞれに対する前記ウェイト差の平均二乗を含む、請求項10に記載の装置。 - 前記プロセッサは、
二進探索アルゴリズムを用いて、前記整列されたレイヤのうち、幾つかのレイヤが前記第2ビット精度で量子化されたとき、前記第2ニューラルネットワークの精度損失が前記第1ニューラルネットワークと比較して所定閾値以内であるか否かを探索することで、前記量子化される1つ以上のレイヤを決定する、請求項10に記載の装置。 - 前記精度損失は、
ニューラルネットワークの認識率(recognition rate)に係わるものである、請求項12に記載の装置。 - 前記プロセッサは、
前記整列されたレイヤのうち、前記分析された統計量の大きさが小さい順に既設定の所定数のレイヤを前記量子化される1つ以上のレイヤとして決定する、請求項10に記載の装置。 - 前記プロセッサは、
前記整列されたレイヤのうち、前記分析された統計量の大きさが最も小さいレイヤについては、前記量子化される1つ以上のレイヤとして決定しない、請求項10に記載の装置。 - ニューラルネットワーク量子化のための装置において、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行することで、ニューラルネットワーク量子化を行うプロセッサと、を含み、
前記プロセッサは、
第1ビット精度の第1ニューラルネットワークに対して、複数のサイクルの順方向及び逆伝播学習を繰り返して行い、
前記第1ニューラルネットワークに含まれたレイヤそれぞれに対して、既設定の初期ウェイトと各サイクルの前記逆伝播学習によって決定された更新ウェイトとの間のウェイト差を獲得し、
前記レイヤそれぞれに対する前記ウェイト差の統計量を分析し、
前記分析された統計量に基づいて、前記レイヤのうち、前記第1ビット精度よりも低い第2ビット精度で量子化される1つ以上のレイヤを決定し、
前記レイヤのうち、前記決定されたレイヤを前記第2ビット精度で量子化することで、量子化されたレイヤを含む第2ニューラルネットワークを生成し、
前記第1ニューラルネットワークは、
前記第1ビット精度よりも高い第3ビット精度の浮動小数点パラメータのレイヤを有する第3ニューラルネットワークから量子化された前記第1ビット精度の固定小数点パラメータのレイヤを有するニューラルネットワークに該当し、
前記第2ニューラルネットワークは、
前記レイヤのうち、前記決定されたレイヤは、前記第2ビット精度の固定小数点パラメータを有し、残りのレイヤは、前記第1ビット精度の前記固定小数点パラメータを有する、装置。 - 前記プロセッサは、
前記第1ニューラルネットワークが前記第1ビット精度の浮動小数点パラメータのレイヤを有するニューラルネットワークに該当する場合、前記レイヤのうち、前記決定されていない残りのレイヤを前記第1ビット精度より低く、前記第2ビット精度よりは高い第4ビット精度の固定小数点パラメータのレイヤに量子化し、
前記第2ニューラルネットワークは、
前記レイヤのうち、前記決定されたレイヤは、前記第2ビット精度の固定小数点パラメータを有し、前記残りのレイヤは、前記第4ビット精度の固定小数点パラメータを有する、請求項10に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190002986A KR20200086581A (ko) | 2019-01-09 | 2019-01-09 | 뉴럴 네트워크 양자화를 위한 방법 및 장치 |
KR10-2019-0002986 | 2019-01-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020113273A JP2020113273A (ja) | 2020-07-27 |
JP7329455B2 true JP7329455B2 (ja) | 2023-08-18 |
Family
ID=68654403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020002058A Active JP7329455B2 (ja) | 2019-01-09 | 2020-01-09 | ニューラルネットワーク量子化のための方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11625577B2 (ja) |
EP (1) | EP3680826A1 (ja) |
JP (1) | JP7329455B2 (ja) |
KR (1) | KR20200086581A (ja) |
CN (1) | CN111428852A (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11568222B2 (en) * | 2019-03-27 | 2023-01-31 | Integrated Silicon Solution, (Cayman) Inc. | System and method for classifying data using neural networks with errors |
US11763158B2 (en) * | 2019-12-04 | 2023-09-19 | Deep Vision Inc. | Method for automatic hybrid quantization of deep artificial neural networks |
CN111831354B (zh) * | 2020-07-09 | 2023-05-16 | 北京灵汐科技有限公司 | 数据精度配置方法、装置、芯片、芯片阵列、设备及介质 |
JPWO2022030054A1 (ja) * | 2020-08-06 | 2022-02-10 | ||
CN111931917A (zh) * | 2020-08-20 | 2020-11-13 | 浙江大华技术股份有限公司 | 前向计算的实现方法及装置、存储介质、电子装置 |
KR102505946B1 (ko) * | 2020-09-02 | 2023-03-08 | 네이버 주식회사 | 인공신경망 모델 학습 방법 및 시스템 |
GB2599137A (en) * | 2020-09-25 | 2022-03-30 | Samsung Electronics Co Ltd | Method and apparatus for neural architecture search |
JP6992864B1 (ja) | 2020-09-28 | 2022-01-13 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
CN112580805A (zh) * | 2020-12-25 | 2021-03-30 | 三星(中国)半导体有限公司 | 神经网络模型的量化方法和量化神经网络模型的装置 |
KR102607993B1 (ko) * | 2021-03-04 | 2023-12-01 | 삼성전자주식회사 | 양자화를 이용한 뉴럴 네트워크 연산 방법 및 장치 |
JP2023031367A (ja) | 2021-08-25 | 2023-03-09 | 富士通株式会社 | 閾値決定プログラム及び閾値決定方法 |
KR102552478B1 (ko) * | 2021-09-07 | 2023-07-11 | 주식회사 노타 | 레이어 별 경량화를 통한 딥러닝 모델 최적화 방법 및 시스템 |
JP2023069780A (ja) | 2021-11-08 | 2023-05-18 | 富士通株式会社 | 演算プログラム、演算方法及び計算機 |
CN114676822B (zh) * | 2022-03-25 | 2024-04-23 | 东南大学 | 一种基于深度学习的多属性融合空气质量预报方法 |
KR102596769B1 (ko) * | 2022-07-12 | 2023-11-02 | 오픈엣지테크놀로지 주식회사 | 신경망 설계방법 및 이를 위한 장치 |
KR102612695B1 (ko) * | 2022-10-20 | 2023-12-13 | 연세대학교 산학협력단 | 변동성 플로팅 포인트 뉴럴넷을 이동 표적으로 사용하여 바이너리 뉴럴넷을 학습하는 자기지도학습 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 |
KR102659650B1 (ko) * | 2024-01-25 | 2024-04-23 | 주식회사 두다지 | 대상 프로세싱 유닛에 적합한 양자화된 뉴럴 네트워크 모델 제공 방법 및 장치 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170323197A1 (en) | 2016-05-03 | 2017-11-09 | Imagination Technologies Limited | Convolutional Neural Network Hardware Configuration |
US20180197081A1 (en) | 2017-01-09 | 2018-07-12 | Samsung Electronics Co., Ltd. | Method and algorithm of recursive deep learning quantization for weight bit reduction |
JP2018124681A (ja) | 2017-01-30 | 2018-08-09 | 富士通株式会社 | 演算処理装置、情報処理装置、方法、およびプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR950012359B1 (ko) | 1992-08-28 | 1995-10-17 | 엘지전자주식회사 | 신경회로망 구조와 학습방법 |
US11106973B2 (en) | 2016-03-16 | 2021-08-31 | Hong Kong Applied Science and Technology Research Institute Company Limited | Method and system for bit-depth reduction in artificial neural networks |
US10936941B2 (en) | 2016-08-12 | 2021-03-02 | Xilinx, Inc. | Efficient data access control device for neural network hardware acceleration system |
KR102592721B1 (ko) | 2017-01-11 | 2023-10-25 | 한국전자통신연구원 | 이진 파라미터를 갖는 컨볼루션 신경망 시스템 및 그것의 동작 방법 |
US11556772B2 (en) * | 2017-04-28 | 2023-01-17 | Intel Corporation | Incremental precision networks using residual inference and fine-grain quantization |
KR102601604B1 (ko) | 2017-08-04 | 2023-11-13 | 삼성전자주식회사 | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 |
WO2019051658A1 (en) * | 2017-09-13 | 2019-03-21 | Intel Corporation | INCREMENTAL NETWORK QUANTIFICATION |
US11551077B2 (en) * | 2018-06-13 | 2023-01-10 | International Business Machines Corporation | Statistics-aware weight quantization |
-
2019
- 2019-01-09 KR KR1020190002986A patent/KR20200086581A/ko active Search and Examination
- 2019-09-26 CN CN201910922232.5A patent/CN111428852A/zh active Pending
- 2019-11-22 EP EP19210968.4A patent/EP3680826A1/en active Pending
-
2020
- 2020-01-09 US US16/738,338 patent/US11625577B2/en active Active
- 2020-01-09 JP JP2020002058A patent/JP7329455B2/ja active Active
-
2023
- 2023-03-02 US US18/116,553 patent/US11934939B2/en active Active
-
2024
- 2024-02-09 US US18/437,370 patent/US20240185029A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170323197A1 (en) | 2016-05-03 | 2017-11-09 | Imagination Technologies Limited | Convolutional Neural Network Hardware Configuration |
US20180197081A1 (en) | 2017-01-09 | 2018-07-12 | Samsung Electronics Co., Ltd. | Method and algorithm of recursive deep learning quantization for weight bit reduction |
JP2018124681A (ja) | 2017-01-30 | 2018-08-09 | 富士通株式会社 | 演算処理装置、情報処理装置、方法、およびプログラム |
Non-Patent Citations (1)
Title |
---|
Jun Haeng Lee et al.,Quantization for Rapid Deployment of Deep Neural Networks,arXiv [online],2018年,[2023年7月11日検索]、インターネット<URL: https://arxiv.org/abs/1810.05488> |
Also Published As
Publication number | Publication date |
---|---|
US20240185029A1 (en) | 2024-06-06 |
US11934939B2 (en) | 2024-03-19 |
KR20200086581A (ko) | 2020-07-17 |
EP3680826A1 (en) | 2020-07-15 |
JP2020113273A (ja) | 2020-07-27 |
US11625577B2 (en) | 2023-04-11 |
US20230206031A1 (en) | 2023-06-29 |
CN111428852A (zh) | 2020-07-17 |
US20200218962A1 (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7329455B2 (ja) | ニューラルネットワーク量子化のための方法及び装置 | |
JP7072464B2 (ja) | 固定小数点量子化ニューラルネットワークのための方法及び装置 | |
KR102589303B1 (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
KR102526650B1 (ko) | 뉴럴 네트워크에서 데이터를 양자화하는 방법 및 장치 | |
KR20190125141A (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
US11816557B2 (en) | Method and apparatus with neural network parameter quantization | |
US11501166B2 (en) | Method and apparatus with neural network operation | |
JP7117280B2 (ja) | ニューラルネットワークのパラメータを量子化する方法及びその装置 | |
JP7329352B2 (ja) | 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 | |
CN114358274A (zh) | 训练用于图像识别的神经网络的方法和设备 | |
KR20210121946A (ko) | 뉴럴 네트워크 양자화를 위한 방법 및 장치 | |
KR20210053791A (ko) | 뉴럴 네트워크의 데이터를 처리하는 방법 및 장치 | |
KR102581471B1 (ko) | 분류를 위한 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 | |
US20220335705A1 (en) | Method and apparatus with neural network processing | |
CN110874633A (zh) | 具有多位神经形态操作的神经形态方法和设备 | |
KR20200139071A (ko) | 뉴럴 네트워크에서 파라미터를 양자화하는 방법 및 장치 | |
US12026611B2 (en) | Method and apparatus for quantizing parameters of neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7329455 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |