JP2020119528A - モバイルデバイスまたは高精度の小型ネットワークに適用可能なハードウェアを最適化するために利用されるCNNパラメータ及び特徴値を量子化するために、重み量子化ロス値を利用してFL(Fractional Length)値を決定する方法及び装置{METHOD AND DEVICE FOR DETERMINING FL VALUE BY USING WEIGHTED QUANTIZATION LOSS VALUES TO THEREBY QUANTIZE CNN PARAMETERS AND FEATURE VALUES TO BE USED FOR OPTIMIZING HARDWARE APPLICABLE TO MOBILE DEVICES OR COMPACT NETWORKS WITH HIGH PRECISION} - Google Patents
モバイルデバイスまたは高精度の小型ネットワークに適用可能なハードウェアを最適化するために利用されるCNNパラメータ及び特徴値を量子化するために、重み量子化ロス値を利用してFL(Fractional Length)値を決定する方法及び装置{METHOD AND DEVICE FOR DETERMINING FL VALUE BY USING WEIGHTED QUANTIZATION LOSS VALUES TO THEREBY QUANTIZE CNN PARAMETERS AND FEATURE VALUES TO BE USED FOR OPTIMIZING HARDWARE APPLICABLE TO MOBILE DEVICES OR COMPACT NETWORKS WITH HIGH PRECISION} Download PDFInfo
- Publication number
- JP2020119528A JP2020119528A JP2020001009A JP2020001009A JP2020119528A JP 2020119528 A JP2020119528 A JP 2020119528A JP 2020001009 A JP2020001009 A JP 2020001009A JP 2020001009 A JP2020001009 A JP 2020001009A JP 2020119528 A JP2020119528 A JP 2020119528A
- Authority
- JP
- Japan
- Prior art keywords
- value
- quantized
- vector
- original
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
前記数式に従って前記量子化演算を遂行し、
は第l番目の量子化されたベクトルであり、xkは、前記オリジナルベクトルに含まれる第k番目のオリジナル値であり、εは、前記量子化演算の方式を決定する定数、[ ]は、ガウス演算を意味することを特徴とする方法が提供される。
前記重み量子化ロス演算は前記数式に従い、
は、前記オリジナルベクトル、
は、第l番目量子化されたベクトル、
は、重み付け値ベクトル(前記重み付け値ベクトルは、前記オリジナル値のサイズを参照にして生成された重み付け値の少なくとも一部を含む)、・は、前記重み付け値ベクトル
及びディファレンスベクトル
の積の結果として決定される成分を含む統合ベクトルを生成する演算、そして
は、L−Pノルム(norm)演算を意味することを特徴とする方法が提供される。
前記数式に従って前記量子化演算を遂行し、
は、第l番目の量子化されたベクトルであり、xkは、前記オリジナルベクトルに含まれる第k番目のオリジナル値であり、εは、前記量子化演算の方式を決定する定数、[ ]は、ガウス演算を意味することを特徴とするコンピューティング装置が提供される。
前記重み量子化ロス演算は前記数式に従い、
は、前記オリジナルベクトル、
は、第l番目量子化されたベクトル、
は、重み付け値ベクトル(前記重み付け値ベクトルは、前記オリジナル値のサイズを参照にして生成された重み付け値の少なくとも一部を含む)、・は、前記重み付け値ベクトル
及びディファレンスベクトル
の積の結果として決定される成分を含む統合ベクトルを生成する演算、そして
は、L−Pノルム(norm)演算を意味することを特徴とするコンピューティング装置が提供される。
本発明によってFL値を決定する方法を説明する前に、FL値及びBW値等についてまず説明する。
ここで、
は、第l番目の量子化されたベクトルであり、xkは、前記オリジナルベクトルに含まれた第k番目のオリジナル値であり、[ ]はガウス演算、すなわち、ローフロア演算(low floor operation)であり得る。前記式において、FL及びBWは、これまでに説明したFL値及びBW値と同一であり得る。εは、前記量子化演算の方式を決定する定数であり得る。もし、εが0.5である場合、オリジナル値は、最も近い整数に四捨五入される。εが0である場合、オリジナル値は切り捨てられる。εが任意の値である場合、オリジナル値は、確率的に近似演算をすることになるのである。
ここで、
は、前記オリジナルベクトル、
は、第l番目量子化されたベクトル、
は、重み付け値ベクトル(前記重み付け値ベクトルは、前記オリジナル値のサイズを参照にして生成された重み付け値の少なくとも一部を含む)、・は、前記重み付け値ベクトル
及びディファレンスベクトル
の積の結果として決定される成分を含む統合ベクトルを生成する演算、そして
は、L−Pノルム(norm)演算を意味し得る。
に対して生成されると、ロスユニット140は、重み付け値ベクトル
及びディファレンスベクトル
成分別積から統合ベクトルを生成し得る。そして、残りユニット140は、L−Pノルム(norm)演算を統合ベクトルに適用することにより、重み量子化ロス値を生成し得る。ここで、重み付け値ベクトルの成分は、小さい値に対応する量子化エラーが大きく反映されるようにするために、対応するオリジナル値の各成分の逆数で決定され得る。
つまり、0.0093と計算されることになるであろう。
図3は、本発明の一例に係る各チャネルに含まれた量子化された値のそれぞれの分散を示した例示図面である。
Claims (18)
- 量子化された値に含まれているLSB(Least Significant Bit)のサイズに対応するFLパラメータであるFL(Fractional Length)値を決定する方法において、
(a)コンピューティング装置が、オリジナル値(original values)を含むオリジナルベクトル(original vector)を取得すると、(i)BW値(前記BW値は、前記量子化された値それぞれを示すために利用されたビット数に対応するBWパラメータである)及び(ii)FL候補値それぞれを参照にして、前記オリジナル値に量子化演算を適用することにより、量子化されたベクトル(前記量子化されたベクトルは、前記FL候補値それぞれに対応し、前記量子化された値を含む)それぞれを生成するようにする段階;
(b)前記コンピューティング装置が、前記量子化されたベクトルそれぞれに含まれている前記量子化された値と、前記オリジナルベクトルに含まれている前記オリジナル値との差異それぞれに対する情報に対して、重み量子化ロス演算を適用することにより、前記FL候補値それぞれに対応する、重み量子化ロス値を生成するようにする段階;及び
(c)前記コンピューティング装置が、前記重み量子化ロス値を参照にして、前記FL候補値の中から前記FL値を決定するようにする段階;
を含むことを特徴とする方法。 - 前記(a)段階で、
前記数式に従って前記量子化演算を遂行し、
は第l番目の量子化されたベクトルであり、xkは、前記オリジナルベクトルに含まれる第k番目のオリジナル値であり、εは、前記量子化演算の方式を決定する定数、[ ]は、ガウス演算を意味することを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記重み量子化ロス演算は、重み付け値ベクトル(前記重み付け値ベクトルは、前記オリジナル値のサイズを参照して生成された重み付け値の少なくとも一部を含む)を参照にして、前記FL候補値それぞれに対応する前記重み量子化ロス値それぞれを生成することを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記重み量子化ロス演算は前記数式に従い、
は、前記オリジナルベクトル、
は、第l番目量子化されたベクトル、
は、重み付け値ベクトル(前記重み付け値ベクトルは、前記オリジナル値のサイズを参照にして生成された重み付け値の少なくとも一部を含む)、・は、前記重み付け値ベクトル
及びディファレンスベクトル
の積の結果として決定される成分を含む統合ベクトルを生成する演算、そして
は、L−Pノルム(norm)演算を意味することを特徴とする請求項1に記載の方法。 - 前記オリジナル値は、(i)CNNの任意の特定レイヤに含まれたCNNパラメータ及び(ii)前記特定レイヤが前記特徴マップを処理する間、前記FL値を決定するために利用されるトレーニングイメージに対応する特徴マップの特徴値を含むことを特徴とする請求項1に記載の方法。
- 前記FL値は、前記特徴マップの値が量子化される際、前記重み量子化ロス値が閾値より小さいように最適化された値であり、前記特徴マップの値の少なくとも一部は、互いに異なるチャネルに含まれることを特徴とする請求項5に記載の方法。
- (d)前記コンピューティング装置が、前記FL値及び前記BW値を参照にして、CNNそれぞれのレイヤに含まれているパラメータに前記量子化演算を適用して、量子化されたパラメータを生成する段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - (e)テスト値が取得されると、前記コンピューティング装置が、前記CNNをもって、前記量子化されたパラメータを利用して前記テスト値にコンボリューション演算を適用して、テスト特徴値を生成するようにさせ、前記CNNをもって、前記テスト特徴値を累積するようにさせる段階;及び
(f)前記コンピューティング装置が、前記FL値及び前記BW値を参照にして、累積されたテスト特徴値に前記量子化演算を適用して、量子化されたテスト特徴値を生成するようにし、前記量子化されたテスト特徴値をメモリに格納するようにする段階;
をさらに含むことを特徴とする請求項7に記載の方法。 - 前記(e)段階で、前記テスト値は、固定小数点(fixed point)形式で取得され、前記テスト特徴値は、浮動小数点(floating point)形式で生成され、前記コンピューティング装置は、前記CNNをもって、前記テスト特徴値を前記浮動小数点形式で累積するようにさせ、
前記(f)段階で、前記コンピューティング装置は、前記固定小数点形式に量子化された特徴値を生成し、前記メモリに前記固定小数点形式に量子化された特徴値を格納することを特徴とする請求項8に記載の方法。 - 量子化された値に含まれているLSB(Least Significant Bit)のサイズに対応するFLパラメータであるFL(Fractional Length)値のサイズに対応するFLパラメータである)を決定するコンピューティング装置において、
各インストラクションを格納する少なくとも一つのメモリ;及び
(I)オリジナル値(original values)を含むオリジナルベクトル(original vector)を取得すると、(i)BW値(前記BW値は、前記量子化された値それぞれを示すために利用されたビット数に対応するBWパラメータである)及び(ii)FL候補値それぞれを参照にして、前記オリジナル値に量子化演算を適用することにより、量子化されたベクトル(前記量子化されたベクトルは、前記FL候補値それぞれに対応し、前記量子化された値を含む)それぞれを生成するようにするプロセス;(II)前記量子化されたベクトルそれぞれに含まれている前記量子化された値と、前記オリジナルベクトルに含まれている前記オリジナル値との差異それぞれに対する情報に対して、重み量子化ロス演算を適用することにより、前記FL候補値それぞれに対応する、重み量子化ロス値を生成するようにするプロセス;及び(III)前記重み量子化ロス値を参照にして、前記FL候補値の中で前記FL値を決定するようにするプロセス;を遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするコンピューティング装置。 - 前記(I)プロセスは、
前記数式に従って前記量子化演算を遂行し、
は、第l番目の量子化されたベクトルであり、xkは、前記オリジナルベクトルに含まれる第k番目のオリジナル値であり、εは、前記量子化演算の方式を決定する定数、[ ]は、ガウス演算を意味することを特徴とする請求項10に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記重み量子化ロス演算は、重み付け値ベクトル(前記重み付け値ベクトルは、前記オリジナル値のサイズを参照して生成された重み付け値の少なくとも一部を含む)を参照にして、前記FL候補値それぞれに対応する前記重み量子化ロス値それぞれを生成することを特徴とする請求項10に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記重み量子化ロス演算は前記数式に従い、
は、前記オリジナルベクトル、
は、第l番目量子化されたベクトル、
は、重み付け値ベクトル(前記重み付け値ベクトルは、前記オリジナル値のサイズを参照にして生成された重み付け値の少なくとも一部を含む)、・は、前記重み付け値ベクトル
及びディファレンスベクトル
の積の結果として決定される成分を含む統合ベクトルを生成する演算、そして
は、L−Pノルム(norm)演算を意味することを特徴とする請求項10に記載のコンピューティング装置。 - 前記オリジナル値は、(i)CNNの任意の特定レイヤに含まれたCNNパラメータ及び(ii)前記特定レイヤが前記特徴マップを処理する間、前記FL値を決定するために利用されるトレーニングイメージに対応する特徴マップの特徴値を含むことを特徴とする請求項10に記載のコンピューティング装置。
- 前記FL値は、前記特徴マップの値が量子化される際、前記重み量子化ロス値が閾値より小さいように最適化された値であり、前記特徴マップの値の少なくとも一部は、互いに異なるチャネルに含まれることを特徴とする請求項14に記載のコンピューティング装置。
- (IV)前記FL値及び前記BW値を参照にして、CNNそれぞれのレイヤに含まれているパラメータに前記量子化演算を適用して、量子化されたパラメータを生成するプロセス;をさらに含むことを特徴とする請求項10に記載のコンピューティング装置。
- (V)テスト値が取得されると、前記CNNをもって、前記量子化されたパラメータを利用して前記テスト値にコンボリューション演算を適用して、テスト特徴値を生成するようにさせ、前記CNNをもって、前記テスト特徴値を累積するようにさせるプロセス;及び
(VI)前記FL値及び前記BW値を参照にして、累積されたテスト特徴値に前記量子化演算を適用して、量子化されたテスト特徴値を生成するようにし、前記量子化されたテスト特徴値をメモリに格納するプロセス;
をさらに遂行することを特徴とする請求項16に記載のコンピューティング装置。 - 前記(V)プロセスで、前記テスト値は、固定小数点(fixed point)形式で取得され、前記テスト特徴値は、浮動小数点(floating point)形式で生成され、前記CNNをもって、前記テスト特徴値を前記浮動小数点形式で累積するようにさせ、
前記(VI)プロセスで、前記固定小数点形式に量子化された特徴値を生成し、前記メモリに前記固定小数点形式に量子化された特徴値を格納することを特徴とする請求項17に記載のコンピューティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/255012 | 2019-01-23 | ||
US16/255,012 US10592799B1 (en) | 2019-01-23 | 2019-01-23 | Determining FL value by using weighted quantization loss values to thereby quantize CNN parameters and feature values to be used for optimizing hardware applicable to mobile devices or compact networks with high precision |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119528A true JP2020119528A (ja) | 2020-08-06 |
JP6970460B2 JP6970460B2 (ja) | 2021-11-24 |
Family
ID=68886758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020001009A Active JP6970460B2 (ja) | 2019-01-23 | 2020-01-07 | モバイルデバイスまたは高精度の小型ネットワークに適用可能なハードウェアを最適化するために利用されるCNNパラメータ及び特徴値を量子化するために、重み量子化ロス値を利用してFL(Fractional Length)値を決定する方法及び装置{METHOD AND DEVICE FOR DETERMINING FL VALUE BY USING WEIGHTED QUANTIZATION LOSS VALUES TO THEREBY QUANTIZE CNN PARAMETERS AND FEATURE VALUES TO BE USED FOR OPTIMIZING HARDWARE APPLICABLE TO MOBILE DEVICES OR COMPACT NETWORKS WITH HIGH PRECISION} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10592799B1 (ja) |
EP (1) | EP3686809A1 (ja) |
JP (1) | JP6970460B2 (ja) |
KR (1) | KR102325031B1 (ja) |
CN (1) | CN111476362B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6992864B1 (ja) | 2020-09-28 | 2022-01-13 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210110382A1 (en) * | 2019-10-13 | 2021-04-15 | MobileCoin | System and method for providing auxiliary curve cold storage |
CN113762496B (zh) * | 2020-06-04 | 2024-05-03 | 合肥君正科技有限公司 | 一种降低低比特卷积神经网络推理运算复杂度的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046894A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Method for optimizing an artificial neural network (ann) |
JP2020064635A (ja) * | 2018-10-17 | 2020-04-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワークのパラメータを量子化する方法及びその装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107688855B (zh) * | 2016-08-12 | 2021-04-13 | 赛灵思公司 | 针对于复杂神经网络的分层量化方法与装置 |
US10643124B2 (en) * | 2016-08-12 | 2020-05-05 | Beijing Deephi Intelligent Technology Co., Ltd. | Method and device for quantizing complex artificial neural network |
US10381020B2 (en) * | 2017-06-16 | 2019-08-13 | Apple Inc. | Speech model-based neural network-assisted signal enhancement |
KR20190034985A (ko) * | 2017-09-25 | 2019-04-03 | 삼성전자주식회사 | 인공 신경망의 양자화 방법 및 장치 |
CN108701250B (zh) * | 2017-10-16 | 2022-03-04 | 深圳市大疆创新科技有限公司 | 数据定点化方法和装置 |
-
2019
- 2019-01-23 US US16/255,012 patent/US10592799B1/en active Active
- 2019-09-27 KR KR1020190119524A patent/KR102325031B1/ko active IP Right Grant
- 2019-12-11 EP EP19215143.9A patent/EP3686809A1/en active Pending
- 2019-12-16 CN CN201911294370.XA patent/CN111476362B/zh active Active
-
2020
- 2020-01-07 JP JP2020001009A patent/JP6970460B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046894A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Method for optimizing an artificial neural network (ann) |
JP2020064635A (ja) * | 2018-10-17 | 2020-04-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワークのパラメータを量子化する方法及びその装置 |
Non-Patent Citations (2)
Title |
---|
DOYUN KIM, ET AL.: "Convolutional Neural Network Quantization using Generalized Gamma Distribution", [ONLINE], JPN6021007852, 31 October 2018 (2018-10-31), ISSN: 0004461620 * |
SUYOG GUPTA, ET AL: "Deep Learning with Limited Numerical Precision", [ONLINE], JPN6021007854, 9 February 2015 (2015-02-09), ISSN: 0004461621 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6992864B1 (ja) | 2020-09-28 | 2022-01-13 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
JP2022054660A (ja) * | 2020-09-28 | 2022-04-07 | 沖電気工業株式会社 | ニューラルネットワーク軽量化装置、ニューラルネットワーク軽量化方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20200091784A (ko) | 2020-07-31 |
JP6970460B2 (ja) | 2021-11-24 |
EP3686809A1 (en) | 2020-07-29 |
KR102325031B1 (ko) | 2021-11-12 |
CN111476362B (zh) | 2024-05-03 |
CN111476362A (zh) | 2020-07-31 |
US10592799B1 (en) | 2020-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6872264B2 (ja) | ハードウェア最適化を通じてモバイル装置または高精度の小型ネットワークに使用されるcnnパラメータ量子化を最適化するためにcnnレイヤを変換する方法及び装置 | |
JP2020119528A (ja) | モバイルデバイスまたは高精度の小型ネットワークに適用可能なハードウェアを最適化するために利用されるCNNパラメータ及び特徴値を量子化するために、重み量子化ロス値を利用してFL(Fractional Length)値を決定する方法及び装置{METHOD AND DEVICE FOR DETERMINING FL VALUE BY USING WEIGHTED QUANTIZATION LOSS VALUES TO THEREBY QUANTIZE CNN PARAMETERS AND FEATURE VALUES TO BE USED FOR OPTIMIZING HARDWARE APPLICABLE TO MOBILE DEVICES OR COMPACT NETWORKS WITH HIGH PRECISION} | |
KR102337358B1 (ko) | 모바일 장치 또는 소형 네트워크에 적용 가능한 하드웨어를 최적화하는데 사용될 수 있는 roi를 풀링하기 위하여, 마스킹 파라미터를 이용하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6916549B2 (ja) | 軍事的目的、ドローンまたはロボットに利用されるために一つ以上の以前のバッチをさらに参照してモバイル装置またはiot装置に適用可能なオンラインバッチ正規化、オンデバイス学習、及び連続学習を遂行する方法と装置、並びにそれを利用したテスト方法及びテスト装置 | |
CN111783961A (zh) | 基于激活定点拟合的卷积神经网络训练后量化方法及系统 | |
KR20200094622A (ko) | 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치 | |
JP2020119533A (ja) | 自律走行自動車のレベル4を満たすために要求されるhdマップアップデートに利用される、少なくとも一つのアダプティブロス重み付け値マップを利用したアテンションドリブン・イメージセグメンテーション学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP2020038664A (ja) | コンボリューションニューラルネットワークから複数の出力のアンサンブルを利用して統合された特徴マップを提供するための方法及び装置{method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network} | |
CN111985495A (zh) | 模型部署方法、装置、系统及存储介质 | |
JP6856904B2 (ja) | 物体のスケールに応じてモード転換が可能なcnn基盤の監視用物体検出器の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
KR20200040185A (ko) | 적응적 학습률로 뉴럴 네트워크를 학습하는 방법 및 장치, 이를 이용한 테스트 방법 및 장치 | |
CN109446933B (zh) | 一种基于卷积神经网络的道路场景语义分割方法 | |
US11531884B2 (en) | Separate quantization method of forming combination of 4-bit and 8-bit data of neural network | |
JP6860943B2 (ja) | コンボリューション演算の無欠性を検証するためにテストパターンを生成し、前記テストパターンの中から最適化テストパターンを選択して、極度の状況で欠陥許容能力及び揺れに強靭な性質を向上させる方法及び装置 | |
US6813390B2 (en) | Scalable expandable system and method for optimizing a random system of algorithms for image quality | |
Kwak et al. | Quantization aware training with order strategy for CNN | |
CN114048853A (zh) | 神经网络的量化方法、装置、计算机设备及存储介质 | |
JP2004527172A (ja) | 画像品質についてのアルゴリズムのランダムシステムを最適化するための拡張可能なシステム及び方法 | |
CN116189667B (zh) | 语音处理模型的量化压缩方法、装置、设备和存储介质 | |
CN112800813B (zh) | 一种目标识别方法及装置 | |
WO2021230006A1 (ja) | ネットワーク量子化方法及びネットワーク量子化装置 | |
CN117274049A (zh) | 一种基于训练后量化的视频超分方法 | |
CN115331067A (zh) | 图像的处理方法、装置、设备及存储介质 | |
CN117273075A (zh) | 负载预测模型的训练方法、负载预测方法、装置及设备 | |
CN114492721A (zh) | 神经网络的混合精度量化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200108 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6970460 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |