JP7052034B2 - 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ - Google Patents
重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ Download PDFInfo
- Publication number
- JP7052034B2 JP7052034B2 JP2020524354A JP2020524354A JP7052034B2 JP 7052034 B2 JP7052034 B2 JP 7052034B2 JP 2020524354 A JP2020524354 A JP 2020524354A JP 2020524354 A JP2020524354 A JP 2020524354A JP 7052034 B2 JP7052034 B2 JP 7052034B2
- Authority
- JP
- Japan
- Prior art keywords
- weight
- convolution
- effective weight
- effective
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000013528 artificial neural network Methods 0.000 title claims description 46
- 210000002569 neuron Anatomy 0.000 claims description 56
- 239000011159 matrix material Substances 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013500 data storage Methods 0.000 description 18
- 238000011176 pooling Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 210000002364 input neuron Anatomy 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000001994 activation Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 210000004205 output neuron Anatomy 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Complex Calculations (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
深層ニューラルネットワークは人工知能の分野において最も大きな発展を示した認識モデルの一つである。この深層ニューラルネットワークはモデルを構築することにより人間の脳の神経接続構造のシミュレーションを行い、複数回の形質転換の段階を経て階層的にデータの特質を記述し、静止画、動画及び音声などの高スケールのデータ処理作業に打開策をもたらしている。深層ニューラルネットワークのモデルは、メッシュ状に相互接続された構造によって接続された多数のノードからなる作動的なモデルである。これらのノードはニューロンと呼ばれている。二つのノード間の接続強度は重み付けされた重さ、すなわち、接続信号を介する二つのノード間において、人間の神経ネットワークにおける記憶に対応する重さを表している。
本発明の第一の態様においては、ニューラルネットワークにおける重みデータ(weight data)の保存方法であって、重み畳み込みカーネルマトリクス(weight convolution kernel matrix)における有効重み(effective weight)を検出し、有効重みの指数(index of effective weight)を算出し、前記有効重みはゼロではなく、前記有効重み指数は前記重み畳み込みカーネルマトリクスにおける前記有効重みの位置をマーキングするために用いられるステップ1と、前記有効重み及び前記有効重み指数を保存するステップ2と、を備える方法が提供される。
指数を求め、ゼロではない重みをコンパクトに保存し、さらに、この重みに対応するニューロンを畳み込みドメイン内に直接的にロックし、重みの指数を用いて畳み込み処理を実行することにより、値がゼロの重みと、ゼロの重みに対応するニューロンとが畳み込み計算の間に破棄され、これにより、ニューラルネットワークのデータ処理の保存スペースと、ロードするニューロンの数とを減らすことができる。結果的に、ニューラルネットワークの計算処理の電力消費量を効果的に減らすことができるとともに、計算資源の利用の仕方を改善することができる。本発明においては、重みデータは重みの指数とは別個に分けて保存されるので、目的のニューロンを並列的にサーチすることが容易になる。
このステップにおいて、オリジナルの重み畳み込みカーネルマトリクスはK×Kの正方形マトリクスに拡張される。拡張されたマトリクスはP2個のサブマトリクスに均等に分割可能であるようになっている。Pは2以上の整数である。本実施形態においては、Kはmnの値を取り、mは2以上の整数であり、nは1以上の整数とすることができる。オリジナルの重み畳み込みカーネルマトリクスに関しては、上記の正方形マトリクスに新たに追加された要素は0(ゼロ)に設定される。
このステップにおいては、各重み畳み込みカーネルは重み指数の1単位として扱われる。指数の形成及び重み保存方法は、図3(a)に一例として示されている5×5の重み畳み込みカーネルを参照して以下に説明される。
本発明に係る重みデータ保存方法により得られた圧縮された重み及び重み指数は入力重み・指数貯蔵ユニットにロードされ、入力されたニューロンはニューロン貯蔵ユニットにロードされる。貯蔵ユニットが一杯である場合には、データのロードは保留される。
具体的には、ステップS620は、記憶されたオリジナルの順番に従って圧縮された重みを計算アレイに直接的にロードするステップと、重み指数を用いて、貯蔵されたニューロン畳み込みドメイン内の圧縮された重みに対応するニューロンをロックするステップと、を備えている。
ステップS630においては、計算アレイは圧縮重み及びそれに対応するニューロンに対して畳み込み処理を実行する。
ステップS610、S620及びS630によって、畳み込みドメイン内のニューロンに対する畳み込みカーネルの畳み込み処理が完了する。
得られた畳み込みの結果は活性化され、プーリングされる。このプロセスは従来技術に属するものであるので、ここでは詳細には説明しない。
Claims (8)
- ニューラルネットワークにおける重みデータ(weight data)の保存方法であって、
重み畳み込みカーネルマトリクス(weight convolution kernel matrix)における有効重み(effective weight)を検出し、有効重みの指数(index of effective weight)を算出し、前記有効重みはゼロではなく、前記有効重み指数は前記重み畳み込みカーネルマトリクスにおける前記有効重みの位置をマーキングするために用いられるステップ1と、
前記有効重み及び前記有効重み指数を保存するステップ2と、
を備え、前記ステップ1は、
オリジナルの前記重み畳み込みカーネルマトリクスを、P 2 個のサブマトリクスに均等に分割できるように、K×Kの正方形マトリクスに拡張し、前記Pは2以上の整数であるステップ11と、
前記正方形マトリクスをP 2 個のサブマトリクスに均等に分割するステップ12と、
各サブマトリクスが1個のみの重みを示すようになるまで、各々が有効重みを構成している前記P 2 個のサブマトリクスをサブマトリクスに再帰的かつ均等に分割し、複数レベルのサブマトリクスを得るステップ13と、
前記複数レベルのサブマトリクスにおいて各々が有効重みを構成しているサブマトリクスに対して、ビット値が1である有効パスブランチ(effective path branch)を形成し、前記有効重み指数を得るステップ14と、
からなるものであることを特徴とする方法。 - 前記Kはmnの値を取り、mは2以上の整数であり、nは1以上の整数であることを特徴とする請求項1に記載の方法。
- 前記ステップ1において、前記有効重み指数は前記重み畳み込みカーネルマトリクスにおける前記有効重みの縦横座標を示すものであることを特徴とする請求項1に記載の方法。
- ニューラルネットワークにおける畳み込み計算の方法であって、
請求項1乃至3の何れか一項に記載の方法により保存された有効重み及び有効重み指数を取得するステップ41と、
前記有効重み指数に従って、前記有効重みと適合する畳み込みドメインニューロン(domain neuron)を取得するステップ42と、
前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理を実行するステップ43と、
を備える方法。 - 請求項1乃至3の何れか一項に記載の方法により得られた有効重み及び有効重み指数を保存可能な重み・指数保存ユニットと、
前記有効重み指数に従って、前記有効重みと適合する畳み込みドメインニューロン(domain neuron)を取得可能なニューロン指数ユニットと、
前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理を実行可能な計算アレイユニットと、
を備えるニューラルネットワークプロセッサ。 - 前記畳み込みドメインニューロンと畳み込みの結果とを保存する保存ユニットと、
前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理の実施順序を制御する制御ユニットと、
をさらに備えることを特徴とする請求項5に記載のニューラルネットワークプロセッサ。 - コンピュータプログラムを記憶するためのコンピュータが読み取り可能な記憶媒体であって、前記プログラムがプロセッサによって実行されたときに、請求項1乃至4の何れか一項に記載の方法の各ステップが実行されるものである記憶媒体。
- プロセッサと、前記プロセッサ上で実行可能なコンピュータプログラムが記憶されているメモリと、を備えるコンピュータ機器であって、前記プロセッサが前記プログラムを実行したときに、請求項1乃至4の何れか一項に記載の方法の各ステップが実行されるものであるコンピュータ機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711102821.6 | 2017-11-10 | ||
CN201711102821.6A CN107977704B (zh) | 2017-11-10 | 2017-11-10 | 权重数据存储方法和基于该方法的神经网络处理器 |
PCT/CN2018/077516 WO2019091020A1 (zh) | 2017-11-10 | 2018-02-28 | 权重数据存储方法和基于该方法的神经网络处理器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021503644A JP2021503644A (ja) | 2021-02-12 |
JP7052034B2 true JP7052034B2 (ja) | 2022-04-11 |
Family
ID=62013286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020524354A Active JP7052034B2 (ja) | 2017-11-10 | 2018-02-28 | 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ |
Country Status (5)
Country | Link |
---|---|
US (1) | US11531889B2 (ja) |
JP (1) | JP7052034B2 (ja) |
CN (1) | CN107977704B (ja) |
IL (1) | IL274535B1 (ja) |
WO (1) | WO2019091020A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109725936B (zh) * | 2017-10-30 | 2022-08-26 | 上海寒武纪信息科技有限公司 | 扩展计算指令的实现方法以及相关产品 |
KR102065672B1 (ko) * | 2018-03-27 | 2020-01-13 | 에스케이텔레콤 주식회사 | 합성곱 연산을 위한 장치 및 방법 |
JP7240657B2 (ja) * | 2018-05-15 | 2023-03-16 | Tokyo Artisan Intelligence株式会社 | ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム |
CN108874914B (zh) * | 2018-05-29 | 2021-11-02 | 吉林大学 | 一种基于图卷积与神经协同过滤的信息推荐方法 |
CN113190791A (zh) | 2018-08-06 | 2021-07-30 | 华为技术有限公司 | 矩阵的处理方法、装置及逻辑电路 |
CN110825311B (zh) * | 2018-08-10 | 2023-04-18 | 昆仑芯(北京)科技有限公司 | 用于存储数据的方法和装置 |
US20210098001A1 (en) * | 2018-09-13 | 2021-04-01 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
CN110928576A (zh) * | 2018-09-20 | 2020-03-27 | 中兴通讯股份有限公司 | 一种卷积神经网络的卷积处理方法、装置及存储介质 |
US11436482B2 (en) | 2018-10-29 | 2022-09-06 | Western Digital Technologies, Inc. | Storing neural net works and weights for neural networks |
CN109933654A (zh) * | 2019-01-30 | 2019-06-25 | 神思电子技术股份有限公司 | 一种基于状态树的对话管理方法 |
US11562214B2 (en) * | 2019-03-14 | 2023-01-24 | Baidu Usa Llc | Methods for improving AI engine MAC utilization |
CN111695683B (zh) * | 2019-03-15 | 2023-09-01 | 华邦电子股份有限公司 | 可执行人工智能运算的存储器芯片及其运算方法 |
CN110097172B (zh) * | 2019-03-18 | 2021-10-29 | 中国科学院计算技术研究所 | 一种基于winograd卷积运算的卷积神经网络数据处理方法及装置 |
CN110378468B (zh) * | 2019-07-08 | 2020-11-20 | 浙江大学 | 一种基于结构化剪枝和低比特量化的神经网络加速器 |
KR20210060024A (ko) * | 2019-11-18 | 2021-05-26 | 에스케이하이닉스 주식회사 | 신경망 처리 회로를 포함하는 메모리 장치 |
CN111242277B (zh) * | 2019-12-27 | 2023-05-05 | 中国电子科技集团公司第五十二研究所 | 一种基于fpga设计的支持稀疏剪枝的卷积神经网络加速器 |
CN113128658B (zh) * | 2019-12-31 | 2024-07-09 | Tcl科技集团股份有限公司 | 一种神经网络处理方法、加速器及存储介质 |
CN111260037B (zh) * | 2020-02-11 | 2023-10-13 | 深圳云天励飞技术股份有限公司 | 图像数据的卷积运算方法、装置、电子设备及存储介质 |
CN111368981B (zh) * | 2020-03-06 | 2021-07-09 | 上海新氦类脑智能科技有限公司 | 减小突触连接的存储面积的方法、装置、设备和存储介质 |
CN113822410A (zh) * | 2020-06-18 | 2021-12-21 | 华为技术有限公司 | 神经网络模型训练、图像分类、文本翻译方法及装置、设备 |
CN111553471A (zh) * | 2020-07-13 | 2020-08-18 | 北京欣奕华数字科技有限公司 | 一种数据分析处理方法及装置 |
CN113220606B (zh) * | 2021-05-07 | 2021-11-26 | 珠海市芯动力科技有限公司 | 神经网络权值存储方法、读取方法及相关设备 |
WO2022247908A1 (zh) * | 2021-05-27 | 2022-12-01 | 北京灵汐科技有限公司 | 权重矩阵的数据存储方法、数据获取方法及装置、设备 |
CN114527930B (zh) * | 2021-05-27 | 2024-01-30 | 北京灵汐科技有限公司 | 权重矩阵数据存储方法、数据获取方法和装置、电子设备 |
CN113688983B (zh) * | 2021-08-09 | 2024-07-05 | 上海新氦类脑智能科技有限公司 | 脉冲神经网络中减少权重储存的卷积运算实现方法、电路及终端 |
CN116050469A (zh) * | 2021-10-28 | 2023-05-02 | 华为技术有限公司 | Ai模型的处理方法、运算方法及装置 |
CN113704565B (zh) * | 2021-10-28 | 2022-02-18 | 浙江大学 | 基于全局区间误差的学习型时空索引方法、装置及介质 |
CN114780039A (zh) * | 2022-04-29 | 2022-07-22 | 北京灵汐科技有限公司 | 存储方法、计算方法、存储装置、众核系统、介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447034A (zh) | 2016-10-27 | 2017-02-22 | 中国科学院计算技术研究所 | 一种基于数据压缩的神经网络处理器、设计方法、芯片 |
CN106529670A (zh) | 2016-10-27 | 2017-03-22 | 中国科学院计算技术研究所 | 一种基于权重压缩的神经网络处理器、设计方法、芯片 |
CN106650924A (zh) | 2016-10-27 | 2017-05-10 | 中国科学院计算技术研究所 | 一种基于时间维和空间维数据流压缩的处理器、设计方法 |
US20170168990A1 (en) | 2015-12-11 | 2017-06-15 | Sap Se | Adaptive tile matrix representation and multiplication |
WO2017154946A1 (ja) | 2016-03-09 | 2017-09-14 | 日本電気株式会社 | 情報処理装置、情報処理方法、データ構造およびプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0219069A (ja) * | 1988-07-06 | 1990-01-23 | Eiji Kawaguchi | 2値画像符号化方式 |
US20170249547A1 (en) * | 2016-02-26 | 2017-08-31 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Holistic Extraction of Features from Neural Networks |
CN107239825B (zh) * | 2016-08-22 | 2021-04-09 | 赛灵思电子科技(北京)有限公司 | 考虑负载均衡的深度神经网络压缩方法 |
CN107239823A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种用于实现稀疏神经网络的装置和方法 |
CN107239824A (zh) * | 2016-12-05 | 2017-10-10 | 北京深鉴智能科技有限公司 | 用于实现稀疏卷积神经网络加速器的装置和方法 |
US10515302B2 (en) * | 2016-12-08 | 2019-12-24 | Via Alliance Semiconductor Co., Ltd. | Neural network unit with mixed data and weight size computation capability |
CN106951962B (zh) * | 2017-03-22 | 2020-09-01 | 南京地平线机器人技术有限公司 | 用于神经网络的复合运算单元、方法和电子设备 |
CN107153873B (zh) * | 2017-05-08 | 2018-06-01 | 中国科学院计算技术研究所 | 一种二值卷积神经网络处理器及其使用方法 |
CN107292352B (zh) * | 2017-08-07 | 2020-06-02 | 北京中星微人工智能芯片技术有限公司 | 基于卷积神经网络的图像分类方法和装置 |
CN107729995A (zh) * | 2017-10-31 | 2018-02-23 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和系统及神经网络处理器 |
CN107844829A (zh) * | 2017-10-31 | 2018-03-27 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和系统及神经网络处理器 |
-
2017
- 2017-11-10 CN CN201711102821.6A patent/CN107977704B/zh active Active
-
2018
- 2018-02-28 WO PCT/CN2018/077516 patent/WO2019091020A1/zh active Application Filing
- 2018-02-28 US US16/762,810 patent/US11531889B2/en active Active
- 2018-02-28 JP JP2020524354A patent/JP7052034B2/ja active Active
-
2020
- 2020-05-07 IL IL274535A patent/IL274535B1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170168990A1 (en) | 2015-12-11 | 2017-06-15 | Sap Se | Adaptive tile matrix representation and multiplication |
WO2017154946A1 (ja) | 2016-03-09 | 2017-09-14 | 日本電気株式会社 | 情報処理装置、情報処理方法、データ構造およびプログラム |
CN106447034A (zh) | 2016-10-27 | 2017-02-22 | 中国科学院计算技术研究所 | 一种基于数据压缩的神经网络处理器、设计方法、芯片 |
CN106529670A (zh) | 2016-10-27 | 2017-03-22 | 中国科学院计算技术研究所 | 一种基于权重压缩的神经网络处理器、设计方法、芯片 |
CN106650924A (zh) | 2016-10-27 | 2017-05-10 | 中国科学院计算技术研究所 | 一种基于时间维和空间维数据流压缩的处理器、设计方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210182666A1 (en) | 2021-06-17 |
IL274535B1 (en) | 2024-07-01 |
IL274535A (en) | 2020-06-30 |
CN107977704B (zh) | 2020-07-31 |
CN107977704A (zh) | 2018-05-01 |
WO2019091020A1 (zh) | 2019-05-16 |
US11531889B2 (en) | 2022-12-20 |
JP2021503644A (ja) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052034B2 (ja) | 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ | |
US11875268B2 (en) | Object recognition with reduced neural network weight precision | |
CN107818367B (zh) | 用于神经网络的处理系统和处理方法 | |
KR102347119B1 (ko) | 가산기를 이용한 다차원 텐서의 데이터 액세스 | |
JP7450815B2 (ja) | 階層的重み疎畳み込み処理のための方法とシステム | |
CN108510058B (zh) | 神经网络中的权重存储方法以及基于该方法的处理器 | |
CN109324827B (zh) | 用于处理用于访问数据的指令的装置、方法和系统 | |
CN110689109A (zh) | 神经网络方法和装置 | |
TWI678617B (zh) | 用於在使用加法器之多維張量中存取資料之系統、電腦實施方法及設備 | |
US11014231B2 (en) | Robotic device task learning | |
CN107766292B (zh) | 一种神经网络处理方法及处理系统 | |
CN107610146A (zh) | 图像场景分割方法、装置、计算设备及计算机存储介质 | |
KR20220011208A (ko) | 신경망 트레이닝 방법, 비디오 인식 방법 및 장치 | |
CN108376283B (zh) | 用于神经网络的池化装置和池化方法 | |
CN115346125B (zh) | 一种基于深度学习的目标检测方法 | |
JP2021527859A (ja) | 深層領域拡張を使用した画像内の不規則形状のセグメント化 | |
WO2022095984A1 (en) | Method and system for convolution with workload-balanced activation sparsity | |
CN108846430A (zh) | 一种基于多原子字典的图像信号的稀疏表示方法 | |
JPWO2020054402A1 (ja) | ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法 | |
CN113313132B (zh) | 对抗样本图像的确定方法、装置、电子设备及存储介质 | |
GB2567038A (en) | Accessing prologue and epilogue data | |
CN111931615B (zh) | 一种机器人目标识别方法、系统、装置和存储介质 | |
CN116402138A (zh) | 一种多粒度历史聚合的时序知识图谱推理方法及系统 | |
CN117744720A (zh) | 卷积网络轻量化处理方法、装置、存储介质与电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200619 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7052034 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |