JP7332722B2 - データ処理方法、装置、記憶媒体及び電子機器 - Google Patents
データ処理方法、装置、記憶媒体及び電子機器 Download PDFInfo
- Publication number
- JP7332722B2 JP7332722B2 JP2021569505A JP2021569505A JP7332722B2 JP 7332722 B2 JP7332722 B2 JP 7332722B2 JP 2021569505 A JP2021569505 A JP 2021569505A JP 2021569505 A JP2021569505 A JP 2021569505A JP 7332722 B2 JP7332722 B2 JP 7332722B2
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- map data
- preset number
- input
- multiplication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F5/00—Methods or arrangements for data conversion without changing the order or content of the data handled
- G06F5/01—Methods or arrangements for data conversion without changing the order or content of the data handled for shifting, e.g. justifying, scaling, normalising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/50—Adding; Subtracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/52—Multiplying; Dividing
- G06F7/523—Multiplying only
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Optimization (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Algebra (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Complex Calculations (AREA)
- Image Processing (AREA)
Description
本願の実施例1に提供された方法実施例は、端末、コンピュータ端末または類似する演算装置で実行されることができる。端末で実行することを例とすると、図1は、本願の実施例に提供されるデータ処理方法の端末のハードウェア構成ブロック図である。図1に示されるように、端末10は、1つまたは複数(図1では、1つのみが示されている)のプロセッサ102(プロセッサ102は、マイクロプロセッサ(Microcontroller Unit、MCU)またはフィールドプログラマブルゲートアレイFPGA等の処理装置を含むが、これらに限らない)と、データを格納するように設けられたメモリ104とを含むことができ、選択できるように、上記の端末は、通信機能を有するように設けられた伝送装置106と、入出力装置108とをさらに含むことができる。図1に示される構成は模式的なものだけであり、上記の端末の構成を限定するものではない。例えば、端末10は、図1に示されるものよりも多くまたは少ない部品、或いは、図1に示されるものと異なる配置をさらに含んでもよい。
全ての入力チャンネル(input channel)のM*Nの特徴マップ(featuremap)データを読み取って内部スタティックランダムアクセスメモリ(Static Random Access Memory、SRAM)に格納する。oc_num個の出力チャンネル(output channel)のweightsを読み取って内部SRAMに格納する。
上記のステップS4010に対応し、本モジュールは、後続の畳み込み加速、読み取りの使用のために、主に高度な拡張可能なインターフェイス(Advanced eXtensible Interface、AXI)バスを介してDDRSDRAMからfeaturemap及びweightsを読み取って、SRAMに格納する。SRAMのスペースが限られているため、weightsのサイズに応じて、全てのinput channel featuremapに対応する小さな範囲のデータを読み取ってSRAMに格納し、この範囲のデータの全てのoutput channelデータを算出してから解放し、全てのinput channel featuremapの次の小さな範囲のデータを引き続き使用する。
上記のステップS4020~ステップS4070に対応し、本モジュールは、主に、CNN畳み込みネットワークに対してハードウェア加速を行い、図8に示されるように、INPUT_CTRLによって送信されたデータを乗算・加算アレイに分散して畳み込み計算し、そして、計算結果をOUTPUT_CTRLに戻させる。
1)方法1:図9に示されるように、featuremapまたはweightsが0である場合、乗算及び累積計算を行わない。
2)方法2:図10に示されるように、featuremapの複数のデータの値が同じである場合、1つのデータの乗算のみが行われ、他のデータの乗算を行わずに、1番目のデータの乗算の結果を直接に使用する。
上記のステップS4080及びステップS4090に対応し、本モジュールは、次の層の畳み込み加速の使用のために、主にAXIバスを介して畳み込み加速された全てのoutput channel featuremapデータをアービトレーション及びアドレス管理によって制御してからDDRSDRAMに書き込む。
本実施例には、データ処理装置がさらに提供され、当該装置は、上記の実施例及び実施形態を実現するように設置され、説明した内容について再び説明しない。以下に使用されるように、「モジュール」という用語は所定の機能を有するソフトウェアおよび/またはハードウェアとの組み合わせを実現することができる。以下の実施例に記載の装置がソフトウェアで実現することができるが、ハードウェア、またはソフトウェアとハードウェアとの組み合わせによる実現も可能でありかつ予想できる。
上記のモジュールはいずれも同じプロセッサ内に位置するか、または、上記の複数のモジュールは任意に組み合わせることでそれぞれ異なるプロセッサ内に位置する。
本願の実施例には、実行される際に上記のいずれかの方法実施例におけるステップを実行するように設置されたコンピュータプログラムが格納されている記憶媒体がさらに提供される。
全ての入力チャンネルのM*Nの特徴マップデータ及び予め設定された数の出力チャンネルの重みを読み取り、ここで、M*Nの値と予め設定された数の値は、それぞれ予め設定されたY*Y重みによって決定されるステップ、
読み取られた特徴マップデータ及び出力チャンネルの重みを予め設定された数の出力チャンネルの乗算・加算アレイに入力して畳み込み計算を行い、ここで、畳み込み計算の方法は、特徴マップデータまたは出力チャンネルの重みがゼロである場合に、畳み込み計算を行わず、複数の特徴マップデータの値が同じである場合に、複数の同じ値の中から1つを選択して畳み込み計算を行うことを含むステップ、
畳み込み計算の結果を出力するステップ。
全ての入力チャンネルのM*Nの特徴マップデータ及び予め設定された数の出力チャンネルの重みを読み取り、ここで、M*Nの値と予め設定された数の値は、それぞれ予め設定されたY*Y重みによって決定されるステップ、
読み取られた特徴マップデータ及び出力チャンネルの重みを予め設定された数の出力チャンネルの乗算・加算アレイに入力して畳み込み計算を行い、ここで、畳み込み計算の方法は、特徴マップデータまたは出力チャンネルの重みがゼロである場合に、畳み込み計算を行わず、複数の特徴マップデータの値が同じである場合に、複数の同じ値の中から1つを選択して畳み込み計算を行うことを含むステップ、
畳み込み計算の結果を出力するステップ。
Claims (6)
- 全ての入力チャンネルのM*Nの特徴マップデータ及び予め設定された数の出力チャンネルの重みを読み取り、ここで、M*Nの値と前記予め設定された数の値は、それぞれ予め設定されたY*Y重みによって決定され、M、N及びYはいずれも正の整数であることと、
読み取られた特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの乗算・加算アレイに入力して畳み込み計算を行うことであって、ここで、畳み込み計算の方法は、前記特徴マップデータまたは前記出力チャンネルの重みがゼロである場合に、前記畳み込み計算を行わず、複数の特徴マップデータの値が同じである場合に、複数の同じ値の中から1つを選択して前記畳み込み計算を行うことを含むことと、
前記畳み込み計算の結果を出力することと、を含み、
読み取られた特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの乗算・加算アレイに入力して畳み込み計算を行うことは、
第1サイクルにおいて、第1入力チャンネルの第1行のM*1の特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの計算アレイに入力し、第1グループのZ*1個の乗算・加算ユニットを利用して乗算・加算を行って、Z個の計算結果を取得し、ここで、Zは前記予め設定されたY*Y重みによって決定されることと、
第2サイクルにおいて、前記第1入力チャンネルの第2行のM*1の特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの計算アレイに入力し、第2グループのZ*1個の乗算・加算ユニットを利用して乗算・加算計算を行って、次の行のZ個の点の中間結果を取得し、同じ出力点の全ての乗算・加算計算をいずれも同一の乗算・加算ユニットで実現するように、前記第1行の特徴マップデータを左に移動させることと、
第3サイクルにおいて、第3行のM*1の特徴マップデータを入力し、前のサイクルと同様な操作を実行することと、
前記読み取り操作を実行した後の第Yサイクルの乗算・加算計算の操作が完了した後に、第Y+1サイクルにおいて、第Y+1行のM*1の特徴マップデータを入力し、前のサイクルと同様な操作を実行し、前記第1入力チャンネルのM*Nの特徴マップデータを全体で置換し、ここで、前記読み取り操作は、全ての入力チャンネルのM*Nの特徴マップデータ及び予め設定された数の出力チャンネルの重みを読み取る操作であることと、
第Y+2サイクルにおいて、第Y+2行のM*1の特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの計算アレイに入力し、第Y+2グループのZ*1個の乗算・加算ユニットを利用して乗算・加算を行って、Z個の計算結果を取得し、前記読み取り操作を実行し後の第Y*Yサイクルの後に、第1行のZ個のデータの前記第1入力チャンネルにおける全ての乗算・加算計算はいずれも完了することと、
前記予め設定された数の入力チャンネルのM*Nの特徴マップデータを前記計算アレイに順次入力し、入力チャンネルの特徴マップデータごとに、各行のM*1の特徴マップデータの乗算・加算操作を順次実行し、前記読み取り操作を実行した後のY*Y*の予め設定された数のサイクルの後に、第1行のZ個のデータの全ての乗算・加算計算はいずれも完了し、計算結果を出力することと、
全ての入力チャンネルのM*Nの特徴マップデータを順次読み取り、全ての入力チャンネルの特徴マップデータの計算がいずれも完了するまで第1行のZ個のデータの全ての乗算・加算計算を完了することと同様な操作を繰り返して実行することと、を含む、
ことを特徴とするデータ処理方法。 - 全ての入力チャンネルのM*Nの特徴マップデータ及び予め設定された数の出力チャンネルの重みを読み取ることは、
全ての入力チャンネルのM*Nの特徴マップデータを読み取ってメモリに格納することと、
予め設定された数の出力チャンネルの重みを読み取って前記メモリに格納することと、を含む、
ことを特徴とする請求項1に記載のデータ処理方法。 - 全ての入力チャンネルのM*Nの特徴マップデータ及び予め設定された数の出力チャンネルの重みを読み取るように設置された読み取りモジュールであって、ここで、M*Nの値と前記予め設定された数の値は、それぞれ予め設定されたY*Y重みによって決定され、M、N及びYはいずれも正の整数である読み取りモジュールと、
読み取られた特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの乗算・加算アレイに入力して畳み込み計算を行うように設置された畳み込みモジュールであって、ここで、畳み込み計算の方法は、前記特徴マップデータまたは前記出力チャンネルの重みがゼロである場合に、前記畳み込み計算を行わず、複数の特徴マップデータの値が同じである場合に、複数の同じ値の中から1つを選択して前記畳み込み計算を行う畳み込みモジュールと、
前記畳み込み計算の結果を出力するように設置された出力モジュールと、を備え、
前記畳み込みモジュールは、
第1サイクルにおいて、第1入力チャンネルの第1行のM*1の特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの計算アレイに入力し、第1グループのZ*1個の乗算・加算ユニットを利用して乗算・加算を行って、Z個の計算結果を取得し、ここで、Zは前記予め設定されたY*Y重みによって決定され、
第2サイクルにおいて、前記第1入力チャンネルの第2行のM*1の特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの計算アレイに入力し、第2グループのZ*1個の乗算・加算ユニットを利用して乗算・加算計算を行って、次の行のZ個の点の中間結果を取得し、同じ出力点の全ての乗算・加算計算をいずれも同一の乗算・加算ユニットで実現するように、前記第1行の特徴マップデータを左に移動させ、
第3サイクルにおいて、第3行のM*1の特徴マップデータを入力し、前のサイクルと同様な操作を実行し、
前記読み取り操作を実行した後の第Yサイクルの乗算・加算計算の操作が完了した後に、第Y+1サイクルにおいて、第Y+1行のM*1の特徴マップデータを入力し、前のサイクルと同様な操作を実行し、前記第1入力チャンネルのM*Nの特徴マップデータを全体で置換し、ここで、前記読み取り操作は、全ての入力チャンネルのM*Nの特徴マップデータ及び予め設定された数の出力チャンネルの重みを読み取る操作であり、
第Y+2サイクルにおいて、第Y+2行のM*1の特徴マップデータ及び前記予め設定された数の出力チャンネルの重みを前記予め設定された数の出力チャンネルの計算アレイに入力し、第Y+2グループのZ*1個の乗算・加算ユニットを利用して乗算・加算を行って、Z個の計算結果を取得し、前記読み取り操作を実行し後の第Y*Yサイクルの後に、第1行のZ個のデータの前記第1入力チャンネルにおける全ての乗算・加算計算はいずれも完了し、
前記予め設定された数の入力チャンネルのM*Nの特徴マップデータを前記計算アレイに順次入力し、入力チャンネルの特徴マップデータごとに、各行のM*1の特徴マップデータの乗算・加算操作を順次実行し、前記読み取り操作を実行した後のY*Y*の予め設定された数のサイクルの後に、第1行のZ個のデータの全ての乗算・加算計算はいずれも完了し、計算結果を出力し、
全ての入力チャンネルのM*Nの特徴マップデータを順次読み取り、全ての入力チャンネルの特徴マップデータの計算がいずれも完了するまで第1行のZ個のデータの全ての乗算・加算計算を完了することと同様な操作を繰り返して実行する、ように設置された、
ことを特徴とするデータ処理装置。 - 前記読み取りモジュールは、
全ての入力チャンネルのM*Nの特徴マップデータを読み取ってメモリに格納するように設置された第1読み取りユニットと、
予め設定された数の出力チャンネルの重みを読み取って前記メモリに格納するように設置された第2読み取りユニットと、を含む、
ことを特徴とする請求項3に記載のデータ処理装置。 - 実行される際に請求項1~2のいずれかに記載のデータ処理方法を実行するように設置されたコンピュータプログラムが格納されている、
ことを特徴とする記憶媒体。 - コンピュータプログラムが格納されているメモリと、請求項1~2のいずれかに記載のデータ処理方法を実行するように、前記コンピュータプログラムを実行するように設置されたプロセッサと、を備える、
ことを特徴とする電子装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910569119.3 | 2019-06-27 | ||
CN201910569119.3A CN112149047A (zh) | 2019-06-27 | 2019-06-27 | 数据的处理方法及装置、存储介质和电子装置 |
PCT/CN2020/085660 WO2020259031A1 (zh) | 2019-06-27 | 2020-04-20 | 数据的处理方法、装置、存储介质和电子装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022538735A JP2022538735A (ja) | 2022-09-06 |
JP7332722B2 true JP7332722B2 (ja) | 2023-08-23 |
Family
ID=73868803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021569505A Active JP7332722B2 (ja) | 2019-06-27 | 2020-04-20 | データ処理方法、装置、記憶媒体及び電子機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220253668A1 (ja) |
EP (1) | EP3958149A4 (ja) |
JP (1) | JP7332722B2 (ja) |
CN (1) | CN112149047A (ja) |
WO (1) | WO2020259031A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114757328A (zh) * | 2021-01-08 | 2022-07-15 | 中国科学院微电子研究所 | 一种卷积神经网络的卷积操作方法及装置 |
CN112966729B (zh) * | 2021-02-26 | 2023-01-31 | 成都商汤科技有限公司 | 一种数据处理方法、装置、计算机设备及存储介质 |
CN115459896B (zh) * | 2022-11-11 | 2023-03-03 | 北京超摩科技有限公司 | 多通道数据传输的控制方法、控制系统、介质及芯片 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228238A (zh) | 2016-07-27 | 2016-12-14 | 中国科学技术大学苏州研究院 | 现场可编程门阵列平台上加速深度学习算法的方法和系统 |
CN107392305A (zh) | 2016-05-13 | 2017-11-24 | 三星电子株式会社 | 实现和执行神经网络的方法及计算机可读介质 |
US20180082181A1 (en) | 2016-05-13 | 2018-03-22 | Samsung Electronics, Co. Ltd. | Neural Network Reordering, Weight Compression, and Processing |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160358069A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Neural network suppression |
KR20180034853A (ko) * | 2016-09-28 | 2018-04-05 | 에스케이하이닉스 주식회사 | 합성곱 신경망의 연산 장치 및 방법 |
US10042819B2 (en) * | 2016-09-29 | 2018-08-07 | Hewlett Packard Enterprise Development Lp | Convolution accelerators |
EP3346425B1 (en) * | 2017-01-04 | 2023-12-20 | STMicroelectronics S.r.l. | Hardware accelerator engine and method |
US11551065B2 (en) * | 2017-11-06 | 2023-01-10 | Imagination Technologies Limited | Neural network architecture using control logic determining convolution operation sequence |
CN109117187A (zh) * | 2018-08-27 | 2019-01-01 | 郑州云海信息技术有限公司 | 卷积神经网络加速方法及相关设备 |
-
2019
- 2019-06-27 CN CN201910569119.3A patent/CN112149047A/zh active Pending
-
2020
- 2020-04-20 EP EP20831690.1A patent/EP3958149A4/en not_active Withdrawn
- 2020-04-20 JP JP2021569505A patent/JP7332722B2/ja active Active
- 2020-04-20 WO PCT/CN2020/085660 patent/WO2020259031A1/zh active Application Filing
- 2020-04-20 US US17/597,066 patent/US20220253668A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392305A (zh) | 2016-05-13 | 2017-11-24 | 三星电子株式会社 | 实现和执行神经网络的方法及计算机可读介质 |
US20180082181A1 (en) | 2016-05-13 | 2018-03-22 | Samsung Electronics, Co. Ltd. | Neural Network Reordering, Weight Compression, and Processing |
CN106228238A (zh) | 2016-07-27 | 2016-12-14 | 中国科学技术大学苏州研究院 | 现场可编程门阵列平台上加速深度学习算法的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112149047A (zh) | 2020-12-29 |
JP2022538735A (ja) | 2022-09-06 |
US20220253668A1 (en) | 2022-08-11 |
EP3958149A4 (en) | 2022-04-27 |
WO2020259031A1 (zh) | 2020-12-30 |
EP3958149A1 (en) | 2022-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7332722B2 (ja) | データ処理方法、装置、記憶媒体及び電子機器 | |
JP7329533B2 (ja) | 演算を加速するための方法および加速器装置 | |
US11574031B2 (en) | Method and electronic device for convolution calculation in neural network | |
CN107844828B (zh) | 神经网络中的卷积计算方法和电子设备 | |
US10515135B1 (en) | Data format suitable for fast massively parallel general matrix multiplication in a programmable IC | |
US9858006B1 (en) | Context driven memory circuits | |
JP2021521516A (ja) | 演算を加速するための加速器及びシステム | |
CN111667051A (zh) | 适用边缘设备的神经网络加速器及神经网络加速计算方法 | |
CA3101214C (en) | Modifying machine learning models to improve locality | |
CN113313243B (zh) | 神经网络加速器的确定方法、装置、设备以及存储介质 | |
CN107766935B (zh) | 多层人造神经网络 | |
US11120101B2 (en) | Matrix multiplication system and method | |
CN110989920B (zh) | 能量高效的存储器系统和方法 | |
JP7381429B2 (ja) | ストレージ周辺の階層的ソート加速のためのストレージシステム及び方法 | |
CN109472361B (zh) | 神经网络优化方法 | |
TW202024921A (zh) | 用於在使用加法器之多維張量中存取資料之系統、電腦實施方法及設備 | |
CN113919477A (zh) | 一种卷积神经网络的加速方法及装置 | |
US11640444B2 (en) | Device and method for accelerating matrix multiply operations | |
KR20230084449A (ko) | 신경 프로세싱 유닛 | |
CN109902821B (zh) | 一种数据处理方法、装置及相关组件 | |
US10902087B2 (en) | Device and method for accelerating matrix multiply operations as a sum of outer products | |
CN114003201A (zh) | 矩阵变换方法、装置及卷积神经网络加速器 | |
JP7419574B2 (ja) | 膨張畳み込み加速演算方法及び装置 | |
US11704535B1 (en) | Hardware architecture for a neural network accelerator | |
KR102372869B1 (ko) | 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220928 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20221207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20221207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230810 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7332722 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |