JP2021034024A - データを処理する方法及びその装置 - Google Patents
データを処理する方法及びその装置 Download PDFInfo
- Publication number
- JP2021034024A JP2021034024A JP2020109945A JP2020109945A JP2021034024A JP 2021034024 A JP2021034024 A JP 2021034024A JP 2020109945 A JP2020109945 A JP 2020109945A JP 2020109945 A JP2020109945 A JP 2020109945A JP 2021034024 A JP2021034024 A JP 2021034024A
- Authority
- JP
- Japan
- Prior art keywords
- data
- processor
- input
- rearranged
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 14
- 230000008707 rearrangement Effects 0.000 claims description 7
- 238000003672 processing method Methods 0.000 abstract 1
- 230000004913 activation Effects 0.000 description 30
- 238000001994 activation Methods 0.000 description 30
- 101100328884 Caenorhabditis elegans sqt-3 gene Proteins 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 4
- 101000632261 Homo sapiens Semaphorin-3A Proteins 0.000 description 2
- 102100027974 Semaphorin-3A Human genes 0.000 description 2
- 101100237842 Xenopus laevis mmp18 gene Proteins 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Neurology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
- Image Processing (AREA)
Abstract
Description
410 メモリ
420 プロセッサ
Claims (27)
- データを処理する方法であって、
入力データに含まれる有効情報に基づいて、前記入力データのスパース性を確認する段階と、
前記スパース性の形態に基づいて、前記入力データを再配列する段階と、
前記再配列されたデータを処理し、出力データを生成する段階と、
を含む、方法。 - 前記再配列する段階は、
前記入力データ内の無効値の分布に基づいて、前記入力データを再配列する、
ことを特徴とする請求項1に記載の方法。 - 前記再配列する段階は、
前記入力データに含まれる複数行それぞれに含まれた無効値の個数に基づいて、前記行を再配列することを特徴とする請求項1に記載の方法。 - 前記再配列する段階は、
前記複数行において、無効値が最も多く含まれた第1行と、前記複数行において無効値が最も少なく含まれた第2行とを互いに隣接するように、前記行を再配列する、
ことを特徴とする請求項3に記載の方法。 - 前記再配列する段階は、
前記入力データに含まれる複数列それぞれのエレメントを、第1規則によって移動させる、
ことを特徴とする請求項1乃至請求項4いずれか一項に記載の方法。 - 前記第1規則は、前記複数列それぞれのエレメントを同一方向に所定サイズだけ移動させる規則を含み、
前記第1規則は、前記複数列に対して周期的に適用される、
ことを特徴とする請求項5に記載の方法。 - 前記再配列する段階は、
前記入力データに含まれる複数列において、無効値だけを含む少なくとも1列に対する処理が省略されるように、前記複数列を再配列する、
ことを特徴とする請求項1に記載の方法。 - 前記再配列する段階は、
前記入力データに含まれる第1列の最初のエレメントを、前記第1列と隣接した第2列の最後のエレメントの位置に移動させる、
ことを特徴とする請求項1に記載の方法。 - 前記生成する段階は、
前記再配列されたデータに、第2規則及び第3規則のうち少なくとも一つを適用する段階と、
前記少なくとも1つの規則が適用されたデータと異なるデータのコンボリューション演算を行う段階と、を含む、
ことを特徴とする請求項1に記載の方法。 - 請求項1ないし9のうちいずれか1項に記載の方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な不揮発性の記憶媒体。
- データを処理する装置において、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムを実行するプロセッサと、を含み、
前記プロセッサは、
入力データに含まれた有効情報に基づいて、前記入力データのスパース性を確認し、前記スパース性の形態に基づいて、前記入力データを再配列し、前記再配列されたデータを処理し、出力データを生成する、
装置。 - 前記プロセッサは、
前記入力データ内の無効値の分布に基づいて、前記入力データを再配列する、
ことを特徴とする請求項11に記載の装置。 - 前記プロセッサは、
前記入力データに含まれる複数行それぞれに含まれる無効値の個数に基づいて、前記行を再配列する、
ことを特徴とする請求項11に記載の装置。 - 前記プロセッサは、
前記複数行において、無効値が最も多く含まれる第1行と、前記複数行において無効値が最も少なく含まれる第2行とを互いに隣接するように、前記行を再配列する、
ことを特徴とする請求項13に記載の装置。 - 前記プロセッサは、
前記入力データに含まれる複数列それぞれのエレメントを、第1規則によって移動させる、
ことを特徴とする請求項11乃至請求項14いずれか一項に記載の装置。 - 前記第1規則は、前記複数列それぞれのエレメントを同一方向に所定サイズだけ移動させる規則を含み、
前記第1規則は、前記複数列に対して周期的に適用される、
ことを特徴とする請求項15に記載の装置。 - 前記プロセッサは、
前記入力データに含まれる複数列において、無効値だけを含む少なくとも1列に対する処理が省略されるように、前記複数列を再配列する、
ことを特徴とする請求項11に記載の装置。 - 前記プロセッサは、
前記入力データに含まれる第1列の最初のエレメントを、前記第1列と隣接した第2列の最後のエレメントの位置に移動させる、
ことを特徴とする請求項11に記載の装置。 - 前記プロセッサは、
前記再配列されたデータに、第2規則及び第3規則のうち少なくとも一つを適用し、前記少なくとも1つの規則が適用されたデータと異なるデータのコンボリューション演算を行う、
ことを特徴とする請求項11に記載の装置。 - 前記装置は、ニューラルネットワーク装置を含む、
ことを特徴とする請求項11に記載の装置。 - 少なくとも1つのプログラムを保存する少なくとも1つのメモリと、
前記少なくとも1つのプログラムを実行する少なくとも1つのプロセッサと、を含み、
前記プロセッサは、
無効値を含む入力データの位置を決定し、
前記無効値を含む入力データの位置を操作することにより、再配列されたデータを生成し、前記再配列されたデータに規則を適用する、
装置。 - 前記少なくとも1つのプロセッサは、
前記入力データに含まれる有効値を、前記無効値を含む前記入力データ内の位置に移動させることにより、前記再配列されたデータを生成する、
ことを特徴とする請求項21に記載の装置。 - 前記少なくとも1つのプロセッサは、
前記無効値を、前記入力データの他の位置に移動させることにより、前記再配列されたデータを生成する、
ことを特徴とする請求項21に記載の装置。 - 前記入力データの前記無効値を除去することにより、前記再配列されたデータを生成する、
ことを特徴とする請求項21に記載の装置。 - ロジック回路に入力されるウィンドウの入力レイヤに含まれる無効値の数を最小化させるために、前記再配列されたデータのウィンドウに含まれる有効値に、前記規則を適用する、
ことを特徴とする請求項21に記載の装置。 - 前記規則は、前記入力レイヤに隣接した前記再配列されたデータのウィンドウのレイヤに含まれる少なくとも1つの有効値を、無効値を含む前記入力レイヤの対応する位置に移動させること、を含む、
ことを特徴とする請求項25に記載の装置。 - 前記規則は、前記入力レイヤに隣接した前記再配列されたデータのウィンドウのレイヤに含まれる少なくとも1つの有効値を、無効値を含む前記入力レイヤの横切った位置に移動させること、を含む、
ことを特徴とする請求項25に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190104578A KR20210024865A (ko) | 2019-08-26 | 2019-08-26 | 데이터를 처리하는 방법 및 장치 |
KR10-2019-0104578 | 2019-08-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021034024A true JP2021034024A (ja) | 2021-03-01 |
JP7234185B2 JP7234185B2 (ja) | 2023-03-07 |
Family
ID=71786774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020109945A Active JP7234185B2 (ja) | 2019-08-26 | 2020-06-25 | データを処理する方法及びその装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11875255B2 (ja) |
EP (1) | EP3789892A1 (ja) |
JP (1) | JP7234185B2 (ja) |
KR (1) | KR20210024865A (ja) |
CN (1) | CN112434803A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210082970A (ko) | 2019-12-26 | 2021-07-06 | 삼성전자주식회사 | 컨볼루션 연산을 수행하는 방법 및 장치 |
US11676068B1 (en) | 2020-06-30 | 2023-06-13 | Cadence Design Systems, Inc. | Method, product, and apparatus for a machine learning process leveraging input sparsity on a pixel by pixel basis |
US11823018B1 (en) | 2020-06-30 | 2023-11-21 | Cadence Design Systems, Inc. | Method, product, and apparatus for a machine learning process using weight sharing within a systolic array having reduced memory bandwidth |
US11615320B1 (en) | 2020-06-30 | 2023-03-28 | Cadence Design Systems, Inc. | Method, product, and apparatus for variable precision weight management for neural networks |
US11687831B1 (en) | 2020-06-30 | 2023-06-27 | Cadence Design Systems, Inc. | Method, product, and apparatus for a multidimensional processing array for hardware acceleration of convolutional neural network inference |
US11651283B1 (en) * | 2020-06-30 | 2023-05-16 | Cadence Design Systems, Inc. | Method, product, and apparatus for a machine learning process using dynamic rearrangement of sparse data and corresponding weights |
US11544213B2 (en) * | 2021-03-04 | 2023-01-03 | Samsung Electronics Co., Ltd. | Neural processor |
JP2024514374A (ja) * | 2021-04-09 | 2024-04-02 | エヌビディア コーポレーション | データ・セットにおけるスパース性を増大させること |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017154946A1 (ja) * | 2016-03-09 | 2017-09-14 | 日本電気株式会社 | 情報処理装置、情報処理方法、データ構造およびプログラム |
CN108009626A (zh) * | 2016-10-27 | 2018-05-08 | 谷歌公司 | 利用神经网络计算单元中的输入数据稀疏 |
US20190087713A1 (en) * | 2017-09-21 | 2019-03-21 | Qualcomm Incorporated | Compression of sparse deep convolutional network weights |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7127435B2 (en) * | 2001-07-03 | 2006-10-24 | Honeywell International Inc. | Distribution theory based enrichment of sparse data for machine learning |
US7543010B2 (en) * | 2003-11-03 | 2009-06-02 | Board Of Regents, The University Of Texas System | Modular pipeline fast Fourier transform |
US10817312B2 (en) * | 2013-03-14 | 2020-10-27 | Microsoft Technology Licensing, Llc | Programming model for performant computing in document-oriented storage services |
KR101590896B1 (ko) | 2014-11-26 | 2016-02-02 | 경북대학교 산학협력단 | 일반화 성능을 갖는 심화학습 장치 및 방법, 그 방법을 수행하기 위한 기록 매체 및 장치 |
US10242311B2 (en) | 2016-08-11 | 2019-03-26 | Vivante Corporation | Zero coefficient skipping convolution neural network engine |
KR20180052069A (ko) | 2016-11-07 | 2018-05-17 | 한국전자통신연구원 | 콘볼루션 신경망 시스템 그리고 콘볼루션 신경망의 시냅스 데이터를 압축하는 방법 |
US20180131946A1 (en) | 2016-11-07 | 2018-05-10 | Electronics And Telecommunications Research Institute | Convolution neural network system and method for compressing synapse data of convolution neural network |
CN109146073B (zh) * | 2017-06-16 | 2022-05-24 | 华为技术有限公司 | 一种神经网络训练方法和装置 |
US11693662B2 (en) * | 2018-05-04 | 2023-07-04 | Cornami Inc. | Method and apparatus for configuring a reduced instruction set computer processor architecture to execute a fully homomorphic encryption algorithm |
US10572409B1 (en) * | 2018-05-10 | 2020-02-25 | Xilinx, Inc. | Sparse matrix processing circuitry |
US11257254B2 (en) * | 2018-07-20 | 2022-02-22 | Google Llc | Data compression using conditional entropy models |
US11442889B2 (en) | 2018-09-28 | 2022-09-13 | Intel Corporation | Dynamic deep learning processor architecture |
US11341414B2 (en) * | 2018-10-15 | 2022-05-24 | Sas Institute Inc. | Intelligent data curation |
US20200151569A1 (en) * | 2018-11-08 | 2020-05-14 | International Business Machines Corporation | Warping sequence data for learning in neural networks |
US11126690B2 (en) * | 2019-03-29 | 2021-09-21 | Intel Corporation | Machine learning architecture support for block sparsity |
-
2019
- 2019-08-26 KR KR1020190104578A patent/KR20210024865A/ko unknown
-
2020
- 2020-02-27 US US16/803,342 patent/US11875255B2/en active Active
- 2020-03-05 CN CN202010145984.8A patent/CN112434803A/zh active Pending
- 2020-06-25 JP JP2020109945A patent/JP7234185B2/ja active Active
- 2020-07-24 EP EP20187569.7A patent/EP3789892A1/en active Pending
-
2023
- 2023-11-29 US US18/522,982 patent/US20240095532A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017154946A1 (ja) * | 2016-03-09 | 2017-09-14 | 日本電気株式会社 | 情報処理装置、情報処理方法、データ構造およびプログラム |
CN108009626A (zh) * | 2016-10-27 | 2018-05-08 | 谷歌公司 | 利用神经网络计算单元中的输入数据稀疏 |
US20190087713A1 (en) * | 2017-09-21 | 2019-03-21 | Qualcomm Incorporated | Compression of sparse deep convolutional network weights |
Non-Patent Citations (2)
Title |
---|
KUNG,H.T.: "Packing Sparse Convolutional Neural Networks for Efficient Systolic Array Implementations: Column Co", [ONLINE], JPN6022008110, 7 November 2018 (2018-11-07), US, pages 1 - 13, ISSN: 0004893018 * |
LU,LIQIANG ET.AL: "SpWA:An Efficient Sparse Winograd Convolutional Neural Networks Accelerator on FPGAs", 2018 55TH ACM/ESDA/IEEE DESIGN AUTOMATION CONFERENCE (DAC), JPN6022008111, 24 June 2018 (2018-06-24), US, pages 1 - 6, XP033405932, ISSN: 0004893017, DOI: 10.1109/DAC.2018.8465842 * |
Also Published As
Publication number | Publication date |
---|---|
US11875255B2 (en) | 2024-01-16 |
CN112434803A (zh) | 2021-03-02 |
US20240095532A1 (en) | 2024-03-21 |
US20210064992A1 (en) | 2021-03-04 |
JP7234185B2 (ja) | 2023-03-07 |
EP3789892A1 (en) | 2021-03-10 |
KR20210024865A (ko) | 2021-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7234185B2 (ja) | データを処理する方法及びその装置 | |
JP7132824B2 (ja) | ニューラルネットワークにおいてデコンボルーション演算を実行する装置及びその方法 | |
CN108229655B (zh) | 卷积神经网络(cnn)处理方法和设备 | |
KR102452953B1 (ko) | 뉴럴 네트워크의 컨볼루션 연산을 수행하는 방법 및 장치 | |
US10909418B2 (en) | Neural network method and apparatus | |
CN108073981B (zh) | 处理卷积神经网络的方法和设备 | |
JP7304148B2 (ja) | ニューラルネットワークにおいてコンボリューション演算を処理する方法及びその装置 | |
KR102452951B1 (ko) | 뉴럴 네트워크의 컨볼루션 연산을 수행하는 방법 및 장치 | |
JP2020126651A (ja) | ニューラルネットワークのコンボルーション演算を処理する方法及び装置 | |
JP6724267B1 (ja) | 学習装置、推論装置、学習モデルの生成方法及び推論方法 | |
KR20210039197A (ko) | 데이터를 처리하는 방법 및 장치 | |
KR20200081044A (ko) | 뉴럴 네트워크의 컨볼루션 연산을 처리하는 방법 및 장치 | |
US11836971B2 (en) | Method and device with convolution neural network processing | |
TW202018598A (zh) | 神經網路處理器及其卷積操作方法 | |
CN112651485A (zh) | 识别图像的方法和设备以及训练神经网络的方法和设备 | |
JP6955598B2 (ja) | 複数の畳み込みウィンドウ内の画像データの並行抽出方法、装置、機器及びコンピュータ可読記憶媒体 | |
US12014505B2 (en) | Method and apparatus with convolution neural network processing using shared operand | |
KR20200072308A (ko) | 뉴럴 네트워크에서 컨볼루션 연산을 수행하는 방법 및 장치 | |
KR102559036B1 (ko) | 음수값을 갖는 활성화 함수에서 제로 스키핑을 제공하는 방법 및 장치 | |
EP3832551B1 (en) | Method and apparatus for processing data | |
KR20210082970A (ko) | 컨볼루션 연산을 수행하는 방법 및 장치 | |
US11842273B2 (en) | Neural network processing | |
CN116128023A (zh) | 硬件加速器、电子装置和用于神经网络的装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7234185 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |