JP6738296B2 - 畳込みニューラルネットワークによる処理方法、畳込みニューラルネットワークの学習方法、および畳込みニューラルネットワークを備える処理装置 - Google Patents
畳込みニューラルネットワークによる処理方法、畳込みニューラルネットワークの学習方法、および畳込みニューラルネットワークを備える処理装置 Download PDFInfo
- Publication number
- JP6738296B2 JP6738296B2 JP2017056780A JP2017056780A JP6738296B2 JP 6738296 B2 JP6738296 B2 JP 6738296B2 JP 2017056780 A JP2017056780 A JP 2017056780A JP 2017056780 A JP2017056780 A JP 2017056780A JP 6738296 B2 JP6738296 B2 JP 6738296B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- matrix
- vector
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 93
- 238000012545 processing Methods 0.000 title claims description 55
- 238000000034 method Methods 0.000 title claims description 46
- 238000003672 processing method Methods 0.000 title claims description 10
- 239000013598 vector Substances 0.000 claims description 237
- 239000011159 matrix material Substances 0.000 claims description 215
- 238000011176 pooling Methods 0.000 claims description 96
- 239000000872 buffer Substances 0.000 claims description 93
- 238000004364 calculation method Methods 0.000 claims description 86
- 238000005070 sampling Methods 0.000 claims description 29
- 238000003860 storage Methods 0.000 claims description 19
- 238000000354 decomposition reaction Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 239000012530 fluid Substances 0.000 claims description 2
- 238000003058 natural language processing Methods 0.000 claims 1
- 239000000047 product Substances 0.000 description 47
- 230000008569 process Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 17
- 230000004913 activation Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 11
- 239000001654 beetroot red Substances 0.000 description 10
- 238000011161 development Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Biodiversity & Conservation Biology (AREA)
- Algebra (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Description
Claims (15)
- 畳込みニューラルネットワークによる処理方法であって,
前記ニューラルネットワークは,行列ベクトル積による畳込み演算を行う畳込み演算部と,最大値サンプリング演算を行うプーリング演算部を具備し,
前記畳込み演算部で行われる畳込み演算のための行列データはしきい値が設定され,
前記行列データは前記しきい値を基準に前半部分と後半部分に2分割されており,
前記行列データの前半部分は前記行列データの主要項を比較的多く含み,また,前記行列データの後半部分は前記行列データの主要項を比較的少なく含み,
前記畳込み演算部は,前記前半部分の行列データによる前半部分の畳込み演算と,前記後半部分の行列データによる後半部分の畳込み演算とを2分割して実行し,
前記前半部分の畳込み演算は,前記プーリング演算部の前記最大値サンプリング演算に用いられる第1の演算データを生成するための演算を実行し,
前記プーリング演算部は,前記最大値サンプリング演算に伴って,前記後半部分の畳込み演算で,前記行列ベクトル積の畳込み演算を適用すべきベクトルデータを選択し,
前記後半部分の畳込み演算は,前記プーリング演算部で選択された前記ベクトルデータに対して,畳込み演算を実行して第2の演算データを生成し,
前記プーリング演算部の前記最大値サンプリング演算の結果と,前記第2の演算データを,全部または部分的に加算することで,畳込みニューラルネットワークの中間層データを得ることを特徴とする,
畳込みニューラルネットワークによる処理方法。 - 前記行列データは特異値分解されていることを特徴とし,
前記しきい値は前記行列データの特異値分解によって得られた特異値によって特徴付けられ,
前記行列データの前半部分と後半部分を前記しきい値を基準として,比較的大きい特異値データに対応する部分行列と,比較的小さい特異値データに対応する部分行列に分割することを特徴とする
請求項1の畳込みニューラルネットワークによる処理方法。 - 前記行列データは固有値分解されていることを特徴とし,
前記しきい値は前記行列データの固有値分解によって得られた固有値によって特徴付けられ,
前記行列データの前半部分と後半部分を前記しきい値を基準として,比較的大きい固有値データに対応する部分行列と,比較的小さい固有値データに対応する部分行列に分割することを特徴とする
請求項1の畳込みニューラルネットワークによる処理方法。 - 画像認識を行うことを特徴とする,
請求項1の畳込みニューラルネットワークによる処理方法。 - 音声認識を行うことを特徴とする,
請求項1の畳込みニューラルネットワークによる処理方法。 - 自然言語処理を行うことを特徴とする,
請求項1の畳込みニューラルネットワークによる処理方法。 - 温度や湿度や流体の流量を認識することで周辺環境の認識を行うことを特徴とする,
請求項1の畳込みニューラルネットワークによる処理方法。 - 畳込みニューラルネットワークの畳込み演算の行列データの演算パラメータを決定するための,畳込みニューラルネットワーク学習方法であって,
前記畳込みニューラルネットワークは,
行列ベクトル積による畳込み演算を行う畳込み演算部と,最大値サンプリング演算を行うプーリング演算部を具備し,
前記畳込み演算に用いる行列データを格納する行列保存領域を具備し,
前記行列保存領域に格納される前記行列データは,しきい値に基づいて前半部分と後半部分に2分割されており,
前記畳込み演算部は前記前半部分の行列データによる第1の畳込み演算と,前記後半部分の行列データによる第2の畳込み演算とを個別に実行し,
前記第1の畳込み演算は,前記プーリング演算部の最大値サンプリング演算に用いられる第1の演算データを生成し,
前記プーリング演算部は,前記第1の演算データを用いた前記最大値サンプリング演算に伴って,前記第2の畳込み演算を行うべきベクトルデータを選択し,
前記第2の畳込み演算は,前記プーリング演算部で選択された前記ベクトルデータに対して,前記後半部分の行列データによる畳込み演算を実行して第2の演算データを得,
前記プーリング演算部の最大値サンプリングの演算結果と,前記第2の演算データを,全部または部分的に加算することで,畳込みニューラルネットワークの中間層データを得るものであって,
前記2分割された行列データを準備するために,
認識精度の目標値を設定可能とし,
前記しきい値を変更しながら当該しきい値に応じて分割された前記行列データを用いて前記畳込みニューラルネットワークを構成し,テストデータを用いて認識精度を取得し,
前記認識精度の目標値を満足する,前記しきい値を決定する,
畳込みニューラルネットワークの学習方法。 - 前記行列データを特異値分解し,前記しきい値と比較して大きい特異値データに対応する部分行列を前半部分とし,前記しきい値と比較して小さい特異値データに対応する部分行列を後半部分とすることを特徴とする
請求項8の畳込みニューラルネットワークの学習方法。 - 前記行列データを固有値分解し,前記しきい値と比較して大きい固有値データに対応する部分行列を前半部分とし,前記しきい値と比較して小さい固有値データに対応する部分行列を後半部分とすることを特徴とする
請求項8の畳込みニューラルネットワークの学習方法。 - 畳込みニューラルネットワークを備える処理装置であって,
前記ニューラルネットワークは,行列ベクトル積による畳込み演算を行う畳込み演算部と,最大値サンプリング演算を行うプーリング演算部を具備し,
前記畳込み演算に用いる行列データを格納する行列保存領域を具備し,
前記行列保存領域に格納される前記行列データは,前半部分と後半部分に2分割されており,
前記畳込み演算部は前記前半部分の行列データによる第1の畳込み演算と,前記後半部分の行列データによる第2の畳込み演算とを個別に実行し,
前記第1の畳込み演算は,前記プーリング演算部の最大値サンプリング演算に用いられる第1の演算データを生成し,
前記プーリング演算部は,前記第1の演算データを用いた前記最大値サンプリング演算に伴って,前記第2の畳込み演算を行うべきベクトルデータを選択し,
前記第2の畳込み演算は,前記プーリング演算部で選択された前記ベクトルデータに対して,前記後半部分の行列データによる畳込み演算を実行して第2の演算データを得,
前記プーリング演算部の最大値サンプリングの演算結果と,前記第2の演算データを全部または部分的に加算することで,畳込みニューラルネットワークの中間層データを得ることを特徴とする,
畳込みニューラルネットワークを備える処理装置。 - 前記畳込み演算部で行われる畳込み演算の行列データはしきい値が設定され,
前記行列データは前記しきい値を基準に前半部分と後半部分に2分割されており,
前記行列データの前半部分は前記行列データの主要項を比較的多く含み,また,前記行列データの後半部分は前記行列データの主要項を比較的少なく含む,
請求項11記載の畳込みニューラルネットワークを備える処理装置。 - 前記プーリング演算部は,複数設けられたバッファから,複数のベクトルデータからなる前記第1の演算データを受信し,
前記プーリング演算部は,前記最大値サンプリングにより,前記複数のベクトルデータから最大値ベクトルを生成し,
前記プーリング演算部は,前記最大値ベクトルを生成するための値を,前記複数のベクトルデータのいずれから採用したかを最大点ベクトルとして記憶し,
最も採用が多かったベクトルデータを,前記第2の畳込み演算を行うべきベクトルデータとして選択する,
請求項11記載の畳込みニューラルネットワークを備える処理装置。 - 前記プーリング演算部の最大値サンプリングの演算結果と,前記第2の演算データを全部または部分的に加算するベクトル和演算ユニットを備え,
前記ベクトル和演算ユニットは,前記最大値サンプリングの演算結果と,前記第2の演算データを全部または部分的に加算する際に,前記最大値ベクトルを生成するための値を,前記第2の畳込み演算を行うべきベクトルデータとして選択したベクトルデータから採用している場合に,当該値に関する前記第2の演算データを加算する,
請求項13記載の畳込みニューラルネットワークを備える処理装置。 - 前記畳込み演算に用いる行列データを格納する行列保存領域は,前記行列データの,前半部分と後半部分のそれぞれのために,前半保存領域と後半保存領域を備え,
前記畳込み演算部は,前記前半部分の行列データによる第1の畳込み演算を行う第1の演算部と,前記後半部分の行列データによる第2の畳込み演算とを行う第2の演算部を備え,
前記第1の演算部は,前記複数のベクトルデータの全てを入力とするとともに,前記前半保存領域から前記前半部分の行列データを入力とし、
前記第2の演算部は,前記複数のベクトルデータの一つを入力とするとともに,前記後半保存領域から前記後半部分の行列データを入力とする、
請求項13記載の畳込みニューラルネットワークを備える処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017056780A JP6738296B2 (ja) | 2017-03-23 | 2017-03-23 | 畳込みニューラルネットワークによる処理方法、畳込みニューラルネットワークの学習方法、および畳込みニューラルネットワークを備える処理装置 |
US15/886,428 US20180276527A1 (en) | 2017-03-23 | 2018-02-01 | Processing Method Using Convolutional Neural Network, Convolutional Neural Network Learning Method, and Processing Device Including Convolutional Neural Network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017056780A JP6738296B2 (ja) | 2017-03-23 | 2017-03-23 | 畳込みニューラルネットワークによる処理方法、畳込みニューラルネットワークの学習方法、および畳込みニューラルネットワークを備える処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018160086A JP2018160086A (ja) | 2018-10-11 |
JP6738296B2 true JP6738296B2 (ja) | 2020-08-12 |
Family
ID=63582776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017056780A Expired - Fee Related JP6738296B2 (ja) | 2017-03-23 | 2017-03-23 | 畳込みニューラルネットワークによる処理方法、畳込みニューラルネットワークの学習方法、および畳込みニューラルネットワークを備える処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180276527A1 (ja) |
JP (1) | JP6738296B2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
US11074317B2 (en) * | 2018-11-07 | 2021-07-27 | Samsung Electronics Co., Ltd. | System and method for cached convolution calculation |
CN111382602A (zh) * | 2018-12-28 | 2020-07-07 | 深圳光启空间技术有限公司 | 一种跨域人脸识别算法、存储介质及处理器 |
CN109886390B (zh) * | 2019-01-10 | 2023-11-24 | 平安科技(深圳)有限公司 | 卷积神经网络模型优化方法、装置、计算机设备及存储介质 |
JP7152107B2 (ja) * | 2019-01-30 | 2022-10-12 | Necプラットフォームズ株式会社 | 演算処理装置、演算処理方法及びプログラム |
CN110163409B (zh) * | 2019-04-08 | 2021-05-18 | 华中科技大学 | 一种应用于置换流水车间的卷积神经网络调度方法 |
CN110222823B (zh) * | 2019-05-31 | 2022-12-30 | 甘肃省祁连山水源涵养林研究院 | 一种水文流量波动情势识别方法及其系统 |
CN110533022B (zh) * | 2019-06-11 | 2023-12-19 | 广州海昇教育科技有限责任公司 | 一种目标检测方法、系统、装置及存储介质 |
CN112308217A (zh) * | 2019-07-31 | 2021-02-02 | 北京欣奕华科技有限公司 | 一种卷积神经网络加速方法及系统 |
CN111222465B (zh) * | 2019-11-07 | 2023-06-13 | 深圳云天励飞技术股份有限公司 | 基于卷积神经网络的图像分析方法及相关设备 |
KR20210061839A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN111539526B (zh) * | 2020-04-24 | 2022-12-06 | 苏州浪潮智能科技有限公司 | 一种神经网络卷积的方法和设备 |
CN111860771B (zh) * | 2020-06-19 | 2022-11-25 | 苏州浪潮智能科技有限公司 | 一种应用于边缘计算的卷积神经网络计算方法 |
CN111914213B (zh) * | 2020-07-31 | 2023-11-10 | 中国原子能科学研究院 | 一种稀疏矩阵向量乘运算时间预测方法及系统 |
CN113469337B (zh) * | 2021-06-29 | 2024-04-05 | 上海寒武纪信息科技有限公司 | 用于优化神经网络模型的编译方法及其相关产品 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3374476B2 (ja) * | 1993-10-22 | 2003-02-04 | 株式会社デンソー | ニューラルネットワーク構築方法 |
US10460230B2 (en) * | 2015-06-04 | 2019-10-29 | Samsung Electronics Co., Ltd. | Reducing computations in a neural network |
-
2017
- 2017-03-23 JP JP2017056780A patent/JP6738296B2/ja not_active Expired - Fee Related
-
2018
- 2018-02-01 US US15/886,428 patent/US20180276527A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20180276527A1 (en) | 2018-09-27 |
JP2018160086A (ja) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6738296B2 (ja) | 畳込みニューラルネットワークによる処理方法、畳込みニューラルネットワークの学習方法、および畳込みニューラルネットワークを備える処理装置 | |
US10032463B1 (en) | Speech processing with learned representation of user interaction history | |
JP7037143B2 (ja) | ニューラルネットワークのための方法及び電子装置 | |
US11403516B2 (en) | Apparatus and method for processing convolution operation of neural network | |
US11158305B2 (en) | Online verification of custom wake word | |
CN107622303B (zh) | 用于神经网络的方法和执行该方法的设备 | |
US20180121377A1 (en) | Exploiting input data sparsity in neural network compute units | |
KR20180070103A (ko) | 인식 방법 및 인식 장치 | |
CN109919312B (zh) | 卷积神经网络的运算方法、装置及dpu | |
US20180300610A1 (en) | Select one of plurality of neural networks | |
CN110690930B (zh) | 信源数量检测方法及装置 | |
US20180349096A1 (en) | Merge sort accelerator | |
US10996976B2 (en) | Systems and methods for scheduling neural networks by varying batch sizes | |
KR102396447B1 (ko) | 파이프라인 구조를 가지는 인공신경망용 연산 가속 장치 | |
KR20200073269A (ko) | 인공 신경망의 자동 생성을 위한 방법 및 장치 | |
CN110647974A (zh) | 深度神经网络中的网络层运算方法及装置 | |
US11501037B2 (en) | Microstructures using generative adversarial networks | |
TW202307739A (zh) | 基於記憶體內計算的機器學習加速器架構 | |
US20210065010A1 (en) | Compressing a deep neural network | |
CN114254686A (zh) | 对抗样本的识别方法及装置 | |
CN114127689A (zh) | 用于与硬件加速器接口的方法 | |
CN112732638B (zh) | 基于ctpn网络的异构加速系统及方法 | |
KR20230069763A (ko) | 신경망 네트워크의 셀프 어텐션 연산을 가속하는 장치 | |
JP7107797B2 (ja) | 情報処理方法及び情報処理システム | |
CN110610211A (zh) | 一种自适应正则项系数的模型参数估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6738296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |