JP2018142049A - 情報処理装置、画像認識装置、および、畳込みニューラルネットワークのパラメータ設定方法 - Google Patents
情報処理装置、画像認識装置、および、畳込みニューラルネットワークのパラメータ設定方法 Download PDFInfo
- Publication number
- JP2018142049A JP2018142049A JP2017034348A JP2017034348A JP2018142049A JP 2018142049 A JP2018142049 A JP 2018142049A JP 2017034348 A JP2017034348 A JP 2017034348A JP 2017034348 A JP2017034348 A JP 2017034348A JP 2018142049 A JP2018142049 A JP 2018142049A
- Authority
- JP
- Japan
- Prior art keywords
- filter data
- data
- bit width
- layer
- inner product
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/245—Classification techniques relating to the decision surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biodiversity & Conservation Biology (AREA)
- Neurology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
畳込みニューラルネットワークによる画像認識装置における特徴量抽出を行うフィルタデータのデータ量を削減する。
【解決手段】
データを受け付ける入力手段と、データに対して処理を行う畳込みニューラルネットワークを構成する演算ユニットと、演算ユニットで用いるデータを記憶する記憶領域と、処理の結果を出力する出力手段と、を備える情報処理装置である。畳込みニューラルネットワークは、第1の内積演算を含む第1の処理を行う第1の中間層と、第2の内積演算を含む第2の処理を行う第2の中間層と、を備え、第1の内積演算のための第1のフィルタデータと、第2の内積演算のための第2のフィルタデータのビット幅が異なるように構成される。
【選択図】 図1C
Description
Claims (15)
- データを受け付ける入力手段と、
前記データに対して処理を行う畳込みニューラルネットワークを構成する演算ユニットと、
前記演算ユニットで用いるデータを記憶する記憶領域と、
前記処理の結果を出力する出力手段と、を備え、
前記畳込みニューラルネットワークは、
第1の内積演算を含む第1の処理を行う第1の中間層と、
第2の内積演算を含む第2の処理を行う第2の中間層と、を備え、
前記第1の内積演算のための第1のフィルタデータと、前記第2の内積演算のための第2のフィルタデータのビット幅が異なる、
情報処理装置。 - 前記記憶領域は、フィルタデータ記憶領域を備え、
前記フィルタデータ記憶領域は、
第1のビット幅を有する第1のフィルタデータを記憶する第1の領域と、
第2のビット幅を有する第2のフィルタデータを記憶する第2の領域と、を備え、
前記第1の領域のバンク構成およびアドレスの振り方は、前記第2の領域のバンク構成およびアドレスの振り方と同じであり、
前記第1のビット幅と前記第2のビット幅は異なる、
請求項1記載の情報処理装置。 - 前記第1の中間層は、畳込み層もしくは全結合層であり、
前記第2の中間層は、畳込み層もしくは全結合層である、
請求項1記載の情報処理装置。 - 前記記憶領域は、前記第1のフィルタデータのビット幅と、前記第2のフィルタデータのビット幅を記憶している、
請求項1記載の情報処理装置。 - 前記第1の中間層は、前記第2の中間層より処理に必要なパラメータの数が多く、
前記第1の内積演算のための第1のフィルタデータのビット幅は、前記第2の内積演算のための第2のフィルタデータのビット幅よりも大きい、
請求項1記載の情報処理装置。 - 前記第1の中間層は、前記第2の中間層より前段にあり、
前記第1の内積演算のための第1のフィルタデータのビット幅は、前記第2の内積演算のための第2のフィルタデータのビット幅よりも大きい、
請求項1記載の情報処理装置。 - 前記第1の中間層は画像データに対して色の情報を用いて物体の検出を行う層であり、前記第2の中間層は画像データに対して物体のエッジ検出を行う層であり、
前記第1の内積演算のための第1のフィルタデータのビット幅は、前記第2の内積演算のための第2のフィルタデータのビット幅よりも大きい、
請求項1記載の情報処理装置。 - 前記情報処理装置はFPGAで構成され、
前記記憶領域は、前記FPGAに搭載された半導体メモリであり、
前記演算ユニットは、前記FPGAに搭載されたプログラム可能なロジックセルである、
請求項1記載の情報処理装置。 - 画像を受け付ける入力手段と、
前記画像を処理する演算ユニットと、
前記演算ユニットで用いるデータを記憶する記憶領域と、
前記処理の結果を出力する出力手段と、を備え、
前記画像に写っている物体の種類を分類し識別する画像認識装置であって、
前記演算ユニットは、
前記画像の処理のために、前記画像の特徴量抽出を行うフィルタの畳込み演算を行う複数の階層を有し、
前の階層で得られた畳込み演算の結果に対して、後の階層で更に畳込み演算を行い、
前記畳込み演算に用いられるフィルタデータのデータタイプは、少なくとも2つの異なるデータタイプが含まれるように、階層毎に定めることを特徴とする、
画像認識装置。 - 前記記憶領域は、前記階層毎に、前記フィルタデータを格納するフィルタデータ記憶領域を備え、
前記フィルタデータは前記フィルタデータ記憶領域の1つのアドレスに複数個記憶され、
前記1つのアドレスに記憶されるフィルタデータの個数は、階層毎に同じではない、
請求項9記載の画像認識装置。 - 前記フィルタデータは共通した畳込み演算器で使用され、
前記畳込み演算器は、前記フィルタデータを格納するための、固定された大きさの複数のレジスタを備え、
ある階層で行う畳込み演算に用いられる複数個のフィルタデータを、前記複数のレジスタに1対1に対応付けて格納し、
他の階層で行う畳込み演算に用いられる複数個のフィルタデータを、前記複数のレジスタに1対1に対応付けて格納することにより、
前記共通した畳込み演算器を、異なる畳込み演算を行う階層として機能させる、
請求項10記載の画像認識装置。 - データを受け付け、前記データに対して処理を行い、前記処理の結果を出力する畳込みニューラルネットワークであって、第1の内積演算を行う第1の中間層と、第2の内積演算を行う第2の中間層と、を備える畳込みニューラルネットワークのパラメータ設定方法において、
前記第1の内積演算のための第1のフィルタデータのビット幅と、前記第2の内積演算のための第2のフィルタデータのビット幅を独立に設定するパラメータ設定処理を含む、
畳込みニューラルネットワークのパラメータ設定方法。 - 前記パラメータ設定処理は、
Mビットのビット幅を有するフィルタデータを用いて、前記第1の内積演算および前記第2の内積演算のためのフィルタデータの学習を行い、前記第1の内積演算のためのMビットのビット幅を有する第1の学習済フィルタデータと、前記第2の内積演算のためのMビットのビット幅を有する第2の学習済フィルタデータと、を得る第1のステップと、
前記第1の学習済フィルタデータのビット幅を減少させたフィルタデータを用いてテストを行い、前記テストにおける前記処理の結果が所望の条件を満たすフィルタデータのビット幅に基づいて、前記第1のフィルタデータのビット幅を設定する第2のステップと、
前記第2の学習済フィルタデータのビット幅を減少させたフィルタデータを用いてテストを行い、前記テストにおける前記処理の結果が所望の条件を満たすフィルタデータのビット幅に基づいて、前記第2のフィルタデータのビット幅を設定する第3のステップと、を含む、
請求項12記載の畳込みニューラルネットワークのパラメータ設定方法。 - 前記第2のステップにおいて、前記第1の学習済フィルタデータの小数部の下位ビットから削減してビット幅を減少させたフィルタデータを用いてテストを行い、
前記第3のステップにおいて、前記第2の学習済フィルタデータの小数部の下位ビットから削減してビット幅を減少させたフィルタデータを用いてテストを行う、
請求項13記載の畳込みニューラルネットワークのパラメータ設定方法。 - 前記フィルタデータの小数部の下位ビットの削減の際の丸め方式に最近点丸めを用いたことを特徴とする、
請求項14記載の畳込みニューラルネットワークのパラメータ設定方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017034348A JP6823495B2 (ja) | 2017-02-27 | 2017-02-27 | 情報処理装置および画像認識装置 |
US15/881,056 US11507797B2 (en) | 2017-02-27 | 2018-01-26 | Information processing apparatus, image recognition apparatus, and parameter setting method for convolutional neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017034348A JP6823495B2 (ja) | 2017-02-27 | 2017-02-27 | 情報処理装置および画像認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018142049A true JP2018142049A (ja) | 2018-09-13 |
JP6823495B2 JP6823495B2 (ja) | 2021-02-03 |
Family
ID=63246355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017034348A Active JP6823495B2 (ja) | 2017-02-27 | 2017-02-27 | 情報処理装置および画像認識装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11507797B2 (ja) |
JP (1) | JP6823495B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020060967A (ja) * | 2018-10-10 | 2020-04-16 | LeapMind株式会社 | ニューラルネットワーク処理装置、およびニューラルネットワーク処理方法 |
JP2020061140A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社ストラドビジョン | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 |
JP2021105950A (ja) * | 2019-12-27 | 2021-07-26 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置およびプログラム |
JP2022502733A (ja) * | 2018-10-11 | 2022-01-11 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | ニューラル・ネットワーク・コアにおける動的精度のためのデータ表現 |
WO2022009449A1 (ja) * | 2020-07-10 | 2022-01-13 | 富士通株式会社 | 情報処理装置,情報処理方法および情報処理プログラム |
JP7477249B2 (ja) | 2019-08-27 | 2024-05-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 最適化された分散ディープ・ラーニングのためのシステム自覚性の選択的量子化 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10402628B2 (en) * | 2016-10-10 | 2019-09-03 | Gyrfalcon Technology Inc. | Image classification systems based on CNN based IC and light-weight classifier |
US11507370B2 (en) * | 2018-02-13 | 2022-11-22 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Method and device for dynamically adjusting decimal point positions in neural network computations |
CN109343920B (zh) * | 2018-09-10 | 2021-09-07 | 深圳市腾讯网络信息技术有限公司 | 一种图像处理方法及其装置、设备和存储介质 |
JP7278150B2 (ja) * | 2019-05-23 | 2023-05-19 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法 |
US11868443B1 (en) * | 2021-05-12 | 2024-01-09 | Amazon Technologies, Inc. | System for training neural network using ordered classes |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005024625A1 (ja) * | 2003-08-28 | 2005-03-17 | Hitachi Ulsi Systems Co., Ltd. | データ処理装置 |
JP2010134697A (ja) * | 2008-12-04 | 2010-06-17 | Canon Inc | コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置 |
US20160328647A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7461116B2 (en) * | 2003-09-17 | 2008-12-02 | Agility Design Solutions Inc. | Emulation of a fixed point operation using a corresponding floating point operation |
JP4513865B2 (ja) * | 2008-01-25 | 2010-07-28 | セイコーエプソン株式会社 | 並列演算装置および並列演算方法 |
JP5772442B2 (ja) | 2011-09-22 | 2015-09-02 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
US20160026912A1 (en) * | 2014-07-22 | 2016-01-28 | Intel Corporation | Weight-shifting mechanism for convolutional neural networks |
US9563825B2 (en) * | 2014-11-20 | 2017-02-07 | Adobe Systems Incorporated | Convolutional neural network using a binarized convolution layer |
JP6586735B2 (ja) * | 2015-02-20 | 2019-10-09 | セイコーエプソン株式会社 | 回路装置、物理量検出装置、電子機器及び移動体 |
US10049322B2 (en) * | 2015-05-21 | 2018-08-14 | Google Llc | Prefetching weights for use in a neural network processor |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
-
2017
- 2017-02-27 JP JP2017034348A patent/JP6823495B2/ja active Active
-
2018
- 2018-01-26 US US15/881,056 patent/US11507797B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005024625A1 (ja) * | 2003-08-28 | 2005-03-17 | Hitachi Ulsi Systems Co., Ltd. | データ処理装置 |
JP2010134697A (ja) * | 2008-12-04 | 2010-06-17 | Canon Inc | コンボリューション演算回路、階層的コンボリューション演算回路及び物体認識装置 |
US20160328647A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
Non-Patent Citations (3)
Title |
---|
土井伸洋,外3名: "丸めを考慮した浮動小数点数の固定小数点数への自動変換", DAシンポジウム2003 情報処理学会シンポジウムシリーズ, vol. 第2003巻,第11号, JPN6020019383, 22 July 2003 (2003-07-22), pages 209 - 214, ISSN: 0004281083 * |
新藤浩之,外4名: "ニューラルネットワークを用いたNARMAXモデルのパラメータ推定法", システム/制御/情報 システム制御情報学会論文誌, vol. 第9巻,第8号, JPN6020019384, 15 August 1996 (1996-08-15), pages 20 - 28, ISSN: 0004281084 * |
木村智寿,外1名: "大規模ニューロチップを指向した低ビット学習法の検討", 電子情報通信学会技術研究報告 CPSY94−14〜26 コンピュータシステム, vol. 第94巻,第15号, JPN6020019385, 22 April 1994 (1994-04-22), pages 55 - 62, ISSN: 0004281085 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020061140A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社ストラドビジョン | ブラインドスポットモニタリングのためのcnnの学習方法、テスティング方法、学習装置、及びテスティング装置 |
JP2020060967A (ja) * | 2018-10-10 | 2020-04-16 | LeapMind株式会社 | ニューラルネットワーク処理装置、およびニューラルネットワーク処理方法 |
JP7040771B2 (ja) | 2018-10-10 | 2022-03-23 | LeapMind株式会社 | ニューラルネットワーク処理装置、通信装置、ニューラルネットワーク処理方法、およびプログラム |
JP2022502733A (ja) * | 2018-10-11 | 2022-01-11 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | ニューラル・ネットワーク・コアにおける動的精度のためのデータ表現 |
JP7325158B2 (ja) | 2018-10-11 | 2023-08-14 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ニューラル・ネットワーク・コアにおける動的精度のためのデータ表現 |
JP7477249B2 (ja) | 2019-08-27 | 2024-05-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 最適化された分散ディープ・ラーニングのためのシステム自覚性の選択的量子化 |
JP2021105950A (ja) * | 2019-12-27 | 2021-07-26 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置およびプログラム |
JP7008221B2 (ja) | 2019-12-27 | 2022-01-25 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置およびプログラム |
WO2022009449A1 (ja) * | 2020-07-10 | 2022-01-13 | 富士通株式会社 | 情報処理装置,情報処理方法および情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180247182A1 (en) | 2018-08-30 |
US11507797B2 (en) | 2022-11-22 |
JP6823495B2 (ja) | 2021-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6823495B2 (ja) | 情報処理装置および画像認識装置 | |
US20220043886A1 (en) | Hardware Implementation of Convolutional Layer of Deep Neural Network | |
JP6773568B2 (ja) | 演算システムおよびニューラルネットワークの演算方法 | |
CN109102065B (zh) | 一种基于PSoC的卷积神经网络加速器 | |
Chen et al. | DianNao family: energy-efficient hardware accelerators for machine learning | |
Nguyen et al. | Layer-specific optimization for mixed data flow with mixed precision in FPGA design for CNN-based object detectors | |
CN105843775B (zh) | 片上数据划分读写方法、系统及其装置 | |
WO2019060670A1 (en) | LOW PROFOUND CONVOLUTIVE NETWORK WEIGHT COMPRESSION | |
CN110968543A (zh) | 存储器中计算系统和方法 | |
EP3480743A1 (en) | End-to-end data format selection for hardware implementation of deep neural network | |
Yang et al. | AUTO-PRUNE: Automated DNN pruning and mapping for ReRAM-based accelerator | |
EP3480689A1 (en) | Hierarchical mantissa bit length selection for hardware implementation of deep neural network | |
Dutta et al. | Hdnn-pim: Efficient in memory design of hyperdimensional computing with feature extraction | |
CN113887710A (zh) | 循环神经网络中的数字格式选择 | |
Shawahna et al. | FxP-QNet: a post-training quantizer for the design of mixed low-precision DNNs with dynamic fixed-point representation | |
US20210216864A1 (en) | Apparatus and method with neural network model reconfiguration | |
Das et al. | Clu: A near-memory accelerator exploiting the parallelism in convolutional neural networks | |
US10997497B2 (en) | Calculation device for and calculation method of performing convolution | |
Soria-García et al. | FPGA implementation of a geometric voting scheme for the extraction of geometric entities from images | |
CN113887714A (zh) | 用于在硬件中运行动态循环神经网络的方法和系统 | |
Yang et al. | Value-driven synthesis for neural network ASICs | |
TW202321996A (zh) | 圖網路之原始數據的處理方法及其相關處理系統 | |
CN117808045A (zh) | 用于对神经网络中的卷积层执行通道均衡的方法和系统 | |
Franca-Neto | Field-programmable deep neural network (DNN) learning and inference accelerator: A concept | |
Kanasugi et al. | Hardware implementation of evolutionary algorithms using dynamic reconfiguration technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6823495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |