JP7071451B2 - コンボリューションニューラルネットワークでコンボリューション演算を加速させるプロセッサ、及び該プロセッサの動作方法 - Google Patents
コンボリューションニューラルネットワークでコンボリューション演算を加速させるプロセッサ、及び該プロセッサの動作方法 Download PDFInfo
- Publication number
- JP7071451B2 JP7071451B2 JP2020132496A JP2020132496A JP7071451B2 JP 7071451 B2 JP7071451 B2 JP 7071451B2 JP 2020132496 A JP2020132496 A JP 2020132496A JP 2020132496 A JP2020132496 A JP 2020132496A JP 7071451 B2 JP7071451 B2 JP 7071451B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- vector
- weighted value
- input activation
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 44
- 230000004913 activation Effects 0.000 claims description 220
- 239000013598 vector Substances 0.000 claims description 205
- 238000004364 calculation method Methods 0.000 claims description 55
- 238000000034 method Methods 0.000 claims description 44
- 238000004590 computer program Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims 2
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 101000804821 Homo sapiens WD repeat and SOCS box-containing protein 2 Proteins 0.000 description 3
- 102100035329 WD repeat and SOCS box-containing protein 2 Human genes 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 101100322581 Caenorhabditis elegans add-1 gene Proteins 0.000 description 1
- 101100322583 Caenorhabditis elegans add-2 gene Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
Description
210 プロセッサ
220 メモリ
Claims (13)
- コンボリューションニューラルネットワークでコンボリューション演算を行う方法において、
第1ビット幅と同じ距離を有する第1距離ベクトルに基づいて、入力イメージに係わる前記第1ビット幅で量子化された入力アクティベーションデータを獲得する段階と、
第2ビット幅と同じ距離を有する第2距離ベクトルに基づいて、前記コンボリューションニューラルネットワークを介して学習されたパラメータの値を示す、前記第2ビット幅で量子化された加重値データを獲得する段階と、
前記入力アクティベーションデータ及び加重値データそれぞれを二進化し、二進化入力アクティベーションベクトル及び二進化加重値ベクトルを獲得する段階と、
前記二進化入力アクティベーションベクトルと前記二進化加重値ベクトルとの二進演算に基づいて獲得された演算値それぞれに、前記演算値の算出に基となった前記第1距離ベクトルのコンポーネントと前記第2距離ベクトルのコンポーネントとを乗じ、乗算した結果値を合算することにより、前記入力アクティベーションデータと前記加重値データとの内積演算を行う段階と、
前記内積演算によってなされた結果を出力アクティベーションデータとして保存する段階と、
を含み、
nビットのデータに係わる距離ベクトルのコンポーネントは、n個で構成され、前記nビットで量子化されたデータは、前記距離ベクトルのn個のコンポーネント値のそれぞれに、既設定の値のうち1つの値を乗じた値の和に基づいて算出され、
前記入力アクティベーションデータ及び加重値データそれぞれを二進化し、二進化入力アクティベーションベクトル及び二進化加重値ベクトルを獲得する段階は、
前記入力アクティベーションデータ内のコンポーネントを二進化し、前記二進化されたコンポーネントそれぞれにおいてi番目ビットで構成された第i二進化入力アクティベーションベクトル(0≦i≦n-1、iは、整数であり、前記第1ビット幅は、nビットである)を獲得する段階と、
前記加重値データ内のコンポーネントを二進化し、前記二進化されたコンポーネントそれぞれにおいてj番目ビットで構成された第j二進化加重値ベクトル(0≦j≦m-1、jは、整数であり、前記第2ビット幅は、mビットである)を獲得する段階と、
を含む、方法。 - 前記入力アクティベーションデータを獲得する段階は、
前記第1距離ベクトルに基づき、前記第1ビット幅で表現される二進数を、量子化されたデータにマッピングする段階と、
前記マッピングされた結果、及び前記コンボリューション演算の単位に基づき、前記入力イメージから、前記第1ビット幅で量子化された入力アクティベーションデータを獲得する段階と、
を含む、請求項1に記載の方法。 - 前記加重値データを獲得する段階は、
前記第2距離ベクトルに基づき、前記第2ビット幅で表現される二進数を、量子化されたデータにマッピングする段階と、
前記マッピングされた結果、及び前記コンボリューション演算の単位に基づき、前記コンボリューションニューラルネットワークを介して学習されたパラメータの値から、前記第2ビット幅で量子化された加重値データを獲得する段階と、
を含む、請求項1に記載の方法。 - 前記入力アクティベーションデータと加重値データとの内積演算を行う段階は、
前記第i二進化入力アクティベーションベクトルと前記第j二進化加重値ベクトルとの間でXNOR演算を行い、nxm個の第1演算ベクトルを獲得する段階と、
前記nxm個の第1演算ベクトルにpopcount演算を行い、nxm個の第2演算値を獲得する段階と、
前記nxm個の第2演算値、及び前記nxm個の第1演算ベクトルに対応する距離ベクトルに基づき、前記入力アクティベーションデータと加重値データとの内積演算を行う段階と、
を含む、請求項1に記載の方法。 - 前記nxm個の第2演算値、及び前記nxm個の第1演算ベクトルに対応する距離ベクトルに基づき、前記入力アクティベーションデータと加重値データとの内積演算を行う段階は、
前記nxm個の第2演算値それぞれで2を乗じ、前記入力アクティベーションデータの長さを差し引く演算を行い、nxm個の第3演算値を獲得する段階と、
前記nxm個の第3演算値それぞれを獲得するのに基になった距離ベクトルの値を、前記nxm個の第3演算値と乗じ、nxm個の乗じた値を合算することにより、前記入力アクティベーションデータと加重値データとの内積演算を行う段階と、
を含む、請求項4に記載の方法。 - 前記入力イメージから獲得される所定個数の入力アクティベーションデータについて、前記内積演算を行うことにより、所定個数の出力アクティベーションデータを獲得する段階をさらに含む、
請求項1に記載の方法。 - 前記コンボリューションニューラルネットワーク上の第1レイヤから出力された前記所定個数の出力アクティベーションデータを、前記コンボリューションニューラルネットワーク上の第2レイヤの入力アクティベーションデータとして適用する段階をさらに含む、
請求項6に記載の方法。 - コンボリューションニューラルネットワークでコンボリューション演算を行う装置において、
少なくとも1つのプログラムが保存されたメモリと、
前記少なくとも1つのプログラムが実行されることにより、コンボリューションニューラルネットワークでコンボリューション演算を行うプロセッサと、
を含み、
前記プロセッサは、
第1ビット幅と同じ距離を有する第1距離ベクトルに基づいて、入力イメージに係わる前記第1ビット幅で量子化された入力アクティベーションデータを獲得し、
第2ビット幅と同じ距離を有する第2距離ベクトルに基づいて、前記コンボリューションニューラルネットワークを介して学習されたパラメータの値を示す、前記第2ビット幅で量子化された加重値データを獲得し、
前記入力アクティベーションデータ及び加重値データそれぞれを二進化し、二進化入力アクティベーションベクトル及び二進化加重値ベクトルを獲得し、
前記二進化入力アクティベーションベクトルと前記二進化加重値ベクトルとの二進演算に基づいて獲得された演算値それぞれを、前記演算値の算出に基礎になった前記第1距離ベクトルのコンポーネントと前記第2距離ベクトルのコンポーネントを乗じ、乗算した結果値を合算することで、前記入力アクティベーションデータと前記加重値データとの内積演算を行い、
前記内積演算によってなされた結果を、前記メモリに出力アクティベーションデータとして保存し、
nビットのデータに係わる距離ベクトルのコンポーネントは、n個で構成され、前記nビットに量子化されたデータは、前記距離ベクトルのn個のコンポーネント値のそれぞれに、既設定の値のうち1つの値を乗じた値の和に基づいて算出され、
前記プロセッサは、
前記入力アクティベーションデータ内のコンポーネントを二進化し、前記二進化したコンポーネントそれぞれにおいてi番目ビットで構成された第i二進化入力アクティベーションベクトル(0≦i≦n-1、iは、整数であり、前記第1ビット幅は、nビットである)を獲得し、
前記加重値データ内のコンポーネントを二進化し、前記二進化したコンポーネントそれぞれにおいてj番目ビットで構成された第j二進化加重値ベクトル(0≦j≦m-1、jは、整数であり、前記第2ビット幅は、mビットである)を獲得する、装置。 - 前記プロセッサは、
前記第1距離ベクトルに基づき、前記第1ビット幅で表現される二進数を、量子化されたデータにマッピングし、
前記マッピングされた結果、及び前記コンボリューション演算の単位に基づき、前記入力イメージから、前記第1ビット幅で量子化された入力アクティベーションデータを獲得する、
請求項8に記載の装置。 - 前記プロセッサは、
前記第2距離ベクトルに基づき、前記第2ビット幅で表現される二進数を、量子化されたデータにマッピングし、
前記マッピングされた結果、及び前記コンボリューション演算の単位に基づき、前記コンボリューションニューラルネットワークを介して学習されたパラメータの値から、前記第2ビット幅で量子化された加重値データを獲得する、
請求項8に記載の装置。 - 前記プロセッサは、
前記第i二進化入力アクティベーションベクトルと前記第j二進化加重値ベクトルとの間でXNOR演算を行い、nxm個の第1演算ベクトルを獲得し、
前記nxm個の第1演算ベクトルにpopcount演算を行い、nxm個の第2演算値を獲得し、
前記nxm個の第2演算値、及び前記nxm個の第1演算ベクトルに対応する距離ベクトルに基づき、前記入力アクティベーションデータと加重値データとの内積演算を行う、
請求項8に記載の装置。 - 前記プロセッサは、
前記nxm個の第2演算値それぞれで2を乗じ、前記入力アクティベーションデータの長さを差し引く演算を行い、nxm個の第3演算値を獲得し、
前記nxm個の第3演算値それぞれを獲得するのに基になった距離ベクトルの値を、前記nxm個の第3演算値と乗じ、nxm個の乗じた値を合算することにより、前記入力アクティベーションデータと加重値データとの内積演算を行う、
請求項11に記載の装置。 - 第1ビット幅と同じ距離を有する第1距離ベクトルに基づいて前記第1ビット幅で量子化された入力アクティベーションデータと、第2ビット幅と同じ距離を有する第2距離ベクトルに基づいて前記第2ビット幅で量子化された加重値データとの内積演算によってなされた結果を示す出力アクティベーションデータを保存するアドレスをローディングする段階と、
前記入力アクティベーションデータ内のコンポーネントが二進化された二進化入力アクティベーションベクトルをローディングする段階と、
前記二進化入力アクティベーションベクトルと、前記加重値データ内のコンポーネントが二進化された二進化加重値ベクトルとの二進演算に基づいて獲得された演算値それぞれを、前記演算値の算出に基礎になった前記第1距離ベクトルのコンポーネントと前記第2距離ベクトルのコンポーネントとを乗じ、乗算した結果値を合算することで、前記入力アクティベーションデータと前記加重値データとの内積演算を行う段階と、
前記内積演算によってなされた結果を、前記ローディングされたアドレスに前記出力アクティベーションデータとして保存する段階と、
を含み、
nビットのデータに係わる距離ベクトルのコンポーネントは、n個で構成され、前記nビットで量子化されたデータは、前記距離ベクトルのn個のコンポーネント値のそれぞれに、既設定の値のうち1つの値を乗じた値の和に基づいて算出され、
前記入力アクティベーションデータ及び加重値データそれぞれを二進化し、二進化入力アクティベーションベクトル及び二進化加重値ベクトルを獲得する段階は、
前記入力アクティベーションデータ内のコンポーネントを二進化し、前記二進化したコンポーネントそれぞれにおいてi番目ビットで構成された第i二進化入力アクティベーションベクトル(0≦i≦n-1、iは、整数であり、前記第1ビット幅は、nビットである)を獲得する段階と、
前記加重値データ内のコンポーネントを二進化し、前記二進化したコンポーネントそれぞれにおいてj番目ビットで構成された第j二進化加重値ベクトル(0≦j≦m-1、jは、整数であり、前記第2ビット幅は、mビットである)を獲得する段階と、
を含む、コンボリューションニューラルネットワークでコンボリューション演算を行う方法をプロセッサと結合されて実行させるために媒体に保存されたコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190106638A KR102345409B1 (ko) | 2019-08-29 | 2019-08-29 | 컨볼루션 뉴럴 네트워크에서 컨볼루션 연산을 가속하는 프로세서 및 프로세서의 동작 방법 |
KR10-2019-0106638 | 2019-08-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021034036A JP2021034036A (ja) | 2021-03-01 |
JP7071451B2 true JP7071451B2 (ja) | 2022-05-19 |
Family
ID=72290799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020132496A Active JP7071451B2 (ja) | 2019-08-29 | 2020-08-04 | コンボリューションニューラルネットワークでコンボリューション演算を加速させるプロセッサ、及び該プロセッサの動作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11443134B2 (ja) |
EP (1) | EP3792834A1 (ja) |
JP (1) | JP7071451B2 (ja) |
KR (1) | KR102345409B1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11854536B2 (en) | 2019-09-06 | 2023-12-26 | Hyperconnect Inc. | Keyword spotting apparatus, method, and computer-readable recording medium thereof |
TWI737228B (zh) * | 2020-03-20 | 2021-08-21 | 國立清華大學 | 基於記憶體內運算電路架構之量化方法及其系統 |
KR102507855B1 (ko) * | 2021-05-12 | 2023-03-09 | 한국외국어대학교 연구산학협력단 | 고속 연산이 가능한 딥러닝 신경망 장치 |
US20230143430A1 (en) * | 2021-11-05 | 2023-05-11 | Adobe Inc. | Image Localizability Classifier |
KR20230173840A (ko) | 2022-06-20 | 2023-12-27 | 동국대학교 산학협력단 | 효율적인 미분 계산을 이용한 이진 뉴럴 네트워크 학습 방법 및 장치 |
KR102596769B1 (ko) * | 2022-07-12 | 2023-11-02 | 오픈엣지테크놀로지 주식회사 | 신경망 설계방법 및 이를 위한 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180039886A1 (en) | 2016-08-05 | 2018-02-08 | Xilinx, Inc. | Binary neural networks on progammable integrated circuits |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100911725B1 (ko) | 2007-08-09 | 2009-08-10 | 한국과학기술원 | 언어청정로봇 |
US10762894B2 (en) | 2015-03-27 | 2020-09-01 | Google Llc | Convolutional neural networks |
US10311342B1 (en) * | 2016-04-14 | 2019-06-04 | XNOR.ai, Inc. | System and methods for efficiently implementing a convolutional neural network incorporating binarized filter and convolution operation for performing image classification |
US10224058B2 (en) | 2016-09-07 | 2019-03-05 | Google Llc | Enhanced multi-channel acoustic models |
CN107169563B (zh) * | 2017-05-08 | 2018-11-30 | 中国科学院计算技术研究所 | 应用于二值权重卷积网络的处理系统及方法 |
KR102283972B1 (ko) | 2017-07-14 | 2021-08-02 | 주식회사 하이퍼커넥트 | 통신 장치, 서버 및 동작 방법 |
US20210166106A1 (en) * | 2017-12-12 | 2021-06-03 | The Regents Of The University Of California | Residual binary neural network |
US11315570B2 (en) | 2018-05-02 | 2022-04-26 | Facebook Technologies, Llc | Machine learning-based speech-to-text transcription cloud intermediary |
US20200097818A1 (en) * | 2018-09-26 | 2020-03-26 | Xinlin LI | Method and system for training binary quantized weight and activation function for deep neural networks |
US20200210759A1 (en) * | 2018-12-31 | 2020-07-02 | Nanjing Iluvatar CoreX Technology Co., Ltd. (DBA "Iluvatar CoreX Inc. Nanjing") | Methods and apparatus for similar data reuse in dataflow processing systems |
US11669585B2 (en) * | 2019-06-25 | 2023-06-06 | Apple Inc. | Optimizing binary convolutional neural networks |
US11854536B2 (en) | 2019-09-06 | 2023-12-26 | Hyperconnect Inc. | Keyword spotting apparatus, method, and computer-readable recording medium thereof |
-
2019
- 2019-08-29 KR KR1020190106638A patent/KR102345409B1/ko active IP Right Grant
-
2020
- 2020-08-04 JP JP2020132496A patent/JP7071451B2/ja active Active
- 2020-08-27 EP EP20193178.9A patent/EP3792834A1/en not_active Withdrawn
- 2020-08-27 US US17/004,733 patent/US11443134B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180039886A1 (en) | 2016-08-05 | 2018-02-08 | Xilinx, Inc. | Binary neural networks on progammable integrated circuits |
Non-Patent Citations (3)
Title |
---|
COWAN, Meghan et. al.,Automating Generation of Low Precision Deep Learning Operators,arXiv.org,米国,Cornell University,2018年10月25日,pp.1-10,https://arxiv.org/pdf/1810.11066.pdf |
LIANG, Shuang et. al.,FP-BNN: Binarized neural network on FPGA,Neurocomputing,NL,Elsevier,2018年01月31日,Vol. 275,pp.1072-1086,https://www.doc.ic.ac.uk/~wl/papers/17/neuro17sl0.pdf,https://doi.org/10.1016/j.neucom.2017.09.046 |
UMUROGLU, Yaman et. al.,Work-in-Progress: Towards Efficient Quantized Neural Network Inference on Mobile Devices,CASES'17: Proceedings of the 2017 International Conference on Compilers, Architectures and Synthesis for Embedded Systems Companion,米国,ACM,2017年10月15日,No.18,pp.1-2,https://dl.acm.org/doi/pdf/10.1145/3125501.3125528 |
Also Published As
Publication number | Publication date |
---|---|
US11443134B2 (en) | 2022-09-13 |
JP2021034036A (ja) | 2021-03-01 |
US20210064920A1 (en) | 2021-03-04 |
KR20210026191A (ko) | 2021-03-10 |
KR102345409B1 (ko) | 2021-12-30 |
EP3792834A1 (en) | 2021-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7071451B2 (ja) | コンボリューションニューラルネットワークでコンボリューション演算を加速させるプロセッサ、及び該プロセッサの動作方法 | |
JP7525237B2 (ja) | 効率的パラメータ・アップデートのための削減された精度パラメータを有する機械学習ハードウェア | |
JP5957126B1 (ja) | 秘密計算装置、秘密計算方法、およびプログラム | |
US10802956B2 (en) | Accessing prologue and epilogue data | |
CN112292816A (zh) | 处理核心数据压缩和存储系统 | |
CN111352656B (zh) | 使用按位运算的神经网络设备和方法 | |
JP2020506454A (ja) | ハードウェアにおける平均プーリングの実行 | |
KR102075848B1 (ko) | 다항식 연산 최적화 처리 장치, 다항식 연산 최적화 처리 방법 및 기록매체 | |
Grigoras et al. | Cask: Open-source custom architectures for sparse kernels | |
JP2024517596A (ja) | 準同型暗号化システムにおけるインメモリ計算 | |
US10230376B2 (en) | Apparatus and method for performing division | |
JP4960894B2 (ja) | 楕円曲線の点圧縮装置、楕円曲線の点展開装置、それらの方法及びプログラム | |
KR20060044980A (ko) | 랜덤화된 신호 변환 및 적용을 제공하는 방법 | |
JP7020555B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6067890B2 (ja) | 要素複製装置、要素複製方法、およびプログラム | |
TW202333041A (zh) | 執行浮點運算的系統及方法 | |
US20190377707A1 (en) | Bit-serial linear algebra processor | |
Thomas | The table-Hadamard GRNG: An area-efficient FPGA Gaussian random number generator | |
WO2019232159A1 (en) | Modulus calculation that leverages computer architecture and/or operand clustering | |
CN114730295A (zh) | 基于模式的高速缓存块压缩 | |
JP2020052569A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2009529171A (ja) | ブロック演算のためのチップメモリ上におけるアドレス指定 | |
US20240184533A1 (en) | Apparatus and method with data processing | |
WO2021149104A1 (ja) | 秘密計算装置、秘密計算方法、およびプログラム | |
JP6810437B1 (ja) | 情報処理装置、プログラム、及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220408 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220506 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7071451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |