JP6798021B1 - 畳み込みニューラルネットワークの高速計算 - Google Patents
畳み込みニューラルネットワークの高速計算 Download PDFInfo
- Publication number
- JP6798021B1 JP6798021B1 JP2019521684A JP2019521684A JP6798021B1 JP 6798021 B1 JP6798021 B1 JP 6798021B1 JP 2019521684 A JP2019521684 A JP 2019521684A JP 2019521684 A JP2019521684 A JP 2019521684A JP 6798021 B1 JP6798021 B1 JP 6798021B1
- Authority
- JP
- Japan
- Prior art keywords
- computer
- output
- input data
- neural network
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 167
- 238000004364 calculation method Methods 0.000 title description 34
- 238000000034 method Methods 0.000 claims abstract description 83
- 238000004422 calculation algorithm Methods 0.000 claims description 44
- 238000001914 filtration Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
Description
は、同じGPUカーネル起動において直接に畳み込みの結果に追加することができ、それにより、より高速をもたらす。同様に、バッチ正規化の場合、畳み込みレイヤとバッチ正規化との組合せは、畳み込みレイヤとバイアス付加オフラインとの組合せに同等に変換することができ、次いで、前述のデバイスに依存する最適化が、さらにGPUパワーを活用して計算速度を向上させるために、畳み込みレイヤおよびバイアス付加演算に適用され得る。これらの例は、GPU以外の他のプロセッサまたはアクセラレータにも同様に適用可能である。当業者には他の利点が明らかとなろう。
101 等価変換
105 計算グラフ
110 テンソルX
115 テンソルX'
120 テンソルW
125 テンソルU
130 Conv2D
135 Wino-Conv2D
140 テンソルY
145 テンソルY'
150 ノード
155 計算グラフ
160 バイアス
165 バイアス
170 テンソルZ、出力Z
175 テンソルZ'、出力Z'
200 例示的アルゴリズム
300 方法
400 コンピュータシステム
402 コンピュータ
403 システムバス
404 インターフェース
405 プロセッサ
406 データベース
407 メモリ
408 アプリケーション
412 API
413 サービスレイヤ
414 電源
416 トレーニングされたCNN
418 あらかじめ計算された再使用可能なファクタ
426 ウィノグラードアルゴリズム
430 ネットワーク
Claims (17)
- データ処理装置によって、第1の畳み込みレイヤおよび第2の畳み込みレイヤを少なくとも備えるトレーニングされた畳み込みニューラルネットワークを取得するステップであって、前記第1の畳み込みレイヤおよび前記第2の畳み込みレイヤの各々が、既知のフィルタパラメータを有する、対応する複数のフィルタを備える、ステップと、
前記データ処理装置によって、前記トレーニングされた畳み込みニューラルネットワークへの入力データに関係なく前記既知のフィルタパラメータに基づいて、前記第1の畳み込みレイヤの第1の再使用可能なファクタを予め計算するステップと、
前記データ処理装置によって、前記トレーニングされた畳み込みニューラルネットワークへの入力データに関係なく前記既知のフィルタパラメータに基づいて、前記第2の畳み込みレイヤの第2の再使用可能なファクタを予め計算するステップと、
前記データ処理装置によって、前記トレーニングされた畳み込みニューラルネットワークの前記第1の畳み込みレイヤへの第1の入力データを識別するステップと、
前記データ処理装置によって、前記第1の再使用可能なファクタおよび前記第1の入力データに基づいて、ウィノグラード畳み込み演算子を使用して、前記第1の畳み込みレイヤの第1の出力を計算するステップと、
前記データ処理装置によって、前記第1の出力を、前記トレーニングされた畳み込みニューラルネットワークの前記第2の畳み込みレイヤへの第2の入力データとして使用するステップと、
前記データ処理装置によって、前記第2の再使用可能なファクタおよび前記第2の入力データに基づいて、前記ウィノグラード畳み込み演算子を使用して、前記第2の畳み込みレイヤの第2の出力を計算するステップとを含む、
コンピュータで実行される方法。 - 前記第1の畳み込みレイヤの前記第1の再使用可能なファクタを保存するステップをさらに含む、
請求項1に記載のコンピュータで実行される方法。 - 前記第1の再使用可能なファクタおよび前記第1の入力データに基づいて、ウィノグラード畳み込み演算子を使用して、前記第1の畳み込みレイヤの第1の出力を計算するステップが、
前記第1の再使用可能なファクタおよび前記第1の入力データを用いてウィノグラード最小フィルタリングアルゴリズムに従って、前記第1の畳み込みレイヤの前記第1の出力を計算するステップを含む、
請求項1に記載のコンピュータで実行される方法。 - 前記トレーニングされた畳み込みニューラルネットワークへの前記第1の入力データが、1つまたは複数の画像を備える、
請求項1に記載のコンピュータで実行される方法。 - 前記データ処理装置によって、前記第2の畳み込みレイヤの前記第2の出力に基づいて、前記トレーニングされた畳み込みニューラルネットワークの出力データを決定するステップをさらに含む、
請求項1に記載のコンピュータで実行される方法。 - ユーザインターフェースを介して、前記トレーニングされた畳み込みニューラルネットワークの出力データを出力するステップをさらに含む、
請求項1に記載のコンピュータで実行される方法。 - 以下の動作を実行するために、コンピュータシステムによって実行可能な1つまたは複数の命令を記録する、コンピュータ可読記録媒体であって、前記動作が、
第1の畳み込みレイヤおよび第2の畳み込みレイヤを少なくとも備えるトレーニングされた畳み込みニューラルネットワークを取得するステップであって、前記第1の畳み込みレイヤおよび前記第2の畳み込みレイヤの各々が、既知のフィルタパラメータを有する、対応する複数のフィルタを備える、ステップと、
前記トレーニングされた畳み込みニューラルネットワークへの入力データに関係なく前記既知のフィルタパラメータに基づいて、前記第1の畳み込みレイヤの第1の再使用可能なファクタを予め計算するステップと、
前記トレーニングされた畳み込みニューラルネットワークへの入力データに関係なく前記既知のフィルタパラメータに基づいて、前記第2の畳み込みレイヤの第2の再使用可能なファクタを予め計算するステップと、
前記トレーニングされた畳み込みニューラルネットワークの前記第1の畳み込みレイヤへの第1の入力データを識別するステップと、
前記第1の再使用可能なファクタおよび前記第1の入力データに基づいて、ウィノグラード畳み込み演算子を使用して、前記第1の畳み込みレイヤの第1の出力を計算するステップと、
前記第1の出力を、前記トレーニングされた畳み込みニューラルネットワークの前記第2の畳み込みレイヤへの第2の入力データとして使用するステップと、
前記第2の再使用可能なファクタおよび前記第2の入力データに基づいて、前記ウィノグラード畳み込み演算子を使用して、前記第2の畳み込みレイヤの第2の出力を計算するステップとを含む、
コンピュータ可読記憶媒体。 - 前記動作が、
前記第1の畳み込みレイヤの前記第1の再使用可能なファクタを保存するステップをさらに含む、
請求項7に記載のコンピュータ可読記憶媒体。 - 前記第1の再使用可能なファクタおよび前記第1の入力データに基づいて、ウィノグラード畳み込み演算子を使用して、前記第1の畳み込みレイヤの第1の出力を計算するステップが、
前記第1の再使用可能なファクタおよび前記第1の入力データを用いてウィノグラード最小フィルタリングアルゴリズムに従って、前記第1の畳み込みレイヤの前記第1の出力を計算するステップを含む、
請求項7に記載のコンピュータ可読記憶媒体。 - 前記トレーニングされた畳み込みニューラルネットワークへの前記第1の入力データが、1つまたは複数の画像を備える、
請求項7に記載のコンピュータ可読記憶媒体。 - 前記動作が、
前記第2の畳み込みレイヤの前記第2の出力に基づいて、前記トレーニングされた畳み込みニューラルネットワークの出力データを決定するステップをさらに含む、
請求項7に記載のコンピュータ可読記憶媒体。 - 前記動作が、
ユーザインターフェースを介して、前記トレーニングされた畳み込みニューラルネットワークの出力データを出力するステップをさらに含む、
請求項7に記載のコンピュータ可読記憶媒体。 - 1つまたは複数のコンピュータと、
前記1つまたは複数のコンピュータと相互動作可能に結合された1つまたは複数のコンピュータメモリデバイスとを備える、
コンピュータで実装されるシステムであって、1つまたは複数のコンピュータメモリデバイスが、前記1つまたは複数のコンピュータに以下の動作を実行させるための命令を記録する有形の非一時的マシン可読媒体を有し、前記動作が、
第1の畳み込みレイヤおよび第2の畳み込みレイヤを少なくとも備えるトレーニングされた畳み込みニューラルネットワークを取得するステップであって、前記第1の畳み込みレイヤおよび前記第2の畳み込みレイヤの各々が、既知のフィルタパラメータを有する、対応する複数のフィルタを備える、ステップと、
前記トレーニングされた畳み込みニューラルネットワークへの入力データに関係なく前記既知のフィルタパラメータに基づいて、前記第1の畳み込みレイヤの第1の再使用可能なファクタを予め計算するステップと、
前記トレーニングされた畳み込みニューラルネットワークへの入力データに関係なく前記既知のフィルタパラメータに基づいて、前記第2の畳み込みレイヤの第2の再使用可能なファクタを予め計算するステップと、
前記トレーニングされた畳み込みニューラルネットワークの前記第1の畳み込みレイヤへの第1の入力データを識別するステップと、
前記第1の再使用可能なファクタおよび前記第1の入力データに基づいて、ウィノグラード畳み込み演算子を使用して、前記第1の畳み込みレイヤの第1の出力を計算するステップと、
前記第1の出力を、前記トレーニングされた畳み込みニューラルネットワークの前記第2の畳み込みレイヤへの第2の入力データとして使用するステップと、
前記第2の再使用可能なファクタおよび前記第2の入力データに基づいて、前記ウィノグラード畳み込み演算子を使用して、前記第2の畳み込みレイヤの第2の出力を計算するステップとを含む、
コンピュータで実装されるシステム。 - 前記動作が、
前記第1の畳み込みレイヤの前記第1の再使用可能なファクタを保存するステップをさらに含む、
請求項13に記載のコンピュータで実装されるシステム。 - 前記第1の再使用可能なファクタおよび前記第1の入力データに基づいて、ウィノグラード畳み込み演算子を使用して、前記第1の畳み込みレイヤの第1の出力を計算するステップが、
前記第1の再使用可能なファクタおよび前記第1の入力データを用いてウィノグラード最小フィルタリングアルゴリズムを従って、前記第1の畳み込みレイヤの前記第1の出力を計算するステップを含む、
請求項13に記載のコンピュータで実装されるシステム。 - 前記動作が、
前記第2の畳み込みレイヤの前記第2の出力に基づいて、前記トレーニングされた畳み込みニューラルネットワークの出力データを決定するステップをさらに含む、
請求項13に記載のコンピュータで実装されるシステム。 - 前記コンピュータで実装されるシステムは、
ユーザインターフェースをさらに備え、
前記動作が、
前記ユーザインターフェースを介して、前記トレーニングされた畳み込みニューラルネットワークの出力データを出力するステップをさらに含む、
請求項13に記載のコンピュータで実装されるシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/111655 WO2020082263A1 (en) | 2018-10-24 | 2018-10-24 | Fast computation of convolutional neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6798021B1 true JP6798021B1 (ja) | 2020-12-09 |
JP2021501377A JP2021501377A (ja) | 2021-01-14 |
Family
ID=66850328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019521684A Active JP6798021B1 (ja) | 2018-10-24 | 2018-10-24 | 畳み込みニューラルネットワークの高速計算 |
Country Status (14)
Country | Link |
---|---|
US (1) | US10635951B1 (ja) |
EP (1) | EP3662414A4 (ja) |
JP (1) | JP6798021B1 (ja) |
KR (1) | KR102141324B1 (ja) |
CN (1) | CN110537193A (ja) |
AU (1) | AU2018353930B2 (ja) |
BR (1) | BR112019008055B1 (ja) |
CA (1) | CA3040685C (ja) |
MX (1) | MX2019004654A (ja) |
PH (1) | PH12019500889A1 (ja) |
RU (1) | RU2722473C1 (ja) |
SG (1) | SG11201903591QA (ja) |
WO (1) | WO2020082263A1 (ja) |
ZA (1) | ZA201902547B (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10990648B2 (en) * | 2017-08-07 | 2021-04-27 | Intel Corporation | System and method for an optimized winograd convolution accelerator |
US11494608B2 (en) * | 2019-08-14 | 2022-11-08 | Intel Corporation | Methods and apparatus to tile walk a tensor for convolution operations |
US11657282B2 (en) * | 2019-09-16 | 2023-05-23 | Qualcomm Incorporated | Efficient inferencing with fast pointwise convolution |
CN112766471B (zh) * | 2019-11-01 | 2024-03-29 | 中科寒武纪科技股份有限公司 | 运算装置及相关产品 |
CN112784206A (zh) * | 2019-11-01 | 2021-05-11 | 中科寒武纪科技股份有限公司 | winograd卷积运算方法、装置、设备及存储介质 |
US20210216868A1 (en) * | 2020-01-08 | 2021-07-15 | Maxim Integrated Products, Inc. | Systems and methods for reducing memory requirements in neural networks |
CN111294512A (zh) * | 2020-02-10 | 2020-06-16 | 深圳市铂岩科技有限公司 | 图像处理方法、装置、存储介质及摄像装置 |
CN111475775B (zh) * | 2020-04-14 | 2023-09-15 | 腾讯科技(深圳)有限公司 | 图形处理器的数据处理方法、文本处理方法、装置和设备 |
CN111415000B (zh) * | 2020-04-29 | 2024-03-22 | Oppo广东移动通信有限公司 | 卷积神经网络、基于卷积神经网络的数据处理方法和装置 |
CN111553466B (zh) * | 2020-04-30 | 2024-03-22 | 上海商汤智能科技有限公司 | 信息处理方法、装置及设备 |
CN111580828B (zh) * | 2020-04-30 | 2021-08-27 | 腾讯科技(深圳)有限公司 | 机器学习模型的编译优化方法和装置 |
US11687336B2 (en) * | 2020-05-08 | 2023-06-27 | Black Sesame Technologies Inc. | Extensible multi-precision data pipeline for computing non-linear and arithmetic functions in artificial neural networks |
CN111767964A (zh) * | 2020-07-08 | 2020-10-13 | 福州大学 | 基于改进的DenseNet的多通道特征重标记图像分类方法 |
JP2022018997A (ja) * | 2020-07-17 | 2022-01-27 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像素子、撮像装置、および、情報処理システム |
WO2022064901A1 (ja) * | 2020-09-28 | 2022-03-31 | 富士フイルム株式会社 | 学習済みモデル変換方法、推論方法、学習済みモデル変換装置、学習済みモデル、及び推論装置 |
EP4241206A4 (en) * | 2020-12-01 | 2024-01-03 | Huawei Tech Co Ltd | DEVICE AND METHOD FOR IMPLEMENTING A TENSOR STREAM DECOMPOSITION OPERATION |
JP7420100B2 (ja) | 2021-03-15 | 2024-01-23 | オムロン株式会社 | 処理装置、処理方法、およびプログラム |
KR20220162971A (ko) * | 2021-06-02 | 2022-12-09 | 세메스 주식회사 | 데이터 처리 방법 및 데이터 비교 방법 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2872502C (en) * | 2012-05-04 | 2021-05-18 | Rearden, Llc | System and methods for coping with doppler effects in distributed-input distributed-output wireless systems |
GB2539845B (en) * | 2015-02-19 | 2017-07-12 | Magic Pony Tech Ltd | Offline training of hierarchical algorithms |
US10403269B2 (en) * | 2015-03-27 | 2019-09-03 | Google Llc | Processing audio waveforms |
CN105740894B (zh) * | 2016-01-28 | 2020-05-29 | 北京航空航天大学 | 一种高光谱遥感图像的语义标注方法 |
US20170344876A1 (en) * | 2016-05-31 | 2017-11-30 | Samsung Electronics Co., Ltd. | Efficient sparse parallel winograd-based convolution scheme |
CN106407986B (zh) * | 2016-08-29 | 2019-07-19 | 电子科技大学 | 一种基于深度模型的合成孔径雷达图像目标识别方法 |
GB2554711B (en) * | 2016-10-06 | 2020-11-25 | Imagination Tech Ltd | Buffer addressing for a convolutional neural network |
US10230725B2 (en) * | 2016-10-24 | 2019-03-12 | Sonicwall Inc. | Edge protection for internal identity providers |
US10482155B2 (en) * | 2016-12-30 | 2019-11-19 | Intel Corporation | Winograd algorithm on a matrix processing architecture |
RU2651147C1 (ru) * | 2017-03-27 | 2018-04-18 | Акционерное общество "ЭЛВИС-НеоТек" | Устройство и способ каскадной обработки потока изображений с помощью свёрточных нейронных сетей |
US10467795B2 (en) * | 2017-04-08 | 2019-11-05 | Intel Corporation | Sub-graph in frequency domain and dynamic selection of convolution implementation on a GPU |
CN107480707B (zh) * | 2017-07-26 | 2020-08-07 | 天津大学 | 一种基于信息无损池化的深度神经网络方法 |
US10990648B2 (en) * | 2017-08-07 | 2021-04-27 | Intel Corporation | System and method for an optimized winograd convolution accelerator |
KR102452953B1 (ko) * | 2017-10-30 | 2022-10-11 | 삼성전자주식회사 | 뉴럴 네트워크의 컨볼루션 연산을 수행하는 방법 및 장치 |
CN107844833A (zh) * | 2017-11-28 | 2018-03-27 | 郑州云海信息技术有限公司 | 一种卷积神经网络的数据处理方法、装置及介质 |
US10372787B2 (en) * | 2017-12-12 | 2019-08-06 | Facebook, Inc. | Hardware accelerator pre-configured with coefficients for matrix-transform operations |
-
2018
- 2018-10-24 CN CN201880017855.1A patent/CN110537193A/zh active Pending
- 2018-10-24 CA CA3040685A patent/CA3040685C/en active Active
- 2018-10-24 JP JP2019521684A patent/JP6798021B1/ja active Active
- 2018-10-24 WO PCT/CN2018/111655 patent/WO2020082263A1/en unknown
- 2018-10-24 AU AU2018353930A patent/AU2018353930B2/en active Active
- 2018-10-24 RU RU2019111961A patent/RU2722473C1/ru active
- 2018-10-24 MX MX2019004654A patent/MX2019004654A/es unknown
- 2018-10-24 BR BR112019008055-4A patent/BR112019008055B1/pt active IP Right Grant
- 2018-10-24 EP EP18867295.0A patent/EP3662414A4/en not_active Withdrawn
- 2018-10-24 KR KR1020197011555A patent/KR102141324B1/ko active IP Right Grant
- 2018-10-24 SG SG11201903591QA patent/SG11201903591QA/en unknown
-
2019
- 2019-04-22 US US16/390,042 patent/US10635951B1/en active Active
- 2019-04-23 ZA ZA2019/02547A patent/ZA201902547B/en unknown
- 2019-04-24 PH PH12019500889A patent/PH12019500889A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
SG11201903591QA (en) | 2020-05-28 |
CN110537193A (zh) | 2019-12-03 |
RU2722473C1 (ru) | 2020-06-01 |
JP2021501377A (ja) | 2021-01-14 |
AU2018353930B2 (en) | 2020-10-08 |
KR20200049695A (ko) | 2020-05-08 |
US20200134400A1 (en) | 2020-04-30 |
ZA201902547B (en) | 2021-02-24 |
MX2019004654A (es) | 2022-05-04 |
AU2018353930A1 (en) | 2020-05-14 |
EP3662414A1 (en) | 2020-06-10 |
PH12019500889A1 (en) | 2019-06-17 |
BR112019008055B1 (pt) | 2022-02-01 |
BR112019008055A2 (pt) | 2021-05-18 |
CA3040685C (en) | 2020-07-28 |
CA3040685A1 (en) | 2020-04-28 |
EP3662414A4 (en) | 2020-07-22 |
US10635951B1 (en) | 2020-04-28 |
WO2020082263A1 (en) | 2020-04-30 |
KR102141324B1 (ko) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6798021B1 (ja) | 畳み込みニューラルネットワークの高速計算 | |
US10140709B2 (en) | Automatic detection and semantic description of lesions using a convolutional neural network | |
CN113614748A (zh) | 用于对象检测的增量学习的系统和方法 | |
CN110023964B (zh) | 训练和/或使用神经网络模型来生成光谱图像的中间输出 | |
WO2022028323A1 (zh) | 分类模型的训练方法、超参数的搜索方法以及装置 | |
JP2017527013A (ja) | サービスとしての適応特徴化 | |
WO2016112348A1 (en) | Filtering data objects | |
CN111062431A (zh) | 图像聚类方法、图像聚类装置、电子设备及存储介质 | |
US20230237787A1 (en) | Techniques for dynamic time-based custom model generation | |
US11954910B2 (en) | Dynamic multi-resolution processing for video classification | |
US11811429B2 (en) | Variational dropout with smoothness regularization for neural network model compression | |
US11514318B2 (en) | Multi-source transfer learning from pre-trained networks | |
US11568183B2 (en) | Generating saliency masks for inputs of models using saliency metric | |
US11164078B2 (en) | Model matching and learning rate selection for fine tuning | |
US11042891B2 (en) | Optimizing revenue savings for actionable predictions of revenue change | |
US20210232891A1 (en) | Neural network model compression with structured weight unification | |
US20210201157A1 (en) | Neural network model compression with quantizability regularization | |
US11062334B2 (en) | Predicting ledger revenue change behavior of clients receiving services | |
US20240144081A1 (en) | Continual learning techniques for training models | |
US20220358397A1 (en) | Moving decision boundaries in machine learning models | |
US20240046097A1 (en) | Automatic compression of machine learning models | |
US20230186614A1 (en) | Training self-classifier using image augmentations and uniform prior | |
CN114707010A (zh) | 模型训练和媒介信息处理方法、装置、设备及存储介质 | |
CN115049059A (zh) | 数据处理方法、装置、设备及存储介质 | |
CN113052309A (zh) | 压缩神经网络模型的方法、计算机系统以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200319 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190621 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200319 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6798021 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |