JP6676722B2 - アクティベーション演算とコンボリューション演算を同時に遂行するための方法及び装置、そしてこのための学習方法及び学習装置 - Google Patents
アクティベーション演算とコンボリューション演算を同時に遂行するための方法及び装置、そしてこのための学習方法及び学習装置 Download PDFInfo
- Publication number
- JP6676722B2 JP6676722B2 JP2018193025A JP2018193025A JP6676722B2 JP 6676722 B2 JP6676722 B2 JP 6676722B2 JP 2018193025 A JP2018193025 A JP 2018193025A JP 2018193025 A JP2018193025 A JP 2018193025A JP 6676722 B2 JP6676722 B2 JP 6676722B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- value
- activation
- layers
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004913 activation Effects 0.000 title claims description 111
- 238000000034 method Methods 0.000 title claims description 82
- 230000006870 function Effects 0.000 claims description 23
- 238000004891 communication Methods 0.000 claims description 8
- 238000012886 linear function Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 description 47
- 238000004364 calculation method Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/12—Simultaneous equations, e.g. systems of linear equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Neurology (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Description
(例えば、この値は(x=0,y=0,チャネルch=0)である位置の画素値が1、(x=1,y=0,チャネルch=1)である位置の画素値が2、(x=0,y=1,チャネルch=1)である位置の画素値が3、(x=1,y=1,チャネルch=0)である位置の画素値が4であり、残りはすべて0である特徴マップを示す)がCReLU120に入力されると、スケールレイヤ121は各値に−1をかけて生成した値である
を二番目のReLUレイヤに伝達し、
値を直接伝達された一番目ReLUレイヤ及びスケールレイヤ121から
値を伝達された二番目のReLUレイヤは各々ポジティブアクティベーション演算を遂行して
と
を生成してこれをコンカチネーションレイヤ123に伝達する。それから、コンカチネーションレイヤ123はこれらの値を一つにコンカチネートして
を生成してこれを次の隣り合ったコンボリューションレイヤ130に伝達する。コンボリューションレイヤ130はこれらの値にコンボリューション演算を遂行する。
を有する場合、CNNでCReLU120の演算結果を入力でコンボリューションレイヤ130による演算をすることは、下のような数式で簡略に表現され得る。
Claims (16)
- (i)多数の要素バイアスレイヤ、スケールレイヤ及び多数の要素アクティベーションレイヤを含むアクティベーションモジュールのアクティベーション演算と(ii)コンボリューションレイヤのコンボリューション演算を遂行する学習装置でCNNのパラメータを学習する方法において、
(a)前記学習装置が、入力イメージに対応される入力値が各々の多数の要素バイアスレイヤに各々伝達されるようにし、前記各々の多数の要素バイアスレイヤをもって各々の対応する要素バイアスパラメータ(qi)を前記入力値に適用するようにするプロセスを遂行する段階;
(b)前記学習装置が、前記多数の要素バイアスレイヤのうち特定要素バイアスレイヤに連結された前記スケールレイヤをもって前記特定要素バイアスレイヤの出力値に所定のスケール値を掛けるようにするプロセスを遂行する段階;
(c)前記学習装置が、(i)前記スケールレイヤに連結された特定要素アクティベーションレイヤをもって前記スケールレイヤの出力値に非線形アクティベーション関数を適用するようにするプロセス及び(ii)前記各々の要素バイアスレイヤに連結された残りの要素アクティベーションレイヤをもって前記各々の要素バイアスレイヤの出力値に各々の非線形関数を適用するようにするプロセスを遂行する段階;
(d)前記学習装置が、コンカチネーションレイヤをもって前記特定要素アクティベーションレイヤ及び前記残りの要素アクティベーションレイヤの出力値を一つにコンカチネートするようにし、前記コンカチネートされた出力値を獲得するようにするプロセスを遂行する段階;
(e)前記学習装置が、前記コンボリューションレイヤをもって前記コンボリューションレイヤの各々の要素ウェイトパラメータ(pi)及び前記コンボリューションレイヤの各々の要素バイアスパラメータ(d)を利用して、前記コンカチネートされた出力値に前記コンボリューション演算を遂行するようにする段階;及び
(f)前記(e)段階の出力を、前記コンボリューション演算の結果を使用して前記CNNの用途に応じた結果値を獲得するアプリケーションブロックに入力して前記アプリケーションブロックによって前記結果値が出力されると、前記学習装置が、ロスレイヤをもって前記アプリケーションブロックから出力された前記結果値及び前記結果値に対応されるGT(Ground−Truth)値間を参照して計算されたロスを獲得するようにし、バックプロパゲーションプロセスを遂行して、前記各々の要素バイアスレイヤの各々の要素バイアスパラメータ(qi)、前記要素ウェイトパラメータ(pi)及び前記要素バイアスパラメータ(d)のうち少なくとも一部のパラメータを調整する段階;
を含むことを特徴とする方法。 - 前記スケール値は負数であることを特徴とする請求項1に記載の学習方法。
- 前記アクティベーションモジュールはN−way CReLU(N−way Concatenated Rectified Linear Units)を含み、
前記要素アクティベーションレイヤはReLU(Rectified Linear Units)レイヤであることを特徴とする請求項1に記載の学習方法。 - 前記(c)段階でn個の要素アクティベーションレイヤを用いる場合、前記(a)段階で用いられる前記要素バイアスレイヤの個数はn−1個であることを特徴とする請求項1に記載の学習方法。
- (i)多数の要素バイアスレイヤ、スケールレイヤ及び多数の要素アクティベーションレイヤを含むアクティベーションモジュールのアクティベーション演算と(ii)コンボリューションレイヤのコンボリューション演算を遂行する学習装置でCNNのパラメータを学習する方法において、
(a)前記学習装置が、入力イメージに対応される入力値が各々の多数の要素バイアスレイヤに各々伝達されるようにし、前記各々の多数の要素バイアスレイヤをもって各々の対応する要素バイアスパラメータ(qi)を前記入力値に適用するようにするプロセスを遂行する段階;
(b)前記学習装置が、前記多数の要素バイアスレイヤのうち特定要素バイアスレイヤに連結された前記スケールレイヤをもって前記特定要素バイアスレイヤの出力値に所定のスケール値を掛けるようにするプロセスを遂行する段階;
(c)前記学習装置が、前記スケールレイヤ及び前記各々の要素バイアスレイヤに連結されたコンカチネーションレイヤをもって前記スケールレイヤの出力値及び前記各々の要素バイアスレイヤの出力値をコンカチネートするようにし、前記コンカチネートされた出力値を獲得するようにするプロセスを遂行する段階;
(d)前記学習装置が、前記コンカチネーションレイヤに連結されたアクティベーションレイヤをもって前記コンカチネートされた出力値に非線形アクティベーション関数を適用するようにするプロセスを遂行する段階;
(e)前記学習装置が、前記コンボリューションレイヤをもって前記コンボリューションレイヤの各々の要素ウェイトパラメータ(pi)及び前記コンボリューションレイヤの各々の要素バイアスパラメータ(d)を利用して、前記アクティベーションレイヤの出力値に前記コンボリューション演算を遂行するようにする段階;及び
(f)前記(e)段階の出力を、前記コンボリューション演算の結果を使用して前記CNNの用途に応じた結果値を獲得するアプリケーションブロックに入力して前記アプリケーションブロックによって前記結果値が出力されると、前記学習装置が、ロスレイヤをもって前記アプリケーションブロックから出力された前記結果値及び前記結果値に対応されるGT(Ground−Truth)値間を参照して計算されたロスを獲得するようにし、バックプロパゲーションプロセスを遂行して、前記各々の要素バイアスレイヤの各々の要素バイアスパラメータ(qi)、前記要素ウェイトパラメータ(pi)及び前記要素バイアスパラメータ(d)のうち少なくとも一部のパラメータを調整する段階;
を含むことを特徴とする方法。 - 前記スケール値は負数であることを特徴とする請求項5に記載の学習方法。
- 前記アクティベーションモジュールはN−way CReLU(N−way Concatenated Rectified Linear Units)を含み、
前記アクティベーションレイヤはReLU(Rectified Linear Units)レイヤであることを特徴とする請求項5に記載の学習方法。 - 前記(a)段階で用いられる前記要素バイアスレイヤの個数はn−1個であることを特徴とする請求項5に記載の学習方法。
- (i)多数の要素バイアスレイヤ、スケールレイヤ及び多数の要素アクティベーションレイヤを含むアクティベーションモジュールのアクティベーション演算と(ii)コンボリューションレイヤのコンボリューション演算を遂行するCNNのパラメータを学習する装置において、
前記入力イメージを受信する通信部;及び
(i)入力イメージに対応される入力値が各々の多数の要素バイアスレイヤに各々伝達されるようにし、前記各々の多数の要素バイアスレイヤをもって各々の対応する要素バイアスパラメータ(qi)を前記入力値に適用するようにするプロセス;(ii)前記多数の要素バイアスレイヤのうち特定要素バイアスレイヤに連結された前記スケールレイヤをもって前記特定要素バイアスレイヤの出力値に所定のスケール値を掛けるようにするプロセス;(iii)前記スケールレイヤに連結された特定要素アクティベーションレイヤをもって前記スケールレイヤの出力値に非線形アクティベーション関数を適用するようにするプロセス;(iv)前記各々の要素バイアスレイヤに連結された残りの要素アクティベーションレイヤをもって前記各々の要素バイアスレイヤの出力値に各々の非線形関数を適用するようにするプロセス;(v)コンカチネーションレイヤをもって前記特定要素アクティベーションレイヤ及び前記残りの要素アクティベーションレイヤの出力値を一つにコンカチネートするようにし、前記コンカチネートされた出力値を獲得するようにするプロセス;及び(vi)前記コンボリューションレイヤをもって前記コンボリューションレイヤ各々の要素ウェイトパラメータ(pi)及び前記コンボリューションレイヤの各々の要素バイアスパラメータ(d)を利用して、前記コンカチネートされた出力値に対する前記コンボリューション演算を遂行するようにするプロセス;及び(vii)前記コンボリューション演算の結果を使用して前記CNNの用途に応じた結果値を獲得するアプリケーションブロックによって前記結果値が出力されると、ロスレイヤをもって前記アプリケーションブロックから出力された前記結果値及び前記結果値に対応されるGT(Ground−Truth)値間を参照して計算されたロスを獲得するようにし、バックプロパゲーションプロセスを遂行して、前記各々の要素バイアスレイヤの各々の要素バイアスパラメータ(qi)、前記要素ウェイトパラメータ(pi)及び前記要素バイアスパラメータ(d)のうち少なくとも一部のパラメータを調整するプロセス;を遂行するプロセッサを含むことを特徴とする学習装置。 - 前記スケール値は負数であることを特徴とする請求項9に記載の学習装置。
- 前記アクティベーションモジュールはN−way CReLU(N−way Concatenated Rectified Linear Units)を含み、
前記要素アクティベーションレイヤはReLU(Rectified Linear Units)レイヤであることを特徴とする請求項9に記載の学習装置。 - 前記プロセッサでn個の要素アクティベーションレイヤを用いる場合、前記要素バイアスレイヤの個数はn−1個であることを特徴とする請求項9に記載の学習装置。
- (i)多数の要素バイアスレイヤ、スケールレイヤ及び多数の要素アクティベーションレイヤを含むアクティベーションモジュールのアクティベーション演算と(ii)コンボリューションレイヤのコンボリューション演算を遂行するCNNのパラメータを学習する装置において、
前記入力イメージを受信する通信部;及び
(i)入力イメージに対応される入力値が各々の多数の要素バイアスレイヤに各々伝達されるようにし、前記各々の多数の要素バイアスレイヤをもって各々の対応する要素バイアスパラメータ(qi)を前記入力値に適用するようにするプロセス;(ii)前記多数の要素バイアスレイヤのうち特定要素バイアスレイヤに連結された前記スケールレイヤをもって前記特定要素バイアスレイヤの出力値に所定のスケール値を掛けるようにするプロセス;(iii)前記スケールレイヤ及び前記各々の要素バイアスレイヤに連結されたコンカチネーションレイヤをもって前記スケールレイヤの出力値及び前記各々の要素バイアスレイヤの出力値をコンカチネートするようにし、前記コンカチネートされた出力値を獲得するようにするプロセス;(iv)前記コンカチネーションレイヤに連結されたアクティベーションレイヤをもって前記コンカチネートされた出力値に非線形アクティベーション関数を適用するようにするプロセス;(v)前記コンボリューションレイヤをもって前記コンボリューションレイヤの各々の要素ウェイトパラメータ(pi)及び前記コンボリューションレイヤの各々の要素バイアスパラメータ(d)を利用して、前記アクティベーションレイヤの出力値に前記コンボリューション演算を遂行するようにするプロセス;及び(vi)前記コンボリューション演算の結果を使用して前記CNNの用途に応じた結果値を獲得するアプリケーションブロックによって前記結果値が出力されると、ロスレイヤをもって前記アプリケーションブロックから出力された前記結果値及び前記結果値に対応されるGT(Ground−Truth)値間を参照して計算されたロスを獲得するようにし、バックプロパゲーションプロセスを遂行して、前記各々の要素バイアスレイヤの各々の要素バイアスパラメータ(qi)、前記要素ウェイトパラメータ(pi)及び前記要素バイアスパラメータ(d)のうち少なくとも一部のパラメータを調整するプロセス;を遂行するプロセッサを含むことを特徴とする学習装置。 - 前記スケール値は負数であることを特徴とする請求項13に記載の学習装置。
- 前記アクティベーションモジュールはN−way CReLU(N−way Concatenated Rectified Linear Units)を含み、
前記要素アクティベーションレイヤはReLU(Rectified Linear Units)レイヤであることを特徴とする請求項13に記載の学習装置。 - 前記プロセッサで用いられる前記要素バイアスレイヤの個数はn−1個であることを特徴とする請求項13に記載の学習装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/783,367 US10049323B1 (en) | 2017-10-13 | 2017-10-13 | Method and device for performing activation and convolution operation at the same time and learning method and learning device for the same |
US15/783,367 | 2017-10-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075115A JP2019075115A (ja) | 2019-05-16 |
JP6676722B2 true JP6676722B2 (ja) | 2020-04-08 |
Family
ID=63078872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193025A Active JP6676722B2 (ja) | 2017-10-13 | 2018-10-12 | アクティベーション演算とコンボリューション演算を同時に遂行するための方法及び装置、そしてこのための学習方法及び学習装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10049323B1 (ja) |
EP (1) | EP3471025A1 (ja) |
JP (1) | JP6676722B2 (ja) |
KR (1) | KR102112997B1 (ja) |
CN (1) | CN109670575B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020093654A1 (en) * | 2018-11-06 | 2020-05-14 | Genesys Logic, Inc. | Multichip system and data processing method adapted to the same for implementing neural network application |
US10803594B2 (en) | 2018-12-31 | 2020-10-13 | Beijing Didi Infinity Technology And Development Co., Ltd. | Method and system of annotation densification for semantic segmentation |
US10467500B1 (en) | 2018-12-31 | 2019-11-05 | Didi Research America, Llc | Method and system for semantic segmentation involving multi-task convolutional neural network |
US11461653B2 (en) * | 2019-01-23 | 2022-10-04 | StradVision, Inc. | Learning method and learning device for CNN using 1xK or Kx1 convolution to be used for hardware optimization, and testing method and testing device using the same |
US10410120B1 (en) * | 2019-01-25 | 2019-09-10 | StradVision, Inc. | Learning method and testing method of object detector to be used for surveillance based on R-CNN capable of converting modes according to aspect ratios or scales of objects, and learning device and testing device using the same |
US10890916B2 (en) * | 2019-01-30 | 2021-01-12 | StradVision, Inc. | Location-specific algorithm selection for optimized autonomous driving |
US11615303B2 (en) * | 2019-02-25 | 2023-03-28 | Samsung Electronics Co., Ltd. | Electronic device for classifying classes, electronic device for providing classification model for classifying classes, and method for operating the same |
KR20210017185A (ko) | 2019-08-07 | 2021-02-17 | 한국전자통신연구원 | 심층 신경망을 기반으로 영상의 압축 포아송 잡음을 제거하는 방법 및 장치 |
CN110689081B (zh) * | 2019-09-30 | 2020-08-21 | 中国科学院大学 | 一种基于分歧学习的弱监督目标分类和定位方法 |
US20210150306A1 (en) * | 2019-11-14 | 2021-05-20 | Qualcomm Incorporated | Phase selective convolution with dynamic weight selection |
US11449758B2 (en) | 2020-03-11 | 2022-09-20 | Qualcomm Incorproated | Quantization and inferencing for low-bitwidth neural networks |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9836839B2 (en) | 2015-05-28 | 2017-12-05 | Tokitae Llc | Image analysis systems and related methods |
CN104992167B (zh) * | 2015-07-28 | 2018-09-11 | 中国科学院自动化研究所 | 一种基于卷积神经网络的人脸检测方法及装置 |
CN108140141B (zh) | 2015-08-15 | 2019-09-06 | 易享信息技术有限公司 | 在深度神经网络中对表征输入放射体的三维3d数据进行分类的计算机实现的方法及系统 |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US10002313B2 (en) * | 2015-12-15 | 2018-06-19 | Sighthound, Inc. | Deeply learned convolutional neural networks (CNNS) for object localization and classification |
JP6658033B2 (ja) | 2016-02-05 | 2020-03-04 | 富士通株式会社 | 演算処理回路、および情報処理装置 |
US20170337682A1 (en) * | 2016-05-18 | 2017-11-23 | Siemens Healthcare Gmbh | Method and System for Image Registration Using an Intelligent Artificial Agent |
CN106204468B (zh) * | 2016-06-27 | 2019-04-26 | 深圳市未来媒体技术研究院 | 一种基于ReLU卷积神经网络的图像去噪方法 |
IL281321B (en) | 2016-10-04 | 2022-07-01 | Magic Leap Inc | Efficient data layouts for convolutional neural networks |
KR102631381B1 (ko) | 2016-11-07 | 2024-01-31 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
KR20180073118A (ko) * | 2016-12-22 | 2018-07-02 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
CN107229942B (zh) * | 2017-04-16 | 2021-03-30 | 北京工业大学 | 一种基于多个分类器的卷积神经网络分类方法 |
-
2017
- 2017-10-13 US US15/783,367 patent/US10049323B1/en active Active
-
2018
- 2018-09-05 EP EP18192802.9A patent/EP3471025A1/en not_active Withdrawn
- 2018-10-10 KR KR1020180120357A patent/KR102112997B1/ko active IP Right Grant
- 2018-10-12 JP JP2018193025A patent/JP6676722B2/ja active Active
- 2018-10-15 CN CN201811197180.1A patent/CN109670575B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR102112997B1 (ko) | 2020-06-02 |
US10049323B1 (en) | 2018-08-14 |
EP3471025A1 (en) | 2019-04-17 |
CN109670575A (zh) | 2019-04-23 |
JP2019075115A (ja) | 2019-05-16 |
CN109670575B (zh) | 2023-07-21 |
KR20190041922A (ko) | 2019-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6676722B2 (ja) | アクティベーション演算とコンボリューション演算を同時に遂行するための方法及び装置、そしてこのための学習方法及び学習装置 | |
JP6676721B2 (ja) | アクティベーション演算とコンボリューション演算を同時に遂行するための方法及び装置、そしてこのための学習方法及び学習装置 | |
KR102192850B1 (ko) | Fun을 사용하여 특징 맵을 생성하기 위한 방법 및 장치 | |
KR102229342B1 (ko) | Fun을 사용하여 cnn의 성능을 향상시키기 위한 학습 방법 및 학습 장치, 그리고 이를 이용한, 테스트 방법 및 테스트 장치 | |
US11462035B2 (en) | Processing images using deep neural networks | |
JP6682595B2 (ja) | イメージセグメンテーションのための学習方法及び学習装置、そしてこれを利用したイメージセグメンテーション方法及びイメージセグメンテーション装置 | |
US11462034B2 (en) | Generating images using neural networks | |
US10282864B1 (en) | Method and device for encoding image and testing method and testing device using the same | |
US10311337B1 (en) | Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network | |
CN105631519A (zh) | 一种基于预决策的卷积神经网络加速方法及系统 | |
JP2020119518A (ja) | ハードウェア最適化を通じてモバイル装置または高精度の小型ネットワークに使用されるcnnパラメータ量子化を最適化するためにcnnレイヤを変換する方法及び装置 | |
JP7252120B2 (ja) | 核心性能指数を満たすことができるハードウェア最適化が行われるように、cnnで複数のブロック内の入力イメージから特徴を抽出する学習方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
US20220067888A1 (en) | Image processing method and apparatus, storage medium, and electronic device | |
KR20190098402A (ko) | 심층 신경망 시스템 | |
CN118094296A (zh) | 情感识别方法、装置、设备、介质及程序产品 | |
CN117273098A (zh) | 自注意力运算方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6676722 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |