JP2018018350A - 画像認識装置、画像認識プログラム、画像認識方法および認識装置 - Google Patents
画像認識装置、画像認識プログラム、画像認識方法および認識装置 Download PDFInfo
- Publication number
- JP2018018350A JP2018018350A JP2016148965A JP2016148965A JP2018018350A JP 2018018350 A JP2018018350 A JP 2018018350A JP 2016148965 A JP2016148965 A JP 2016148965A JP 2016148965 A JP2016148965 A JP 2016148965A JP 2018018350 A JP2018018350 A JP 2018018350A
- Authority
- JP
- Japan
- Prior art keywords
- layers
- memory area
- layer
- memory
- held
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】第1の全結合層(Fully-conn1)、第2の全結合層(Fully-conn2)は、認識処理でのニューロンデータサイズ(data)がパラメータサイズ(param)以下である。学習制御部は、ニューロンデータの誤差の勾配(gdata)をメモリに保存する。学習制御部は、パラメータの誤差の勾配(gparam)を計算して、認識処理のパラメータを保持するメモリ領域(param)にそれぞれ上書して保存する。
【選択図】図7
Description
最初、従来のディープラーニングについて説明する。図1は、ディープラーニングの処理の流れの一例を模式的に示した図である。ディープラーニングでは、識別対象が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った識別対象の特徴をニューラルネットワークに自動的に学習する。ディープラーニングでは、このように特徴を学習したニューラルネットワークを用いることで画像の写った識別対象を識別できる。脳には、多数のニューロン(神経細胞)が存在する。各ニューロンは、他のニューロンから信号を受け取り、他のニューロンへ信号を受け渡す。脳は、この信号の流れによって、様々な情報処理を行う。ニューラルネットワークは、このような脳の機能の特性を計算機上で実現したモデルである。ニューラルネットワークは、脳のニューロンを模したユニットを階層的に結合している。ユニットは、ノードとも呼ばれる。各ユニットは、他のユニットからデータを受け取り、他のユニットへデータを受け渡す。ニューラルネットワークは、ユニットのパラメータを学習によって変化させて受け渡すデータを変化させることで様々な識別対象を識別(認識)できる。以下では、ニューラルネットワークを伝送されるデータをニューロンデータと呼ぶ。図1には、ニューラルネットワークの一例として、画像の認識に用いられる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の一例が示されている。以下では、ニューラルネットワークとして、畳み込みニューラルネットワークにより画像の認識を行う場合を例に説明する。ニューラルネットワークは、階層構造とされており、畳み込み(convolution)層とプーリング(サブサンプリング)層と全結合(fully-connected)層とを有する。図1の例では、畳み込み層とプーリング層を交互に2回設けているが、さらに多く設けてもよい。また、全結合層は、複数設けられていてもよい。ニューラルネットワークの階層構造や各層の構成は、識別する対象などに応じて、設計者が予め定めている。
実施例1に係る認識装置10の構成について説明する。図6は、認識装置の機能的な構成を概略的に示した図である。認識装置10は、ディープラーニングを用いて各種の対象の認識を行う装置である。例えば、認識装置10は、サーバコンピュータなどのコンピュータである。認識装置10は、1台のコンピュータとして実装してもよく、また、複数台のコンピュータにより実装してもよい。なお、本実施例では、認識装置10を1台のコンピュータとした場合を例として説明する。本実施例では、認識装置10が、画像の認識を行う場合を例に説明する。
次に、本実施例に係る認識装置10が実行する画像認識処理の流れについて説明する。図10A、図10Bは、画像認識処理の手順の一例を示すフローチャートである。この画像認識処理は、所定のタイミング、例えば、管理者から処理開始が指示されたタイミングで実行される。
上述してきたように、本実施例に係る認識装置10は、学習処理において、ニューロンデータとパラメータがメモリ領域に保持される層については、ニューロンデータとパラメータのうち、使用メモリ量の小さい方の誤差の勾配を算出してメモリ領域に保持する。そして、係る認識装置10は、使用メモリ量の大きい方の誤差の勾配を算出して認識処理のデータを保持したメモリ領域に上書きする。これにより、認識装置10は、学習時における使用メモリ量を削減することができる。
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、運行を支援する画像認識プログラムを実行するコンピュータシステムの一例を説明する。図15は、画像認識プログラムを実行するコンピュータの構成の一例を示す図である。
20 記憶部
21 マザーボード
22 アクセラレータボード
30 メモリ
31 演算部
40 入力データ
41 定義情報
42 パラメータ情報
43 スナップショット情報
50 全体制御部
51 メモリ量計算部
60 メモリ
61 演算部
70 認識制御部
71 学習制御部
Claims (7)
- 入力した画像のニューロンデータとパラメータとに基づいてそれぞれ算出した畳み込み量を各第1のメモリ領域にそれぞれ保持する処理と、前記各第1のメモリ領域に保持した前記畳み込み量に対して間引き処理をそれぞれ行った間引き後の畳み込み量を各第2のメモリ領域にそれぞれ保持する処理とを第1の複数層において行う第1の認識処理と、前記第2のメモリ領域に保持した前記間引き後の畳み込み量の全てに対して第3のメモリ領域に保持した重みをそれぞれ積算した出力結果を各第4のメモリ領域にそれぞれ保持する処理を第2の複数層において行う第2の認識処理とを制御する認識制御部と、
前記第1の複数層と前記第2の複数層とに含まれる各層について、各ニューロンデータのサイズであるニューロンデータサイズと、各パラメータのサイズであるパラメータサイズとをそれぞれ計算するメモリ量計算部と、
前記第4のメモリ領域に保持した前記出力結果に基づき計算した前記出力結果の誤差の勾配を第5のメモリ領域に保持するとともに、前記メモリ量計算部が計算した前記第2の複数層に含まれる各層のニューロンデータサイズとパラメータサイズと大小関係に基づき、前記第5のメモリ領域に保持した前記出力結果の誤差の勾配又は前記第2の複数層における前層の第6のメモリ領域に保持した誤差の勾配に基づいて計算した前記第2の複数層における次層への誤差の勾配を各第6のメモリ領域に保持した後、前記第2の複数層における次層へのパラメータの誤差の勾配を前記各第3のメモリ領域にそれぞれ保持する前記第2の複数層における第1の学習処理と、前記メモリ量計算部が計算した前記第1の複数層に含まれる各層のニューロンデータサイズとパラメータサイズとの大小関係に基づき、前記第2の複数層の最終層の第6のメモリ領域又は前記第1の複数層における前層の第7のメモリ領域に保持した誤差の勾配に基づいて計算した次層へのパラメータの誤差の勾配を各第7のメモリ領域に保持した後、前記第1の複数層における次層への誤差の勾配を前記各第2のメモリ領域にそれぞれ保持する前記第1の複数層間における第2の学習処理とを制御する学習制御部と、
を有することを特徴とする画像認識装置。 - 前記学習制御部は、ニューロンデータサイズがパラメータサイズよりも大きい場合、前記第2の学習処理を実行し、ニューロンデータサイズがパラメータサイズ以下の場合、前記第1の学習処理を実行する制御を行う
ことを特徴とする請求項1に記載の画像認識装置。 - 前記認識制御部は、第4のメモリ領域に保持した前記出力結果を正規化し、正規化した出力結果を第8のメモリ領域に保持する処理を制御し、
前記学習制御部は、前記第8のメモリ領域に保持した前記正規化した出力結果に基づき計算した前記出力結果の誤差の勾配を、前記第5のメモリ領域に代えて前記第8のメモリ領域に上書きして保持するとともに、前記メモリ量計算部が計算した前記第2の複数層に含まれる各層のニューロンデータサイズとパラメータサイズと大小関係に基づき、前記第8のメモリ領域に保持した前記正規化した出力結果の誤差の勾配又は前記第2の複数層における前層の第6のメモリ領域に保持した誤差の勾配に基づいて計算した前記第2の複数層における次層への誤差の勾配を各第6のメモリ領域に保持した後、前記第2の複数層における次層へのパラメータの誤差の勾配を前記各第3のメモリ領域にそれぞれ保持するよう前記第2の複数層における第1の学習処理を制御する
ことを特徴とする請求項1または2に記載の画像認識装置。 - 前記学習制御部は、前記間引き処理を行った層については、次層への誤差の勾配を前記第2のメモリ領域に上書きして保持する
ことを特徴とする請求項1〜3の何れか1つに記載の画像認識装置。 - 入力した画像のニューロンデータとパラメータとに基づいてそれぞれ算出した畳み込み量を各第1のメモリ領域にそれぞれ保持する処理と、前記各第1のメモリ領域に保持した前記畳み込み量に対して間引き処理をそれぞれ行った間引き後の畳み込み量を各第2のメモリ領域にそれぞれ保持する処理とを第1の複数層において行う第1の認識処理と、前記第2のメモリ領域に保持した前記間引き後の畳み込み量の全てに対して第3のメモリ領域に保持した重みをそれぞれ積算した出力結果を各第4のメモリ領域にそれぞれ保持する処理を第2の複数層において行う第2の認識処理とを制御し、
前記第1の複数層と前記第2の複数層とに含まれる各層について、各ニューロンデータのサイズであるニューロンデータサイズと、各パラメータのサイズであるパラメータサイズとをそれぞれ計算し、
前記第4のメモリ領域に保持した前記出力結果に基づき計算した前記出力結果の誤差の勾配を第5のメモリ領域に保持するとともに、計算した前記第2の複数層に含まれる各層のニューロンデータサイズとパラメータサイズと大小関係に基づき、前記第5のメモリ領域に保持した前記出力結果の誤差の勾配又は前記第2の複数層における前層の第6のメモリ領域に保持した誤差の勾配に基づいて計算した前記第2の複数層における次層への誤差の勾配を各第6のメモリ領域に保持した後、前記第2の複数層における次層へのパラメータの誤差の勾配を前記各第3のメモリ領域にそれぞれ保持する前記第2の複数層における第1の学習処理と、計算した前記第1の複数層に含まれる各層のニューロンデータサイズとパラメータサイズとの大小関係に基づき、前記第2の複数層の最終層の第6のメモリ領域又は前記第1の複数層における前層の第7のメモリ領域に保持した誤差の勾配に基づいて計算した次層へのパラメータの誤差の勾配を各第7のメモリ領域に保持した後、前記第1の複数層における次層への誤差の勾配を前記各第2のメモリ領域にそれぞれ保持する前記第1の複数層間における第2の学習処理とを制御する、
処理をコンピュータに実行させることを特徴とする画像認識プログラム。 - 入力した画像のニューロンデータとパラメータとに基づいてそれぞれ算出した畳み込み量を各第1のメモリ領域にそれぞれ保持する処理と、前記各第1のメモリ領域に保持した前記畳み込み量に対して間引き処理をそれぞれ行った間引き後の畳み込み量を各第2のメモリ領域にそれぞれ保持する処理とを第1の複数層において行う第1の認識処理と、前記第2のメモリ領域に保持した前記間引き後の畳み込み量の全てに対して第3のメモリ領域に保持した重みをそれぞれ積算した出力結果を各第4のメモリ領域にそれぞれ保持する処理を第2の複数層において行う第2の認識処理とを制御し、
前記第1の複数層と前記第2の複数層とに含まれる各層について、各ニューロンデータのサイズであるニューロンデータサイズと、各パラメータのサイズであるパラメータサイズとをそれぞれ計算し、
前記第4のメモリ領域に保持した前記出力結果に基づき計算した前記出力結果の誤差の勾配を第5のメモリ領域に保持するとともに、計算した前記第2の複数層に含まれる各層のニューロンデータサイズとパラメータサイズと大小関係に基づき、前記第5のメモリ領域に保持した前記出力結果の誤差の勾配又は前記第2の複数層における前層の第6のメモリ領域に保持した誤差の勾配に基づいて計算した前記第2の複数層における次層への誤差の勾配を各第6のメモリ領域に保持した後、前記第2の複数層における次層へのパラメータの誤差の勾配を前記各第3のメモリ領域にそれぞれ保持する前記第2の複数層における第1の学習処理と、計算した前記第1の複数層に含まれる各層のニューロンデータサイズとパラメータサイズとの大小関係に基づき、前記第2の複数層の最終層の第6のメモリ領域又は前記第1の複数層における前層の第7のメモリ領域に保持した誤差の勾配に基づいて計算した次層へのパラメータの誤差の勾配を各第7のメモリ領域に保持した後、前記第1の複数層における次層への誤差の勾配を前記各第2のメモリ領域にそれぞれ保持する前記第1の複数層間における第2の学習処理とを制御する、
処理をコンピュータが実行することを特徴とする画像認識方法。 - 入力したニューロンデータに対して、パラメータによる重み付け演算を含む階層型のニューラルネットワークの演算を行い、当該ニューラルネットワークの各層のニューロンデータとパラメータをそれぞれメモリ領域に保持する認識処理を制御する認識制御部と、
前記ニューラルネットワークの各層のニューロンデータの使用メモリ量とパラメータの使用メモリ量をそれぞれ計算するメモリ量計算部と、
前記認識制御部による認識結果の誤差から前記ニューラルネットワークの各層の誤差の勾配を算出してパラメータを学習する学習処理において、ニューロンデータとパラメータがメモリ領域に保持される層については、ニューロンデータとパラメータのうち、使用メモリ量の小さい方の誤差の勾配を算出してメモリ領域に保持したのち、使用メモリ量の大きい方の誤差の勾配を算出して認識処理のデータを保持したメモリ領域に上書きする制御を行う学習制御部と、
を有することを特徴とする認識装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016148965A JP6708044B2 (ja) | 2016-07-28 | 2016-07-28 | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 |
US15/628,105 US10296804B2 (en) | 2016-07-28 | 2017-06-20 | Image recognizing apparatus, computer-readable recording medium, image recognizing method, and recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016148965A JP6708044B2 (ja) | 2016-07-28 | 2016-07-28 | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018018350A true JP2018018350A (ja) | 2018-02-01 |
JP6708044B2 JP6708044B2 (ja) | 2020-06-10 |
Family
ID=61009778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016148965A Active JP6708044B2 (ja) | 2016-07-28 | 2016-07-28 | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10296804B2 (ja) |
JP (1) | JP6708044B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6559382B1 (ja) * | 2018-12-21 | 2019-08-14 | 三菱電機株式会社 | 音源方向推定装置、音源方向推定方法、及び音源方向推定プログラム |
JP2020052975A (ja) * | 2018-09-28 | 2020-04-02 | 光吉 俊二 | 演算処理システムおよび補助装置 |
JP2020119151A (ja) * | 2019-01-22 | 2020-08-06 | 株式会社東芝 | 学習装置、学習方法およびプログラム |
US10754920B2 (en) | 2018-03-19 | 2020-08-25 | Kabushiki Kaisha Toshiba | Arithmetic processing device |
US10936912B2 (en) | 2018-11-01 | 2021-03-02 | International Business Machines Corporation | Image classification using a mask image and neural networks |
WO2021100818A1 (ja) * | 2019-11-19 | 2021-05-27 | 学校法人関西学院 | 水増しを用いた学習方法及び学習装置 |
JP2021533493A (ja) * | 2019-04-03 | 2021-12-02 | 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. | 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180027887A (ko) * | 2016-09-07 | 2018-03-15 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법 |
US10366302B2 (en) * | 2016-10-10 | 2019-07-30 | Gyrfalcon Technology Inc. | Hierarchical category classification scheme using multiple sets of fully-connected networks with a CNN based integrated circuit as feature extractor |
US11102225B2 (en) | 2017-04-17 | 2021-08-24 | Splunk Inc. | Detecting fraud by correlating user behavior biometrics with other data sources |
US11372956B2 (en) * | 2017-04-17 | 2022-06-28 | Splunk Inc. | Multiple input neural networks for detecting fraud |
US11315010B2 (en) | 2017-04-17 | 2022-04-26 | Splunk Inc. | Neural networks for detecting fraud based on user behavior biometrics |
US11461579B2 (en) | 2018-02-08 | 2022-10-04 | Western Digital Technologies, Inc. | Configurable neural network engine for convolutional filter sizes |
US11741346B2 (en) | 2018-02-08 | 2023-08-29 | Western Digital Technologies, Inc. | Systolic neural network engine with crossover connection optimization |
US11620528B2 (en) * | 2018-06-12 | 2023-04-04 | Ciena Corporation | Pattern detection in time-series data |
JPWO2020031948A1 (ja) * | 2018-08-06 | 2021-08-10 | 国立大学法人 東京大学 | レーザ加工システムに用いられる機械学習方法、シミュレーション装置、レーザ加工システム並びにプログラム |
US11783176B2 (en) | 2019-03-25 | 2023-10-10 | Western Digital Technologies, Inc. | Enhanced storage device memory architecture for machine learning |
US11861452B1 (en) * | 2019-06-17 | 2024-01-02 | Cadence Design Systems, Inc. | Quantized softmax layer for neural networks |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008310524A (ja) * | 2007-06-13 | 2008-12-25 | Canon Inc | 演算処理装置及びその制御方法 |
US20150347820A1 (en) * | 2014-05-27 | 2015-12-03 | Beijing Kuangshi Technology Co., Ltd. | Learning Deep Face Representation |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6236296B2 (ja) * | 2013-11-14 | 2017-11-22 | 株式会社デンソーアイティーラボラトリ | 学習装置、学習プログラム、及び学習方法 |
GB2532075A (en) * | 2014-11-10 | 2016-05-11 | Lego As | System and method for toy recognition and detection based on convolutional neural networks |
CN107251059A (zh) * | 2015-03-24 | 2017-10-13 | 赫尔实验室有限公司 | 用于深度学习的稀疏推理模块 |
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
US9805305B2 (en) * | 2015-08-07 | 2017-10-31 | Yahoo Holdings, Inc. | Boosted deep convolutional neural networks (CNNs) |
US10474627B2 (en) * | 2015-10-08 | 2019-11-12 | Via Alliance Semiconductor Co., Ltd. | Neural network unit with neural memory and array of neural processing units that collectively shift row of data received from neural memory |
US10497089B2 (en) * | 2016-01-29 | 2019-12-03 | Fotonation Limited | Convolutional neural network |
AU2016203619A1 (en) * | 2016-05-31 | 2017-12-14 | Canon Kabushiki Kaisha | Layer-based operations scheduling to optimise memory for CNN applications |
US10303977B2 (en) * | 2016-06-28 | 2019-05-28 | Conduent Business Services, Llc | System and method for expanding and training convolutional neural networks for large size input images |
US10089577B2 (en) * | 2016-08-05 | 2018-10-02 | Xilinx, Inc. | Binary neural networks on progammable integrated circuits |
-
2016
- 2016-07-28 JP JP2016148965A patent/JP6708044B2/ja active Active
-
2017
- 2017-06-20 US US15/628,105 patent/US10296804B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008310524A (ja) * | 2007-06-13 | 2008-12-25 | Canon Inc | 演算処理装置及びその制御方法 |
US20150347820A1 (en) * | 2014-05-27 | 2015-12-03 | Beijing Kuangshi Technology Co., Ltd. | Learning Deep Face Representation |
Non-Patent Citations (2)
Title |
---|
KOICHI SHIRAHATA ET AL.: "MEMORY REDUCATION METHOD FOR DEEP NEURAL NETWORK TRAINING", 2016 IEEE 26TH INERNATIONAL WORKSHOP ON MACHINE LEARNING FOR SIGNAL PROCESSING (MLSP), JPN6020014303, 13 September 2016 (2016-09-13), US, ISSN: 0004254685 * |
MU LI ET AL.: "Scaling Distributed Machine Learning with the Parameter Server", PROCEEDINGS OF THE 11TH USENIX SYMPOSIUM ON OPERATING SYSTEMS DESIGN AND IMPLEMENTATION, JPN6019015633, 8 October 2014 (2014-10-08), US, pages 583 - 598, XP061024674, ISSN: 0004254684, DOI: 10.1145/2640087.2644155 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10754920B2 (en) | 2018-03-19 | 2020-08-25 | Kabushiki Kaisha Toshiba | Arithmetic processing device |
JP2020052975A (ja) * | 2018-09-28 | 2020-04-02 | 光吉 俊二 | 演算処理システムおよび補助装置 |
JP7087252B2 (ja) | 2018-09-28 | 2022-06-21 | 俊二 光吉 | 演算処理システムおよび補助装置 |
US11586851B2 (en) | 2018-11-01 | 2023-02-21 | International Business Machines Corporation | Image classification using a mask image and neural networks |
US10936912B2 (en) | 2018-11-01 | 2021-03-02 | International Business Machines Corporation | Image classification using a mask image and neural networks |
JP6559382B1 (ja) * | 2018-12-21 | 2019-08-14 | 三菱電機株式会社 | 音源方向推定装置、音源方向推定方法、及び音源方向推定プログラム |
WO2020129231A1 (ja) * | 2018-12-21 | 2020-06-25 | 三菱電機株式会社 | 音源方向推定装置、音源方向推定方法、及び音源方向推定プログラム |
JP7021132B2 (ja) | 2019-01-22 | 2022-02-16 | 株式会社東芝 | 学習装置、学習方法およびプログラム |
JP2020119151A (ja) * | 2019-01-22 | 2020-08-06 | 株式会社東芝 | 学習装置、学習方法およびプログラム |
JP2021533493A (ja) * | 2019-04-03 | 2021-12-02 | 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. | 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体 |
JP7141518B2 (ja) | 2019-04-03 | 2022-09-22 | 平安科技(深▲せん▼)有限公司 | 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体 |
US11893773B2 (en) | 2019-04-03 | 2024-02-06 | Ping An Technology (Shenzhen) Co., Ltd. | Finger vein comparison method, computer equipment, and storage medium |
JPWO2021100818A1 (ja) * | 2019-11-19 | 2021-05-27 | ||
WO2021100818A1 (ja) * | 2019-11-19 | 2021-05-27 | 学校法人関西学院 | 水増しを用いた学習方法及び学習装置 |
JP7160416B2 (ja) | 2019-11-19 | 2022-10-25 | 学校法人関西学院 | 水増しを用いた学習方法及び学習装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6708044B2 (ja) | 2020-06-10 |
US10296804B2 (en) | 2019-05-21 |
US20180032835A1 (en) | 2018-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6708044B2 (ja) | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 | |
JP6852365B2 (ja) | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 | |
Yeom et al. | Pruning by explaining: A novel criterion for deep neural network pruning | |
Rere et al. | Simulated annealing algorithm for deep learning | |
US20230102087A1 (en) | Method and apparatus with neural network | |
Yu et al. | Mixed pooling for convolutional neural networks | |
JP6891626B2 (ja) | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 | |
CN109754078A (zh) | 用于优化神经网络的方法 | |
US11443514B2 (en) | Recognizing minutes-long activities in videos | |
US20150317557A1 (en) | Temporal spike encoding for temporal learning | |
Gaspar et al. | An optimized Kernel Extreme Learning Machine for the classification of the autism spectrum disorder by using gaze tracking images | |
Lawrence et al. | Comparing TensorFlow deep learning performance using CPUs, GPUs, local PCs and cloud | |
CN110766127A (zh) | 神经网络计算专用电路及其相关计算平台与实现方法 | |
Zheng et al. | Hardware-friendly actor-critic reinforcement learning through modulation of spike-timing-dependent plasticity | |
Gavrilov et al. | Convolutional neural networks: Estimating relations in the ising model on overfitting | |
Haque et al. | Image-based identification of maydis leaf blight disease of maize (Zea mays) using deep learning | |
Gao et al. | Deep learning for sequence pattern recognition | |
San Kong et al. | A systematic evaluation of domain adaptation in facial expression recognition | |
Deshpande et al. | Detection of plant leaf disease by generative adversarial and deep convolutional neural network | |
Kajkamhaeng et al. | SE-SqueezeNet: SqueezeNet extension with squeeze-and-excitation block | |
Kulkarni et al. | Learning and real-time classification of hand-written digits with spiking neural networks | |
CN113490955A (zh) | 用于产生金字塔层的架构的系统和方法 | |
JP7211069B2 (ja) | 情報処理装置、情報処理プログラムおよび情報処理方法 | |
Palit et al. | Biomedical image segmentation using fully convolutional networks on TrueNorth | |
CN116992937A (zh) | 神经网络模型的修复方法和相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200504 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6708044 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |