JP2017211799A - 情報処理装置および情報処理方法 - Google Patents
情報処理装置および情報処理方法 Download PDFInfo
- Publication number
- JP2017211799A JP2017211799A JP2016104025A JP2016104025A JP2017211799A JP 2017211799 A JP2017211799 A JP 2017211799A JP 2016104025 A JP2016104025 A JP 2016104025A JP 2016104025 A JP2016104025 A JP 2016104025A JP 2017211799 A JP2017211799 A JP 2017211799A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- layer
- shared
- recognition
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 30
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000013528 artificial neural network Methods 0.000 claims abstract description 60
- 238000011156 evaluation Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims description 76
- 230000008569 process Effects 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 45
- 238000011176 pooling Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 13
- 238000013144 data compression Methods 0.000 description 12
- 230000001186 cumulative effect Effects 0.000 description 9
- 230000015556 catabolic process Effects 0.000 description 8
- 238000006731 degradation reaction Methods 0.000 description 8
- 230000006866 deterioration Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
【課題】複数のタスクを実行する複数の多層NNにおいて好適なNN構造を効率的に探索できる情報処理装置を提供すること。
【解決手段】情報処理装置は、複数のタスクを実行する複数の多層ニューラルネットワークを学習する学習手段と、前記複数の多層ニューラルネットワーク間で所定の階層の共用層候補を生成する生成手段と、前記共用層候補を用いた構造で、前記複数の多層ニューラルネットワークを再学習する第1の再学習手段と、前記再学習の評価に基づいて、前記複数のタスクのそれぞれについて、前記共用層候補を前記所定の階層で共用するかを判定する判定手段と、を有する。
【選択図】図1
Description
DCNNの学習フェーズにおいては、畳みこみフィルタの値や全結合層の結合重み(両者をあわせて「学習パラメータ」と称する。)を誤差逆伝搬法(バックプロパゲーション:BP)などの方法を用いて教師付きデータから学習する。BPはBack Propagationの略である。
DCNNの認識フェーズにおいては、学習済DCNNにデータを入力し、各層において学習済みの学習パラメータによってデータを順次処理し、出力層から認識結果を得る。
非特許文献1のマルチタスク学習で扱う複数の認識タスクは、認識処理の内容にある程度の類似性があることを前提としている。類似した認識タスクを1つの学習器で学習することにより、それぞれの認識タスクのデータに含まれる共通的な知識を認識タスク間で相互に利用しあって学習し、認識性能が向上する場合があるとされている。共通性が薄い認識タスクの場合は、1つの学習器で同時に学習すると、個々に学習するよりも認識の性能が悪くなってしまう可能性もある。性能が悪くなるかどうかは、実際に学習・評価を行うまで分からない。
また、マルチタスク学習では、学習パラメータの数が膨大であるため、認識処理実行時(認識フェーズ)には大量の学習パラメータを保持するための大量のメモリが必要である。
さらに、学習パラメータを用いて多数回の畳みこみ計算処理をするために、認識フェーズの処理時間が長くなる。
本発明は、上記した課題を解決すべく、複数のタスクを実行する複数の多層NNにおいて好適なNN構造を効率的に探索できる学習装置(情報処理装置)を提供することを目的とする。
(実施形態の概略)
背景技術で説明したように、DCNNは、最適(好適)なネットワーク構造を網羅的に探索することが難しい、大量の学習パラメータを保持するための大量のメモリが必要である、認識フェーズの処理時間が長くなるという課題を有する。このような課題を緩和または解消するためには、認識タスク実行時に必要な学習パラメータ数を少なくすることが考えられる。
(学習装置の構成)
図1は実施形態1の学習装置10の構成を説明するためのブロック図である。学習装置10は、CPU11と、入力装置12と、出力装置13と、第1のメモリ14と、第2のメモリ15とを有する。CPU11、入力装置12、出力装置13、第1のメモリ14および第2のメモリ15は、計算機バス16により相互接続されている。
CPU11は、入力装置12、出力装置13、第1のメモリ14および第2のメモリ15の動作を制御する。たとえば、CPU11は、第2のメモリ15に格納されているデータを用いて、第1のメモリ14の機能(第1のメモリ14に記憶されているプログラム)を実行することにより、所定の処理を行う。
第1のメモリ14は、学習部20、精度評価部21、共用層候補生成部22、再学習部23、共用層候補採否判定部24、マルチタスク多層NN再学習部25、性能評価結果出力部26、NN構造出力部27および共用構造決定部28を有する。図1において、第1のメモリ14の各部は、機能ブロックで表わされている。
精度評価部21は、各認識タスクに対する精度評価を行う。具体的には、精度評価部21は、認識タスクの種別ごとに定義された精度を算出する。たとえば、認識タスクがシーン種別認識タスクであれば、精度評価部21は正解率(精度)などを算出する。また、認識タスクが顔の位置検出タスクであれば、精度評価部21は推定位置誤差の画像座標上のユークリッド距離などを算出する。本実施形態では、説明を簡単にするため、各認識タスクの精度の算出方法は、精度の値が大きいほど認識性能が良くなるように定義するものとする。
再学習部23は、学習部20と同じ学習機能を有するが、学習の設定が異なる。再学習部23は、候補マルチタスクDCNN37のうち、層共用タスクリスト35(後述)に記録されている認識タスクについて学習する。候補マルチタスクDCNN37とは、層共用タスクリスト35に記録されている認識タスクのi層目を共用層候補36で共用するような構造をもつマルチタスクDCNN構造のことである。
マルチタスク多層NN再学習部25は、最終的に決定されたマルチタスク多層NN(学習済DCNN33の全体)を再学習する。
性能評価結果出力部26は、精度評価部21を用いて算出された各認識タスクの精度評価値を出力装置13に表示する。
NN構造出力部27は、DCNNの構造(たとえば、図10の共用構造図)を出力装置13に表示する。
共用構造決定部28は、共用層候補の採否判定結果に基づいて、マルチタスクDCNN構造を決定する。
複数の認識タスクを同時に学習するマルチタスク学習を行う場合は、マルチタスク(複数の認識タスク)に含まれるすべての認識タスクのGTがすべて対応している学習データだけを使ってもよい。あるいは、1つ以上の認識タスクのGTが対応している学習データを使ってもよい。後者の場合で学習する際には、たとえば、学習に使用するデータにGTが対応付けられている出力ユニットのみから誤差を算出してバックプロパゲーションして学習する。
学習済DCNN33は、たとえばバックプロパゲーションにより学習したDCNNである。初期精度34は、学習した初期構造のDCNNにおける各認識タスクの精度である。層共用タスクリスト35には、i層目で層を共用する可能性がある認識タスクのIDのリストが記載(記録)される。共用層候補36は、共用層候補生成部22により生成されたi層の共用層候補である。
第1のメモリ14内に示されている各部(各機能ブロック)は、プログラムとして第1のメモリ14に記憶され、CPU11により実行される。
図1に示す機能ブロックの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、たとえば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。さらに、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
また、第1のメモリ14と第2のメモリ15は、それぞれプログラムを格納するメモリとデータを格納するメモリとを区別しているだけであり、1つのメモリとしてもよい。
本実施形態の学習装置10は、初期構造を有するマルチタスクDCNNから、最終的に、複数の認識タスクに対して好適(または最適)であるような1つのマルチタスクDCNN構造を決定する。まずマルチタスクDCNNの初期構造について、図2を用いて説明する。
図2は、複数の認識タスクを個別に学習するように構成されたDCNN構造を説明する図である。このDCNN構造で処理する認識タスクの数をNとする。図2ではN=4である。
図2のDCNN構造(初期構造)では、各認識タスクのNN(ニューラルネットワーク)はすべての層において独自の層(学習パラメータ)をもっており、共用される中間層はない。図2のDCNN構造で学習するということは、各認識タスクを独立した個別のDCNNで学習することと事実上同じである。
本処理を適用する状況としては、独立に学習された複数のDCNNが既に存在しており、それらから1つの好適なマルチタスクDCNN構造を生成する場合もある。
後述する本実施形態の全体の処理の流れ(図3)によって、図2で示した事実上独立している複数のDCNN初期構造を、1つの好適なマルチタスクDCNN構造に最適化(好適化)していく。このマルチタスクDCNN構造は、複数の認識タスクを実行可能であり、中間層の一部が認識タスク間で共用されているDCNN構造である。
本実施形態では、学習するDCNNの畳みこみ層の数をMと表記する。図2ではM=4である。Mの数は認識タスクごとに異なってもよいが、本実施形態では説明を簡単にするため、N種類すべての認識タスクに対して同じM層のDCNNを学習するとして説明する。
また、M個の畳みこみ層の後には、全結合のNNによる層が数層つづくものとする。全結合は、図2ではFCと記してある(FC:Full Connect)。全結合層は複数層あってもよい。図2では、何層であってもまとめて1つのブロックで示してある。
なお、各認識タスクの各層での畳みこみフィルタの数は事前に設定されているものとする。畳みこみフィルタの数は、認識タスク種別ごとに異なっていてもよい。以下の説明において、各認識タスクの各層の畳みこみフィルタの数をNCLTLで表す。添え字TとLは前述のとおりである。
以下、図3を参照して本実施形態の学習装置10の処理の流れを説明する。
はじめに、S1において、学習部20を用いて図2に示した初期構造のDCNNを学習し、学習されたDCNNを、学習済DCNN33として第2のメモリ15に格納する。
前述のように、図2は学習フェーズ(学習時)のDCNNを示している。図2における入力画像301と各認識タスクのGT303として、第2のメモリ15に格納されている学習データ30を用いる。入力画像301は学習画像であり、GTTはT番タスクに対するGTデータである。なお、上記したように、必ずしもすべての学習画像にすべての認識タスクのGTが対応付けられている必要はない。
S2において、第1のメモリ14の精度評価部21を用いて、S1で学習した初期構造のDCNNにおける各認識タスクの精度をそれぞれ算出し、初期精度34として第2のメモリ15に格納する。精度評価部21は、第2のメモリ15のベリファイデータ31を用いて学習済DCNN33の精度を算出すればよい。精度算出の定義が認識タスクごとに定義されていることは、前述したとおりである。
S3において、共用対象とする層を示すインデックス(ループインデックス)iを1に初期化する。また、i層目で層を共用する可能性がある認識タスクのIDのリストを格納するメモリ(記憶部)として、第2のメモリ15の層共用タスクリスト35を初期化する。初期状態ではすべての認識タスクが層を共用できる可能性があるため、層共用タスクリスト35にはすべての認識タスクのIDを記録しておく。
共用層候補生成部22が行う処理の概要は以下のようなものである(詳細は図5参照)。層共用タスクリスト35に記録されているすべての認識タスクの所定の層(ここではi層目)に含まれるすべての畳みこみフィルタを共用層候補母集団と称することにする。共用層候補生成部22は、共用層候補母集団から代表的な畳みこみフィルタを選出(選択)して共用層候補を生成する。畳みこみ層に含まれる畳みこみフィルタの内容は複数の認識タスクのDCNNにおいて類似することがあり、互いに入れ替え可能なこともある。したがって、複数の認識タスクの畳みこみフィルタ(共用層候補母集団)から代表的なものを選んで共用層候補とすれば、当該共用層候補は、ある認識タスクの畳みこみ層と入れ替えても精度劣化が少ないことが期待できる。
図3に戻ると、S4の次にS5が実行される。S5において、層共用タスクリスト35に記録されている認識タスクのi層目をS4で生成された共用層候補36(SLi)で共用するような構造をもつマルチタスクDCNN(MTDCNN)構造を生成する。生成したマルチタスクDCNN構造を、第2のメモリ15に候補マルチタスクDCNN37として格納する。
i=1の場合は層共用タスクリスト35には全部の認識タスクが記録されているため、全部の認識タスクで1層目は共用層候補SL1を共用するような構造が候補マルチタスクDCNN37になる。
i>1の場合は、層共用タスクリスト35に記録されていない認識タスク(タスクIDをtとする)については共用層候補SLiを共用させず、i−1回目のループにおいて再学習してあった当該タスクtのi層目以上(FC層まで)を使用するように構成する。このように、i>1で層共用タスクリスト35に全認識タスクが記載(記録)されていない場合の処理の詳細については、i=2のループの際の処理を用いて後述する(図9)。
i=1のループでは、はじめに図2の構造ですべての層が学習され(累積学習回数=1)、つづいてS6で2層目以上の層が再学習されるので(累積学習回数=2)、2層目以上の層はCLTL[2]となる(L≧i+1)。
図7はS7の処理を説明する図である。図4における説明と同様に、第2のメモリ15のベリファイデータ31から画像を読み出してベリファイ画像701として認識処理を行う。そして、各認識タスクの出力層OUTTに現れる出力値702を、ベリファイデータ31から読み出した各認識タスクのGT703と比較し、各認識タスクの精度704を算出する。図7において、認識タスクR1〜R4についてそれぞれ算出された精度704は、精度R1’〜 精度R4’と記されている。
この際、図1の第1のメモリ14の性能評価結果出力部26を用いて、S7で算出された各認識タスクの精度(性能)704を出力装置13に表示させてもよい。つまり、性能評価結果出力部26は、精度評価部21を用いて算出された各認識タスクの精度評価値(図7の精度704)を出力装置13に表示させてもよい。
このように、認識タスクごとの精度や層共用状態をユーザに提示することにより、ユーザは、どの認識タスク同士の処理をどの程度まで共用した構造において各認識タスクの精度がどうなるかを把握することができる。当該把握により、ユーザは、認識タスクごとの各層のフィルタ数や学習データ数を調整するなどの人為的調整のための指針を得ることができる。
S11において、すべての畳みこみ層での処理が完了したか、または、層共用タスクリスト35に記録されている認識タスクの数が1以下になったかを判定することで、層共用の可能性がある認識タスクがなくなったかどうかを判定する。図3のS11では、層共用の可能性がある認識タスクがなくなることを「完了」と記している。層共用の可能性がある認識タスクがなくなっていれば(S11:Yes)、S13に進む。つまり、S11がYesの場合、S4〜S11〜S12〜S4のループを抜けS13に進む。層共用の可能性がある認識タスクが残っていれば、S12に進む。S12において、iを1加算し、S4に戻る。
マルチタスク多層NN再学習部25で再学習を行う場合、再学習の初期値としては上記のループを抜けた際に学習済DCNN33に格納されているDCNNのパラメータを初期値とすればよい。
S13に至る前のループで生成された学習済DCNN33の共用層候補SLiは、各認識タスクを個別に最適に学習した層CLTiから代表的な畳みこみフィルタを集めたものである。そして、複数の認識タスクを個別に学習したDCNNの下層部は、ある程度入れ替えが可能である。共用層候補SLiは複数の認識タスクのi層から代表的なフィルタを選出したものなので、複数の認識タスクのi層としておおむね適合した畳みこみフィルタを含んでいることが期待できる。しかし、共用層候補SLiは最終的に決定されたマルチタスクDCNN構造について(最終的に決定されたマルチタスクDCNN構造の中で)学習データ30に対して最適になるよう学習されたものではない。したがって、S13において学習済DCNN33を入力から出力まで全体的に学習し直す(再学習する)ことにより、S10までの処理で決定されたマルチタスクDCNN構造に対して学習データ30がより適合するようなマルチタスクDCNNが学習される。
なお、S13の再学習が終わった後に得られた学習済DCNN33(これを最終的に得られた学習済DCNNと称してもよい。)に対して精度評価部21によって精度評価をしてもよい。また、当該精度評価の結果を、性能評価結果出力部26やNN構造出力部27によって出力装置13に表示してもよい。このような表示により、ユーザは、最終的に学習装置10により得られたマルチタスクDCNNの精度や共用構造を把握することができる。また、このような表示により、データの追加や畳みこみフィルタ数の変更などの人為的な調整のための指針が得られる。
S13の再学習が終わると、第2のメモリ15の学習済DCNN33には、好適な共用構造を持ったDCNNが学習済みの状態で格納され、学習処理が終了する。
以下の記載では、S4からS10までの処理の繰り返しによって決定されるマルチタスクDCNN構造がどのようになるかを具体的に説明する。この説明のために、以下のような1つの例を用いる。
まず、i=1のループにおいて、S8の共用層候補採否判定の結果に基づいて、S9では共用構造決定部28によって認識タスクR1からR4のすべてが共用層候補(SLi)を採用すると決定されたとする。
この場合にS9の共用構造決定部28で決定されるDCNNは、図7と同じ構造である。したがって、S9では、S6で再学習された候補マルチタスクDCNN37と同じものが学習済DCNN33に格納されることになる。
この場合、各認識タスクの2層目以降のCLTi(i≧2)はS6で再学習されたものであり、図7に示すように各CLに対する累積学習回数は2である。
図8は共用層候補の生成の様子を示す図である。この例では層共用タスクリスト35にはまだすべての認識タスクが記載されているので、各認識タスクの第2層目に含まれるすべての畳みこみフィルタが共用層候補母集団39に格納される。この共用層候補母集団39から共用層候補生成部22によって代表的な畳みこみフィルタが選出され、共用層候補36が生成される。図5の場合と同様に、図8においても共用層候補母集団801から共用層候補802が生成される。i=2なので、図8では共用層候補802はSL2と記されている。
図9は、この場合にS9で共用構造決定部28によって決定されるマルチタスクDCNNの構造を説明する図である。認識タスクR4は共用層候補SL1までは他の認識タスクと層を共用するが、2層目以上(CL4k、k≧2)は前ループで格納されている学習済DCNN33のCL4k(k≧2)を使用するように決定される。図9では、認識タスクR4については、SL1からCL42に矢印が伸びている。なお、認識タスクR1〜R3については、SL1からSL2に矢印が伸びている。
すなわち、認識タスクR4の2層目以降については、S6で再学習した候補マルチタスクDCNN37の共用層候補SL1に、学習済DCNN33に格納されているDCNNの認識タスクR4の2層目以降を接続したマルチタスクDCNN構造を作る。それを学習済DCNN33に上書き格納する。共用層候補SL1は、1回前のループで生成された共用層である。
認識タスクR4のIDは、S10において層共用タスクリスト35から削除されるので、これ以降のループ(S4〜S11〜S12〜S4)で認識タスクR4が再学習の対象になることはない。よって、認識タスクR4は、ループを抜けた後にS13において再学習されるのみである。
図10は、この場合にS9で共用構造決定部28によって決定されるマルチタスクDCNNの構造を説明する図である。認識タスクR3のCL33以降の層の累積学習回数は3であり、認識タスクR1およびR2の累積学習回数は4である。図10では、認識タスクR3については、SL2からCL33に矢印が伸びており、認識タスクR1およびR2についてはSL2からSL3に矢印が伸びている。
この場合は、認識タスクR1とR2で共用層候補SL4を共用しない構造が最終的なマルチタスクDCNNの構造となり、このDCNNが学習済DCNN33に格納される。その構造が図10に示されている。認識タスクR1およびR2のCLT4(T=1または2)層の累積学習回数は4のままであり、前回のループで学習された学習パラメータを保持していることが示されている。i=4のループで4層目の共用層候補母集団から生成された共用層候補SL4は破棄され、図10に現れていない。
以上のように、各認識タスクのi層目を共用層候補SLiとして共用した場合の精度の劣化具合が許容範囲であるかどうかにしたがって、認識タスクごとに共用層候補SLiを使うかどうかが判定される。そして、当該判定の結果に応じて、各認識タスクに対して好適なマルチタスクDCNNの構造が決定される。
以下、本実施形態1の共用層候補生成部22が実行する処理を、図11のフローチャートに基づいて説明する。これは図3のS4で行われる処理である。
共用層候補生成部22は、層共用タスクリスト35に記録されているすべての認識タスクの所定の階層に含まれるすべての畳みこみフィルタ(共用層候補母集団)から代表的な畳みこみフィルタを選出して共用層候補を生成する。本実施形態では、所定の階層はi層目であるとするが、i層目の前後をも含んでもよい。インデックスiは、図3のS4〜S11で使われているインデックスiと同じである。
S22において、共用層候補母集団39を所定の数のクラスタにクラスタリングし、第2のメモリ15のフィルタクラスタ40に格納する。以下の説明において、前記所定の数をCKと表記する。フィルタクラスタ40は、クラスタごとに共用層候補母集団39の畳みこみフィルタを分別して格納したものである。
所定の数CKを各認識タスクのi層におけるフィルタ数NCLTiの平均値とした場合、所定の数CKは式1で示される数となる。
CK=(ΣTNCLTi)/NS (T ∈ 層共用タスクリスト) (式1)
ただし、式1のTはすべての認識タスクのタスクIDではなく層共用タスクリスト35に記録されているタスクIDとする。また、式1のNSは層共用タスクリスト35に記録されている認識タスクの数とする。
(1)畳みこみフィルタ自体のユークリッド距離
(2)畳みこみフィルタで学習画像を畳みこんだ結果でのユークリッド距離
(3)(2)の結果に活性化関数をかけた結果でのユークリッド距離
(1)では、単純に畳みこみフィルタのパラメータ間のユークリッド距離を算出する。(1)の場合、共用層候補母集団39は、畳みこみフィルタのパラメータ自体の類似度でクラスタリングされると言うこともできる。なお、畳みこみフィルタのパラメータ間のユークリッド距離は、学習パラメータのユークリッド距離としてもよい。また、(1)の場合、共用層候補母集団39は、前記学習パラメータを画像フィルタとみなした画像類似度でクラスタリングされるとも言える。
なお、上記した距離および類似度の定義は例示であり、上記以外の定義を用いてもよい。たとえば、類似度として、(3)の前記所定の非線形処理を適用した結果の類似度に、所定のプーリング処理を行った結果の類似度を用いてもよい。
S24において、S23でクラスタごとに選出されたCK個の代表畳みこみフィルタを共用層候補36に格納し、処理を終える。
このようにすることで、ある特定の認識タスクのj層(j≠i)の畳みこみフィルタが別の認識タスクのi層の畳みこみフィルタとして有効であるような場合に、当該畳みこみフィルタを共用層候補に取り込めるようになる。
次に、本実施形態1における共用層候補採否判定部24が実行する処理を、図12に基づいて説明する。この処理は図3のS8で行われる処理である。
はじめに、S31において、図1の第2のメモリ15の初期精度34に許容劣化度32を積算した結果を許容精度41として保持する。図1を用いて説明したように、許容劣化度32は、認識タスクごとに0.0以上1.0以下の実数値で設定されており、事前に第2のメモリ15に格納されている。初期精度34も許容劣化度32もすべての認識タスクに対する値が第2のメモリ15に格納されているので、許容精度41もすべての認識タスクに対して算出される。
S32において、層共用タスクリスト35の先頭に記載されているタスクIDを変数tにセットする。S32の後、層共用タスクリスト35に記載されている認識タスクについて、以下の処理を順次繰り返す。
S33において、タスクIDがtである認識タスクについて、第2のメモリ15の候補マルチタスクDCNN精度38とS31で取得した許容精度41とを比較する。タスクIDがtである認識タスクについて、候補マルチタスクDCNN精度38が許容精度41より高ければ(S33:Yes)、S34に進む。S34において、タスクIDがtである認識タスクについては共用層候補を採用すると判定される。この判定結果は、第2のメモリ15の共用層候補採否判定結果42に格納される。この格納は、たとえば、採用すると判定した認識タスクのタスクIDのリストを記載すればよい。S34の後に、S35に進む。なお、S33の判定は、再学習の評価のための判定であり、再学習の評価は、共用層候補を用いた場合の多層ニューラルネットワークの精度が許容範囲内であるか否かであるで行われていると言うこともできる。
S35において、層共用タスクリスト35に記載されているすべての認識タスクに対して上記の処理が完了したかどうか判定する。たとえば、現在のt(タスクID)が層共用タスクリスト35に記載されている最後のタスクIDかどうかを判定すればよい。S35で完了と判定されれば、ここで処理を終える。S35で未完了と判定されれば、S36に進む。
以上で、本実施形態における学習時(学習フェーズ)の処理の流れについての説明を終える。
なお、未知の入力画像に対して認識処理を行う場合は、学習済DCNN33に画像データ(入力画像)を入力すれば、各認識タスクの出力ノードに出力値が現れるので、それを認識結果として利用すればよい。これは学習済NNに対して認識時に(認識フェーズで)一般的に行われている手法である。
また、図1では学習装置10は入力装置12と出力装置13を含むとしたが、入力装置12および出力装置13の一方または両方を学習装置10の外に設けてもよい。
実施形態1の学習装置10は、以下の効果を有する。
図3の制御フローに基づいて処理を行うことにより、複数の認識タスクに対して好適なマルチタスクDCNNの構造を自動的に決定することができる。
好適なマルチタスクDCNNの構造を見つける(決定する)際に、あり得るすべての構造の組み合わせの数だけ網羅的に探索する必要がなく、おおむね層の数程度の学習回数で好適なマルチタスクDCNN構造を決定することができる。
各認識タスク用に学習された畳みこみ層の畳みこみフィルタからなる共用層母集団39から共用層候補を生成することで、各認識タスクに適合すると期待できる共用層候補を生成することができる。
複数の認識処理を実行する際に要するメモリ量を、個々の認識タスクに対して個別のDCNNを保持するよりも少なくすることができ、処理速度も短縮することができる。
共用層候補生成部22の処理および構造を実施形態1とは異なったものにした場合を、実施形態2として説明する。なお、以下の記載では実施形態1との相違点を中心に説明し、実施形態1と同じものには同じ参照符号を用いる。
実施形態1の共用層候補生成部22は、共用層候補母集団39をクラスタリングによりCK個のクラスタに分け、各クラスタから代表畳みこみフィルタを選出することにより、共用層候補となるべき畳みこみフィルタを選出している。つまり、実施形態1では、層共用タスクリスト35に記載されている全認識タスクのi階層目の畳みこみ層CLTiに含まれる全畳みこみフィルタ(共用層候補母集団39)から、クラスタリングという手法によって共用層候補を選出・生成している。このような共用層候補の選出・生成により、共用層候補となるべき畳みこみフィルタの数を制御(削減)している。実施形態2においては、共用層候補母集団39に含まれる畳みこみフィルタのパラメータ(学習パラメータ)をデータ圧縮の手法で削減することによって共用層候補を生成する。そのため、実施形態2の共用層候補生成部22は、パラメータをデータ圧縮するデータ圧縮部を有する。
Jaderberg,M.,Vedaldi,A.,& Zisserman,A.(2014)“Speeding up convolutional neural networks with low rank expansions.”arXiv preprint arXiv:1405.3866.
この文献では、もともとのDCNNのN個のd*dサイズの畳みこみフィルタを、それぞれM個(M<N)のd*1*1および1*d*1ベクトルとN個の1*1*Mベクトルに分解することで近似し、パラメータを削減している。また、K個(K<N)のd*1*1ベクトルとN個のd*1*Kベクトルに分解して近似する場合もある。
Zhang,X.,Zou,J.,Ming,X.,He,K.,& Sun,J.(2014)“Efficient and accurate approximations of nonlinear convolutional networks.”arXiv preprint arXiv:1411.4299.
この文献では、もともとのN個の畳みこみフィルタを、同サイズのM個(M<N)の畳みこみフィルタとN個の1*1*Mベクトルによって近似し、パラメータを削減している。
上記で例として挙げた各手法における設定パラメータはユーザが適宜決めるなどすればよい。
マルチタスク多層NN再学習部25が共用層候補SLiを再学習する際には、近似された畳みこみフィルタから所定数の畳みこみフィルタを逆に生成し、これを初期値として学習を始めればよい。前記所定数は、実施形態1と同様に式1などによって決めてもよいし、その層の共用層候補母集団に含まれるフィルタ数と同程度にしてもよい。再学習した後に再びデータ圧縮部によってその層を圧縮して近似された畳みこみフィルタで置き換えてもよい。
なお、上記の説明においてデータ圧縮とは、大量のパラメータを持つ畳みこみフィルタを、より少ないパラメータの畳みこみフィルタで近似して代替する処理であるとしたが、他の手法でデータ圧縮をしてもよい。たとえば、データ圧縮により、複数のフィルタを1つのフィルタにまとめるような処理を行ってもよい。当該1つのフィルタは、共用層候補母集団39には存在していない形のフィルタであってよい。複数のフィルタを1つのフィルタにまとめるという処理を複数回行うことにより、共用層候補母集団39のフィルタの数を削減し、共用層候補母集団39の全体を最適・好適に近似したフィルタ群(共用層候補)を生成することができる。
本発明は、上述の実施形態の第1のメモリ15の1以上の機能を実現するプログラム(コンピュータプログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(たとえば、ASIC)によっても実現可能である。
Claims (16)
- 複数のタスクを実行する複数の多層ニューラルネットワークを学習する学習手段と、
前記複数の多層ニューラルネットワーク間で所定の階層の共用層候補を生成する生成手段と、
前記共用層候補を用いた構造で、前記複数の多層ニューラルネットワークを再学習する第1の再学習手段と、
前記再学習の評価に基づいて、前記複数のタスクのそれぞれについて、前記共用層候補を前記所定の階層で共用するかを判定する判定手段と、
を有することを特徴とする情報処理装置。 - 前記所定の階層は、前記多層ニューラルネットワークの少なくとも1つの階層であり、当該少なくとも1つの階層の各階層ごとに生成される前記共有層候補についての前記判定手段による判定の結果に基づいて、前記複数の多層ニューラルネットワークの最終的な構造を決定する決定手段をさらに有することを特徴とする請求項1に記載の情報処理装置。
- 前記生成手段は、前記所定の階層の学習パラメータを複数のクラスタにクラスタリングし、当該複数のクラスタから前記代表学習パラメータを選出することによって前記共有層候補を生成することを特徴とする請求項1または2に記載の情報処理装置。
- 前記生成手段は、前記所定の階層の前後の階層の学習パラメータを含めた学習パラメータを複数のクラスタにクラスタリングし、当該複数のクラスタから代表学習パラメータを選出することによって前記共有層候補を生成することを特徴とする請求項3に記載の情報処理装置。
- 前記生成手段は類似度に基づいて前記クラスタリングを行い、当該類似度は、
前記学習パラメータを画像フィルタとみなした画像類似度、
前記画像フィルタを所定の画像に適用した出力結果の類似度、
前記画像フィルタを所定の画像に適用した出力結果の類似度に、所定の非線形処理を適用した結果の類似度、および
前記所定の非線形処理を適用した結果の類似度に、所定のプーリング処理を行った結果の類似度、
のいずれかであることを特徴とする請求項3または4に記載の情報処理装置。 - 前記生成手段は、前記所定の階層の学習パラメータをランダムサンプリングすることによって前記共有層候補を生成することを特徴とする請求項1または2に記載の情報処理装置。
- 前記生成手段は、前記所定の階層の学習パラメータをデータ圧縮することによって前記共用層候補を生成することを特徴とする請求項1または2に記載の情報処理装置。
- 前記決定手段によって決定された前記複数の多層ニューラルネットワークの構造で再学習を行う、第2の再学習手段をさらに有することを特徴とする請求項2に記載の情報処理装置。
- 前記所定の階層が複数ある場合、前記判定手段が前記共用層候補を共用すると判定するたびに、当該共用層候補を用いた前記複数の多層ニューラルネットワークの構造で再学習を行う、第3の再学習手段をさらに有することを特徴とする請求項1に記載の情報処理装置。
- 前記決定手段によって決定された前記複数の多層ニューラルネットワークの構造を出力する第1の出力手段をさらに有することを特徴とする請求項2または8に記載の情報処理装置。
- 前記第2の再学習手段または前記第3の再学習手段によって再学習された各タスクの性能を評価する評価手段と、当該評価を出力する第2の出力手段と、をさらに有することを特徴とする請求項8または9に記載の情報処理装置。
- 前記再学習の評価は、前記共用層候補を用いた場合の前記多層ニューラルネットワークの精度が許容範囲内であるか否かであることを特徴とする請求項1〜11のいずれか1項に記載の情報処理装置。
- 前記複数の多層ニューラルネットワークが、すでに所定の階層範囲で共用層候補を有している場合、前記生成手段は、前記所定の階層範囲の最後の共用層候補の次の階層について共有層候補を生成することを特徴とする請求項1〜12のいずれか1項に記載の情報処理装置。
- 請求項1〜13のいずれか1項の情報処理装置によって得られた前記複数の多層ニューラルネットワークによって認識処理を実行することを特徴とする認識処理装置。
- 複数のタスクを実行する複数の多層ニューラルネットワークを学習するステップと、
前記複数の多層ニューラルネットワーク間で所定の階層の共用層候補を生成するステップと、
前記共用層候補を用いた構造で、前記複数の多層ニューラルネットワークを再学習し、当該再学習の評価に基づいて、前記複数のタスクのそれぞれについて、前記共用層候補を前記所定の階層で共用するかを判定するステップと、
を有することを特徴とする情報処理方法。 - コンピュータを請求項1〜13のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016104025A JP6750854B2 (ja) | 2016-05-25 | 2016-05-25 | 情報処理装置および情報処理方法 |
US15/603,241 US10909455B2 (en) | 2016-05-25 | 2017-05-23 | Information processing apparatus using multi-layer neural network and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016104025A JP6750854B2 (ja) | 2016-05-25 | 2016-05-25 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017211799A true JP2017211799A (ja) | 2017-11-30 |
JP6750854B2 JP6750854B2 (ja) | 2020-09-02 |
Family
ID=60418054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016104025A Active JP6750854B2 (ja) | 2016-05-25 | 2016-05-25 | 情報処理装置および情報処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10909455B2 (ja) |
JP (1) | JP6750854B2 (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092612A (ja) * | 2016-12-01 | 2018-06-14 | 富士通株式会社 | 分類タスクの複雑度の評価装置及び方法 |
CN110136828A (zh) * | 2019-05-16 | 2019-08-16 | 杭州健培科技有限公司 | 一种基于深度学习实现医学影像多任务辅助诊断的方法 |
KR20190109670A (ko) * | 2018-03-09 | 2019-09-26 | 강원대학교산학협력단 | 신경망을 이용한 사용자 의도분석 시스템 및 방법 |
WO2019198814A1 (ja) * | 2018-04-12 | 2019-10-17 | 日本電信電話株式会社 | ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム |
JP2019192009A (ja) * | 2018-04-26 | 2019-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN110414489A (zh) * | 2019-08-21 | 2019-11-05 | 五邑大学 | 一种基于多任务学习的人脸美丽预测方法 |
WO2020069039A1 (en) * | 2018-09-27 | 2020-04-02 | Salesforce.Com, Inc. | Continual neural network learning via explicit structure learning |
WO2020209078A1 (ja) * | 2019-04-09 | 2020-10-15 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
JPWO2021038886A1 (ja) * | 2019-08-30 | 2021-03-04 | ||
CN112489012A (zh) * | 2020-11-27 | 2021-03-12 | 大连东软教育科技集团有限公司 | 一种用于ct图像识别的神经网络架构方法 |
JP2021513125A (ja) * | 2018-11-14 | 2021-05-20 | トゥアト カンパニー,リミテッド | ディープラーニングベースの画像解析方法、システム及び携帯端末 |
JP2021089493A (ja) * | 2019-12-02 | 2021-06-10 | キヤノン株式会社 | 情報処理装置およびその学習方法 |
JPWO2020003992A1 (ja) * | 2018-06-28 | 2021-06-24 | 富士フイルム株式会社 | 学習装置及び学習方法、並びに、医療画像処理装置 |
JP2022508157A (ja) * | 2019-03-07 | 2022-01-19 | エヌイーシー ラボラトリーズ アメリカ インク | 場面理解および高度な運転者支援システムのためのアプリケーションを有するマルチタスク感知ネットワーク |
WO2022079832A1 (ja) * | 2020-10-14 | 2022-04-21 | 日本電信電話株式会社 | 通信情報予測装置、通信情報予測方法、および通信情報予測プログラム |
WO2022185646A1 (ja) * | 2021-03-02 | 2022-09-09 | 株式会社Jvcケンウッド | 機械学習装置、推論装置、機械学習方法、および機械学習プログラム |
US11604717B2 (en) | 2020-03-10 | 2023-03-14 | Kabushiki Kaisha Toshiba | Processor performance measurement apparatus and processor performance measurement method |
WO2023047516A1 (ja) * | 2021-09-24 | 2023-03-30 | 富士通株式会社 | 画像処理システム、符号化装置、符号化方法及び符号化プログラム |
JP7569898B2 (ja) | 2022-07-29 | 2024-10-18 | 楽天グループ株式会社 | マルチタスク学習用のオンライン知識蒸留システム、方法、デバイス、及びプログラム |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6866095B2 (ja) * | 2016-09-26 | 2021-04-28 | キヤノン株式会社 | 学習装置、画像識別装置、学習方法、画像識別方法及びプログラム |
KR102525159B1 (ko) * | 2018-03-19 | 2023-04-25 | 삼성전자주식회사 | 전자 장치, 전자 장치의 이미지 처리 방법 및 컴퓨터 판독 가능 매체 |
CN109711252A (zh) * | 2018-11-16 | 2019-05-03 | 天津大学 | 一种多人种的人脸识别方法 |
KR20200084695A (ko) | 2019-01-03 | 2020-07-13 | 삼성전자주식회사 | 응용프로그램의 관리 장치 및 방법 |
DE102019201188A1 (de) * | 2019-01-30 | 2020-07-30 | Robert Bosch Gmbh | Verfahren zum Trainieren und zum Betrieb eines multitaskingfähigen künstlichen neuronalen Netz, multitaskingfähiges künstliches neuronales Netz und Vorrichtung |
KR20220028096A (ko) * | 2019-06-28 | 2022-03-08 | 삼성전자주식회사 | 신경망 모델들을 관리하는 방법 및 장치 |
CN110728255B (zh) * | 2019-10-22 | 2022-12-16 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及存储介质 |
KR20210106217A (ko) * | 2020-02-20 | 2021-08-30 | 삼성전자주식회사 | 인공 신경망의 재구성을 수행하는 프로세서, 이를 포함하는 전자 장치 및 프로세서의 동작 방법 |
CN116562338B (zh) * | 2022-01-27 | 2024-09-13 | 美的集团(上海)有限公司 | 多分支卷积结构、神经网络模型及其确定方法、确定装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05197705A (ja) * | 1991-07-09 | 1993-08-06 | Fujitsu Ltd | ニューラルネットワークの学習システム |
US20140257805A1 (en) * | 2013-03-11 | 2014-09-11 | Microsoft Corporation | Multilingual deep neural network |
JP2014229124A (ja) * | 2013-05-23 | 2014-12-08 | 独立行政法人情報通信研究機構 | ディープ・ニューラルネットワークの学習方法、ディープ・ニューラルネットワークのサブネットワークのパラメータを記憶した記憶媒体及びコンピュータプログラム |
JP5816771B1 (ja) * | 2015-06-08 | 2015-11-18 | 株式会社Preferred Networks | 学習装置ユニット |
WO2016026063A1 (en) * | 2014-08-21 | 2016-02-25 | Xiaoou Tang | A method and a system for facial landmark detection based on multi-task |
US20160140438A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification |
EP3023911A1 (en) * | 2014-11-24 | 2016-05-25 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
-
2016
- 2016-05-25 JP JP2016104025A patent/JP6750854B2/ja active Active
-
2017
- 2017-05-23 US US15/603,241 patent/US10909455B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05197705A (ja) * | 1991-07-09 | 1993-08-06 | Fujitsu Ltd | ニューラルネットワークの学習システム |
US20140257805A1 (en) * | 2013-03-11 | 2014-09-11 | Microsoft Corporation | Multilingual deep neural network |
JP2014229124A (ja) * | 2013-05-23 | 2014-12-08 | 独立行政法人情報通信研究機構 | ディープ・ニューラルネットワークの学習方法、ディープ・ニューラルネットワークのサブネットワークのパラメータを記憶した記憶媒体及びコンピュータプログラム |
WO2016026063A1 (en) * | 2014-08-21 | 2016-02-25 | Xiaoou Tang | A method and a system for facial landmark detection based on multi-task |
US20160140438A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification |
EP3023911A1 (en) * | 2014-11-24 | 2016-05-25 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
JP5816771B1 (ja) * | 2015-06-08 | 2015-11-18 | 株式会社Preferred Networks | 学習装置ユニット |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092612A (ja) * | 2016-12-01 | 2018-06-14 | 富士通株式会社 | 分類タスクの複雑度の評価装置及び方法 |
KR20190109670A (ko) * | 2018-03-09 | 2019-09-26 | 강원대학교산학협력단 | 신경망을 이용한 사용자 의도분석 시스템 및 방법 |
KR102198265B1 (ko) * | 2018-03-09 | 2021-01-04 | 강원대학교 산학협력단 | 신경망을 이용한 사용자 의도분석 시스템 및 방법 |
JP7179835B2 (ja) | 2018-04-12 | 2022-11-29 | 日本電信電話株式会社 | モデル生成装置、モデル生成方法、プログラム |
WO2019198814A1 (ja) * | 2018-04-12 | 2019-10-17 | 日本電信電話株式会社 | ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム |
JPWO2019198814A1 (ja) * | 2018-04-12 | 2021-04-01 | 日本電信電話株式会社 | ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム |
JP2019192009A (ja) * | 2018-04-26 | 2019-10-31 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7166784B2 (ja) | 2018-04-26 | 2022-11-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7382930B2 (ja) | 2018-06-28 | 2023-11-17 | 富士フイルム株式会社 | 医療画像処理装置 |
JPWO2020003992A1 (ja) * | 2018-06-28 | 2021-06-24 | 富士フイルム株式会社 | 学習装置及び学習方法、並びに、医療画像処理装置 |
WO2020069039A1 (en) * | 2018-09-27 | 2020-04-02 | Salesforce.Com, Inc. | Continual neural network learning via explicit structure learning |
US11645509B2 (en) | 2018-09-27 | 2023-05-09 | Salesforce.Com, Inc. | Continual neural network learning via explicit structure learning |
JP2021513125A (ja) * | 2018-11-14 | 2021-05-20 | トゥアト カンパニー,リミテッド | ディープラーニングベースの画像解析方法、システム及び携帯端末 |
JP7181402B2 (ja) | 2019-03-07 | 2022-11-30 | エヌイーシー ラボラトリーズ アメリカ インク | 場面理解および高度な運転者支援システムのためのアプリケーションを有するマルチタスク感知ネットワーク |
JP2022508157A (ja) * | 2019-03-07 | 2022-01-19 | エヌイーシー ラボラトリーズ アメリカ インク | 場面理解および高度な運転者支援システムのためのアプリケーションを有するマルチタスク感知ネットワーク |
WO2020209078A1 (ja) * | 2019-04-09 | 2020-10-15 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
CN110136828A (zh) * | 2019-05-16 | 2019-08-16 | 杭州健培科技有限公司 | 一种基于深度学习实现医学影像多任务辅助诊断的方法 |
CN110414489A (zh) * | 2019-08-21 | 2019-11-05 | 五邑大学 | 一种基于多任务学习的人脸美丽预测方法 |
WO2021038886A1 (ja) * | 2019-08-30 | 2021-03-04 | 富士通株式会社 | 学習方法、学習プログラムおよび学習装置 |
JPWO2021038886A1 (ja) * | 2019-08-30 | 2021-03-04 | ||
JP2021089493A (ja) * | 2019-12-02 | 2021-06-10 | キヤノン株式会社 | 情報処理装置およびその学習方法 |
JP7398938B2 (ja) | 2019-12-02 | 2023-12-15 | キヤノン株式会社 | 情報処理装置およびその学習方法 |
US11604717B2 (en) | 2020-03-10 | 2023-03-14 | Kabushiki Kaisha Toshiba | Processor performance measurement apparatus and processor performance measurement method |
WO2022079832A1 (ja) * | 2020-10-14 | 2022-04-21 | 日本電信電話株式会社 | 通信情報予測装置、通信情報予測方法、および通信情報予測プログラム |
JP7439947B2 (ja) | 2020-10-14 | 2024-02-28 | 日本電信電話株式会社 | 通信情報予測装置、通信情報予測方法、および通信情報予測プログラム |
CN112489012A (zh) * | 2020-11-27 | 2021-03-12 | 大连东软教育科技集团有限公司 | 一种用于ct图像识别的神经网络架构方法 |
WO2022185646A1 (ja) * | 2021-03-02 | 2022-09-09 | 株式会社Jvcケンウッド | 機械学習装置、推論装置、機械学習方法、および機械学習プログラム |
WO2023047516A1 (ja) * | 2021-09-24 | 2023-03-30 | 富士通株式会社 | 画像処理システム、符号化装置、符号化方法及び符号化プログラム |
JP7569898B2 (ja) | 2022-07-29 | 2024-10-18 | 楽天グループ株式会社 | マルチタスク学習用のオンライン知識蒸留システム、方法、デバイス、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10909455B2 (en) | 2021-02-02 |
US20170344881A1 (en) | 2017-11-30 |
JP6750854B2 (ja) | 2020-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6750854B2 (ja) | 情報処理装置および情報処理方法 | |
Child | Very deep vaes generalize autoregressive models and can outperform them on images | |
Behl et al. | Alpha maml: Adaptive model-agnostic meta-learning | |
EP3711000B1 (en) | Regularized neural network architecture search | |
Yoon et al. | Scalable and order-robust continual learning with additive parameter decomposition | |
WO2018227800A1 (zh) | 一种神经网络训练方法及装置 | |
US10699194B2 (en) | System and method for mimicking a neural network without access to the original training dataset or the target model | |
JP6620439B2 (ja) | 学習方法、プログラム及び学習装置 | |
Konar et al. | Comparison of various learning rate scheduling techniques on convolutional neural network | |
US11704570B2 (en) | Learning device, learning system, and learning method | |
CN110503192A (zh) | 资源有效的神经架构 | |
CN113168559A (zh) | 机器学习模型的自动化生成 | |
CN114580517A (zh) | 一种图像识别模型的确定方法及装置 | |
US11488007B2 (en) | Building of custom convolution filter for a neural network using an automated evolutionary process | |
Zhan et al. | Deep model compression via two-stage deep reinforcement learning | |
GB2572164A (en) | Artificial neural networks | |
EP4073713A1 (en) | Hyper-opinion classification using a neural network | |
Xiu et al. | Multiple graph regularized graph transduction via greedy gradient max-cut | |
Abusnaina et al. | Enhanced MWO training algorithm to improve classification accuracy of artificial neural networks | |
US20230018525A1 (en) | Artificial Intelligence (AI) Framework to Identify Object-Relational Mapping Issues in Real-Time | |
CN115345303A (zh) | 卷积神经网络权重调优方法、装置、存储介质和电子设备 | |
KR20230064534A (ko) | 클라이언트의 개별 데이터 맞춤형 연합 학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 | |
Kavipriya et al. | Adaptive weight deep convolutional neural network (AWDCNN) classifier for predicting student’s performance in job placement process | |
JP6993250B2 (ja) | コンテンツ特徴量抽出装置、方法、及びプログラム | |
Kang et al. | Continual learning with generative replay via discriminative variational autoencoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200807 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6750854 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |