JP6561004B2 - ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 - Google Patents

ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 Download PDF

Info

Publication number
JP6561004B2
JP6561004B2 JP2016061926A JP2016061926A JP6561004B2 JP 6561004 B2 JP6561004 B2 JP 6561004B2 JP 2016061926 A JP2016061926 A JP 2016061926A JP 2016061926 A JP2016061926 A JP 2016061926A JP 6561004 B2 JP6561004 B2 JP 6561004B2
Authority
JP
Japan
Prior art keywords
learning
weight parameter
terminal device
neural network
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016061926A
Other languages
English (en)
Other versions
JP2017174298A (ja
Inventor
賢志 近藤
賢志 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2016061926A priority Critical patent/JP6561004B2/ja
Publication of JP2017174298A publication Critical patent/JP2017174298A/ja
Application granted granted Critical
Publication of JP6561004B2 publication Critical patent/JP6561004B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、ニューラルネットワークにおける重みパラメータを学習するためのニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法に関する。
近年、多層畳み込みニューラルネットワークを用いた画像認識が広く行われるようになってきている。畳み込みニューラルネットワークは、比較的小さな複数のフィルタを畳み込む畳み込み層と、矩形領域を集約するプーリング層とを十数層重ね合わせたネットワークによって構成される。
画像認識を行うためには、入力画像データと識別結果との誤差が最小となるよう、予め重みパラメータを適切に設定する必要がある。重みパラメータの探索および調整は学習と呼ばれる。画像認識の精度を向上するためには、多様かつ大量の画像データと、そのそれぞれについての正解データとの組を用いて学習しなければならない。
G. E. Hinton and R. R. Salakhutdinov, "Reducing the Dimensionality of Data with Neural Networks", Science, 28 July, 2006, Vol. 313 (5786), pp504-507(http://www.cs.toronto.edu/~hinton/science.pdf) P.Vincent, H. Larochelle Y. Bengio and P.A. Manzagol, "Extracting and Composing Robust Features with Denoising Autoencoders", Proceedings of the Twenty-fifth International Conference on Machine Learning (ICML'08), 2008, pp 1096 - 1103, ACM(http://www.iro.umontreal.ca/~lisa/publications2/index.php/attachments/single/176)
このように多様かつ大量の画像データおよび正解データを用意するのは、多大な労力を要する。また、実際に認識対象となる画像データの母集団の標本となるデータ群を収集しなければならない。この点、研究や認識精度の検証などに広く用いられているデータセットは、必ずしも実ユーザが認識しようとする画像データでないことも多いし、実際のサービスで想定される画像データの母集団の標本となるものでもない。
そこで、写真共有サービスや保存サービスにアップロードされている不特定多数のユーザの画像データを用いることも考えられる。しかしながら、そのような画像データを用いるのは、プライバシー上の問題が懸念される。
本発明はこのような問題点に鑑みてなされたものであり、本発明の課題は、プライバシーを保護しつつ、多様かつ大量のデータを用いて学習を行うことができるニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法を提供することである。
本発明の一態様によれば、複数の端末装置と、管理装置と、を備えるニューラルネットワークシステムであって、前記複数の端末装置のそれぞれは、画像データが保存された記憶部と、ニューラルネットワークにおける、画像識別を行うための重みパラメータを学習する画像識別器と、学習によって得られた重みパラメータを前記管理装置に送信することと、前記画像データに基づいて生成される学習用データを他の端末装置または前記管理装置に送信することと、他の端末装置によって生成された前記学習用データを受信することと、を行う第1制御部と、を備え、前記画像識別器は、自身の記憶部に保存された画像データのみならず、他の端末装置によって生成された前記学習用データを用いて前記重みパラメータを学習し、前記管理装置は、前記学習によって得られた重みパラメータを前記複数の端末装置から受信し、最適な重みパラメータを選択する第2制御部を備える、ニューラルネットワークシステムが提供される。
端末装置から画像データそのものを送信するわけではないので、プライバシーを保護できる。また、画像データに基づいて生成される学習用データを他の端末装置と共用でき、多様かつ大量の画像データを学習に用いることができる。
ニューラルネットワークは、複数の畳み込み層を有し、前記第1制御部は、前記畳み込み層からの出力を、前記画像データに基づいて生成される学習用データとして送信してもよい。
畳み込み層からの出力から画像データを復元するのは困難であるため、プライバシーを保護できる。
前記画像識別器は、自身の記憶部に保存された画像データを用いて1層目の畳み込み層における学習を行い、自身の記憶部に保存された画像データと、他の端末装置によって生成された前記学習用データとを用いて2層目以降の畳み込み層における学習を行ってもよい。
これにより、2層目以降の畳み込み層の重みパラメータを精度よく学習できる。
前記第1制御部または前記第2制御部は、前記画像データとは異なる検証用データを用いて、前記学習によって得られた重みパラメータの検証を行ってもよい。
検証用データは端末装置に保存された画像データではないため、プライバシーを保護しつつ、学習によって得られた重みパラメータを検証でき、最適な重みパラメータの選択に利用できる。
前記第2制御部は、前記複数の端末装置から受信した前記学習によって得られた重みパラメータのうち、最も認識精度が高い重みパラメータを最適な重みパラメータとして選択してもよい。
これにより、他の端末でも最適な重みパラメータを用いることができるようになる。
前記第2制御部は、前記複数の端末装置から受信した前記学習によって得られた重みパラメータに基づいて前記複数の端末装置をグループ化し、グループごとに最適な重みパラメータを選択してもよい。
傾向が近い端末装置どうしをグループ化することで、端末装置に応じてグループごとに適切な重みパラメータを選択できる。
本発明の別の態様によれば、画像データが保存された記憶部と、ニューラルネットワークにおける、画像識別を行うための重みパラメータを学習する画像識別器と、学習によって得られた重みパラメータを管理装置に送信することと、前記画像データに基づいて生成される学習用データを他の端末装置または前記管理装置に送信することと、他の端末装置によって生成された前記学習用データを受信することと、を行う第1制御部と、を備え、前記画像識別器は、自身の記憶部に保存された画像データのみならず、他の端末装置によって生成された前記学習用データを用いて前記重みパラメータを学習する、端末装置が提供される。
本発明の別の態様によれば、複数の端末装置から、学習によって得られた重みパラメータと、認識精度と、を受信し、前記認識精度に基づいて、前記複数の端末装置から受信した重みパラメータから最適な重みパラメータを選択する第2制御部を備える、管理装置が提供される。
本発明の別の態様によれば、端末装置が、ニューラルネットワークにおける、画像識別を行うための重みパラメータを学習する学習ステップと、前記端末装置が、学習によって得られた重みパラメータを管理装置に送信ステップと、前記管理装置が、前記学習によって得られた重みパラメータを複数の端末装置から受信し、最適な重みパラメータを選択する選択ステップと、を備え、前記学習ステップは、前記端末装置が、自身の記憶部に保存された画像データに基づいて生成される学習用データを他の端末装置または前記管理装置に送信することと、他の端末装置によって生成された前記学習用データを受信することと、自身の記憶部に保存された画像データのみならず、他の端末装置によって生成された前記学習用データを用いて前記重みパラメータを学習することと、を含む、ニューラルネットワークにおける重みパラメータの学習方法が提供される。
が提供される。
本発明によれば、端末装置から画像データそのものではなく、画像データに基づいて生成される学習用データを他の端末装置と共用することで、プライバシーを保護しつつ、多様かつ大量の画像データを学習に用いることができる。
一実施形態に係るニューラルネットワークシステムの概略構成を示すブロック図。 畳み込みニューラルネットワーク構成を示す図。 ニューラルネットワークシステムによる学習時の処理動作の一例を示すシーケンス図。 教師なし事前学習の処理フローを示すシーケンス図。 分散学習による検証の処理フローを示すシーケンス図。 第2の実施形態に係る分散学習による検証の処理フローを示すシーケンス図。 グループごとの最適重みパラメータ選択を説明する図。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
(第1の実施形態)
図1は、一実施形態に係るニューラルネットワークシステムの概略構成を示すブロック図である。このニューラルネットワークシステムは畳み込みニューラルネットワーク(Convolution Neural Network;以下、CNNという)における重みパラメータを学習することが可能であり、学習用の画像データを収集して利用する2以上の端末装置1と、各端末装置1での学習結果を共有、統合、送信するための管理装置2から構成される。
端末装置1のそれぞれは、例えばスマートフォンやタブレットといったモバイル機器であり、カメラ11と、記憶部12と、画像識別器13と、制御部14とを備えている。
カメラ11は、端末装置1のユーザからの操作に応じて撮影を行い、画像データを生成する。この画像データは記憶部12に保存される。当然であるが、各端末装置1の記憶部12には端末装置1ごとに異なる画像データが保存されている。
画像識別器13には、他の端末装置1とも共通するCNN構成が設定され、CNNにおける重みパラメータの学習や、所定の重みパラメータが設定されたCNNによる画像の識別を行うことができる。
図2は、CNN構成の一例を示す図である。図示のように、CNNは、畳み込み層ネットワーク30と、その後段に配置された全結合層ネットワーク40とから構成される。畳み込み層ネットワーク30は、入力されるデータにフィルタを適用して畳み込み演算を施す畳み込み層31と、畳み込み演算後のデータを集約して解像度を下げるプーリング層32と、を複数段接続したものである。全結合層ネットワーク40は複数の全結合層41を有し、畳み込み層ネットワーク30の出力から最終的な識別結果を出力する。なお、重みパラメータとは、畳み込み層31におけるフィルタの重み係数やバイアスを指す。
このようなCNNが設定される画像識別器13は、重みパラメータの学習時には、全結合層ネットワーク40を切り離した上で、正しい識別結果が得られるよう重みパラメータを更新(すなわち学習)する。得られた重みパラメータは記憶部12に保存される。
また、画像識別器13は、画像の識別時には、入力される任意の画像データを処理して、全結合層ネットワーク40から識別結果を出力する。
図1に戻り、制御部14は記憶部12および画像識別器13に接続されるとともに、端末装置1全体を制御する。例えば、制御部14は、記憶部12からデータを読み出したり、記憶部12にデータを保存したりする。また、制御部14は、画像識別器13にCNN構成や重みパラメータを設定したり、学習を指示したりする。さらに、制御部14は通信経路を介して管理装置2と通信する。具体的には、制御部14は、学習に必要なデータを管理装置2に要求して受信したり、学習によって更新された重みパラメータを管理装置2に送信したりする。
管理装置2は、記憶部21と、制御部22とを備えている。
記憶部21は、CNN構成、初期重みパラメータ、最適重みパラメータ、事前学習用データ、検証用データセットなどを記憶している。
CNN構成とは、例えば図2における畳み込み層31の段数、フィルタの数やサイズなどCNNを定義する情報である。初期重みパラメータとは、フィルタの重み係数やバイアスといった重みパラメータの初期値であり、例えば乱数で初期化されている。最適重みパラメータとは、1回以上の学習を行って得られた、最新の最適な重みパラメータである。
事前学習用データとは、後述する事前学習用の画像データのセットであり、各端末装置1から受信される。検証用データセットとは、後述する検証用の画像データおよび正解データの組のセットである。なお、検証用データセットは各端末装置1に配信されるものであるため、各端末装置1に保存されている画像データではなく、別途収集したものであるのが望ましい。
制御部22は記憶部21に接続されるとともに、管理装置2全体を制御する。例えば、制御部22は、記憶部21からデータを読み出したり、記憶部21にデータを保存したりする。また、制御部22は通信経路を介して各端末装置1と通信する。具体的には、制御部22は、学習に必要なデータを管理装置2に送信したり、学習によって更新された重みパラメータを各端末装置1から受信したりする。
図3は、ニューラルネットワークシステムによる学習時の処理動作の一例を示すシーケンス図である。
まず、次のステップS1,S11およびS2の処理によって、初期設定を行う。
すなわち、まず端末装置1の制御部14は、CNN構成および重みパラメータを管理装置2に要求する(ステップS1)。
この要求に応答して、管理装置2の制御部22はCNN構成および重みパラメータを記憶部21から読み出す。重みパラメータとして、初めて学習を行う場合には初期重みパラメータを読み出し、以前に学習を行って最適重みパラメータが記憶されている場合には最適重みパラメータを読み出せばよい。そして、制御部22はCNN構成および重みパラメータを端末装置1に送信する(ステップS11)。
端末装置1の制御部14はCNN構成および重みパラメータを管理装置2から受信し、これらを画像識別器13に設定する(ステップS2)。なお、重みパラメータは、管理装置2から送信されたものを用いる代わりに、端末装置1自身が乱数などによって設定してもよい。
続いて、画像識別器13は教師なし事前学習を行って重みパラメータを更新する(ステップS3)。教師なし学習とは正解データを必要としない学習であり、1層目の畳み込み層から1層ずつ、出力側から入力側に逆演算処理を行う対称構造ネットワークを定義し、この対称構造ネットワークによって入力データが正しく再構成されるよう、重みパラメータを更新する手法である。教師なし学習の具体的なアルゴリズムとして、Auto EncoderあるいはDenoising Auto Encoder(上記非特許文献1,2参照)など、公知の手法を適用できる。
画像識別器13は、自身の端末装置1における記憶部12に保存された画像データのみを用いて教師なし事前学習を行ってもよいが、次に説明するように管理装置2と協働して教師なし事前学習を行うのが望ましい。
図4は、教師なし事前学習の処理フローを示すシーケンス図であり、図3のステップS3を詳しく説明するものである。
まず、画像識別器13は、自身の端末装置1内の記憶部12に保存された画像データを用いて、1層目の畳み込み層における重みパラメータの更新(「1層目の事前学習」という、以下同じ)を行う(ステップS21)。
また、1層目から出力されるデータを他の端末装置1と共用すべく、制御部14はこれを管理装置2に送信する(ステップS22)。管理装置2の制御部22は、受信したデータを2層目の事前学習用データとして受信し、記憶部21に保存する(ステップS31)。
ここで、端末装置1の制御部14は、プライバシーに配慮し、記憶部12に保存された画像データそのものを管理装置2に送信しない。その代わりに、制御部14は1層目によって生成され出力されたデータを学習用データとして管理装置2に送信する。1層目から出力されたデータから元の画像データを完全に復元することは困難であるため、プライバシーは保たれる。しかも、1つの端末装置1内に保存された画像データに基づくデータを、他の端末装置1での学習に用いることができる。
1層目の事前学習が完了すると、2層目の事前学習を行うために、端末装置1の制御部14は2層目の事前学習用データを管理装置2に要求する(ステップS23)。管理装置2の制御部22は、記憶部21に保存された2層目の事前学習用データを読み出し、端末装置1に送信する(ステップS32)。なお、図4では管理装置2を介して事前学習用データを他の端末装置1に送信して共用する例を示しているが、端末装置1どうしで直接送受信を行って共用してもよい。
端末装置1の制御部14は2層目の事前学習用データを管理装置2から受信する(ステップS24)。そして、画像識別器13は2層目の事前学習を行う(ステップS25)。事前学習の際、画像識別器13は、自身の端末装置1内の記憶部12に記憶された画像データを1層目に入力して得られた出力データ(以下、自データという)のみならず、管理装置2から受信した2層目の事前学習用データ(以下、共用データという)も用いて、事前学習を行うのが望ましい。これにより、学習に用いるデータが増え、識別精度が向上する。
なお、2層目の事前学習において、自データのみを用いてもよいし、共用データのみを用いてもよい。また、用いる自データと共用データの比率も任意に設定可能である。事前学習において、自データと共用データとで処理上の差異はない。
また、2層目によって生成され出力されるデータを他の端末装置1と共用すべく、制御部14はこれを管理装置2に送信する(ステップS)。管理装置2の制御部22は、受信したデータを3層目の事前学習用データとして受信し、記憶部21に保存する(ステップS33)。
以上のステップS23〜S26,S32,S33を3層目以降も繰り返し、全ての層について事前学習を行う(ステップS27)。これにより、全層における重みパラメータの事前学習が完了し、重みパラメータが更新される。
CNNの画像認識精度を高くするためには、各層の重みパラメータを効率よく学習する必要がある。学習開始時の初期重みパラメータが乱数などによって初期化されたものである場合、学習の完了までに多くの学習データセットおよび重みパラメータ更新などの処理が必要となる。本実施形態においては、重みパラメータ学習時の初期重みパラメータとして、上述した教師なし事前学習を行う。そのため、以後の学習処理の収束および学習時間を短縮させることができる。
図3に戻り、画像識別器13による教師なし事前学習が完了すると、制御部14は、次のように管理装置2と協働して分散学習を行い、更新された重みパラメータの検証を行う。(ステップS4)。
図5は、分散学習による検証の処理フローを示すシーケンス図であり、図3のステップS4を詳しく説明するものである。
端末装置1の制御部14は、教師なし事前学習が完了した旨を管理装置2に通知する(ステップS41)。この通知は検証用データセットの要求と考えることもできる。
この通知に応答して、管理装置2の制御部22は記憶部21から検証用データセットを読み出し、端末装置1に送信する(ステップS51)。上述したように、検証用データセットは検証用画像データと正解データとの組である。端末装置1の制御部14は、検証用データセットを受信する(ステップS42)。なお、各端末装置1が予め検証用データセットを保存しておくようにしてもよい。
端末装置1の画像識別器13は、更新後の重みパラメータを用い、検証用画像データに対する識別を行う(ステップS43)。
そして、制御部14は、画像識別器13が検証用画像データを処理して出力された識別結果と、正解データとが一致した割合(認識率)を認識精度として把握する。そして、制御部14は更新後の重みパラメータおよび認識精度を管理装置2に送信する(ステップS44)。なお、画像識別器13が更新前の重みパラメータを用いた識別も行い、更新前後で認識精度がどの程度変化するかを管理装置2に送信してもよい。
管理装置2の制御部22は、複数の端末装置1のそれぞれから、重みパラメータおよび認識精度を受信する(ステップS52)。各端末装置1はそれぞれ異なる画像データを用いて事前学習が行われるため、それぞれ異なる重みパラメータおよび認識精度が得られる。
そこで、管理装置2の制御部22は認識精度に基づいて重みパラメータを選択し(ステップS53)、記憶部21に保存する。具体的には、制御部22は、最も高い認識精度が得られた端末装置1からの更新後の重みパラメータを、その時点での最適重みパラメータとして選択することとができる。
なお、図5では端末装置1が検証用データセットを用いて検証を行うこととしたが、端末装置1の制御部14が重みパラメータを管理装置2に送信し、管理装置2内に画像識別器を設けて管理装置2の制御部22が検証を行ってもよい。
以上のような分散学習が完了すると、管理装置2の制御部22は最適重みパラメータを各端末装置1に送信する(図3のステップS12)。
端末装置1の制御部14は、最適重みパラメータを管理装置2から受信して記憶部12に保存するとともに、画像識別器13に設定する(ステップS5)。これにより、画像識別器13は新たな重みパラメータを使用して学習や識別を行うことができる。なお、画像識別器13は、更新前の重みパラメータと、更新後の重みパラメータ(つまり管理装置2から受信した最適重みパラメータ)を用いて識別を行って認識精度が低下しないことを確認した上で、更新後の重みパラメータを採用するようにしてもよい。
このように、第1の実施形態では、各端末装置1が持つ画像データそのものを管理装置2に(したがって別の端末装置1にも)送信する必要はない。そのため、プライバシーを保護できる。また、CNN構造における1層目以降の出力データを管理装置2に送信して、事前学習用データとして他の端末装置1と共用する。事前学習用データは各端末装置1のユーザによって撮影された画像データに基づくものである。そのため、実際に認識対象となる画像データの母集団を統計的に代表するデータと言える。したがって、各端末装置1は多様かつ大量のデータを用いて学習を行うことができ、画像識別器13の認識精度が向上する。
以上説明した本実施形態では、端末装置1がスマートフォンやタブレットである例を示した。しかしながら、端末装置1は分散学習を行うための大規模演算装置であってもよい。そして、管理装置2などから大量の画像データセットを予め各大規模演算装置に分散配布して、その記憶部12内に保存しておけばよい。その他の処理動作は上述した通りである。
(第2の実施形態)
端末装置1がスマートフォンやタブレットである場合、各端末装置1に保存されている画像データには、ユーザの利用環境や思考に応じて何らかの傾向が存在することが多い。例えば、ユーザによって、日々の食事を多く撮影したり、風景を多く撮影したり、乗り物を多く撮影したりすることがある。また、ユーザの年齢や性別といった属性によって傾向が異なることもある。
上述した第1の実施形態は、各端末装置1に保存された画像データを用いて学習を行うものであった。例えば、ある端末装置1に乗り物の画像データが多く保存されている場合、その端末装置1の学習によれば、乗り物の画像データに対する認識精度は高くなる一方で、他の画像データに対する認識精度は低くなることもある。すなわち、識別を行う対象によって、最適な重みパラメータが異なり得る。
このような事情を考慮し、第2の実施形態では、傾向が共通する端末装置1をグループ化してより適切な重みパラメータを得るものとする。以下、第1の実施形態との相違点を中心に説明する。
図6は、第2の実施形態に係る分散学習による検証の処理フローを示すシーケンス図である。図5と比較してステップS61が追加されている点およびステップS53の処理が異なる。
図5と同様のステップS52において、管理装置2の制御部22は、複数の端末装置1のそれぞれから、重みパラメータおよび認識精度を受信する。そして、制御部22は受信された重みパラメータに基づいて端末装置1を1または複数のグループに分類する(ステップS61)。より具体的には、制御部22は、重みパラメータが類似している端末装置1が同一グループに属するよう、分類を行う。類似しているか否かは、例えば対応する重みパラメータどうしの二乗誤差に基づいて判断できる。
これにより、類似する画像データが保存された端末装置1どうしが同一グループに分類されることが期待される。例えば、食事の画像データが多く保存された端末装置1が1つのグループに分類され、風景の画像データが多く保存された端末装置1が別のグループに分類され、乗り物の画像データが多く保存された端末装置1がまた別のグループに分類される。
次いで、制御部22は、グループごとに重みパラメータを選択し(ステップS53’)、記憶部21に保存する。具体的には、各グループ内で最も高い認識精度が得られた端末装置1からの重みパラメータを、その時点での最適な重みパラメータとすることができる。
図7は、グループごとの最適重みパラメータ選択を説明する図である。説明を簡略化するために、図6のステップS61において、端末装置A,C,Eからなるグループ1と、端末装置B,D,Fからなるグループ2に分類されたとする。
グループ1に属する端末装置A,C,Eのうち、端末装置Aの認識率が80%と最も高い。よって、制御部22は、グループ1について、端末装置Aから受信した重みパラメータWaを最適重みパラメータとして選択する。この重みパラメータWaは、端末装置A,C,Eに保存された画像データを識別するのに適した重みパラメータと言える。
一方、グループ2に属する端末装置B,D,Fのうち、端末装置Bの認識率が60%と最も高い。この場合、端末装置Bの認識率より端末装置Aの認識率が高いが、制御部22は、グループ2について、端末装置Bから受信した重みパラメータWbを最適重みパラメータとして選択する。この重みパラメータWbは、端末装置B,D,Fに保存された画像データを識別するのに適した重みパラメータと言える。
このようにして選択された最適パラメータは、制御部22によって各グループに属する端末装置1に送信される。図7の例であれば、重みパラメータWaが端末装置A,C,Eに送信され、重みパラメータWbが端末装置B,D,Fに送信される。
例えば、端末装置A,C,Eのユーザが食事をよく撮影するユーザであった場合、食事の識別に適した重みパラメータが設定される。そのため、このユーザが別の食事を新たに撮影して識別を行った場合に、高い精度で識別することができる。
このように、第2の実施形態では、重みパラメータが類似する端末装置1どうしをグループ化するため、グループごとに適切な重みパラメータを学習できる。
なお、各端末装置1が属するグループを予め定めておいてもよい。その場合、図6のステップS44において、各端末装置1の制御部14は、重みパラメータおよび認識精度に加え、グループを特定する情報を管理装置2に送信すればよい。そうすれば、管理装置2の制御部22は、グループ化(ステップS61)を行うことなく、グループごとに最適重みパラメータを選択(ステップS53’)できる。
また、各端末装置1が属するグループを予め定めておく場合、教師なし事前学習で各層の出力データを送信する際に(図4のステップS22,S26)、やはりグループを特定する情報を管理装置2に送信してもよい。そして、管理装置2は、同一グループに属する他の端末装置1に事前学習用データを送信してもよい(ステップS32)。
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。
1 端末装置
11 カメラ
12 記憶部
13 画像識別器
14 制御部
2 管理装置
21 記憶部
22 制御部
30 畳み込み層ネットワーク
31 畳み込み層
32 プーリング層
40 全結合層ネットワーク
41 全結合層

Claims (9)

  1. 複数の端末装置と、管理装置と、を備えるニューラルネットワークシステムであって、
    前記複数の端末装置のそれぞれは、
    画像データが保存された記憶部と、
    ニューラルネットワークにおける、画像識別を行うための重みパラメータを学習する画像識別器と、
    学習によって得られた重みパラメータを前記管理装置に送信することと、前記画像データに基づいて生成される学習用データを他の端末装置または前記管理装置に送信することと、他の端末装置によって生成された前記学習用データを受信することと、を行う第1制御部と、を備え、
    前記画像識別器は、自身の記憶部に保存された画像データのみならず、他の端末装置によって生成された前記学習用データを用いて前記重みパラメータを学習し、
    前記管理装置は、前記学習によって得られた重みパラメータを前記複数の端末装置から受信し、最適な重みパラメータを選択する第2制御部を備える、ニューラルネットワークシステム。
  2. ニューラルネットワークは、複数の畳み込み層を有し、
    前記第1制御部は、前記畳み込み層からの出力を、前記画像データに基づいて生成される学習用データとして送信する、請求項1に記載のニューラルネットワークシステム。
  3. 前記画像識別器は、自身の記憶部に保存された画像データを用いて1層目の畳み込み層における学習を行い、自身の記憶部に保存された画像データと、他の端末装置によって生成された前記学習用データとを用いて2層目以降の畳み込み層における学習を行う、請求項2に記載のニューラルネットワークシステム。
  4. 前記第1制御部または前記第2制御部は、前記画像データとは異なる検証用データを用いて、前記学習によって得られた重みパラメータの検証を行う、請求項1乃至3のいずれかに記載のニューラルネットワークシステム。
  5. 前記第2制御部は、前記複数の端末装置から受信した前記学習によって得られた重みパラメータのうち、最も認識精度が高い重みパラメータを最適な重みパラメータとして選択する、請求項1乃至4のいずれかに記載のニューラルネットワークシステム。
  6. 前記第2制御部は、前記複数の端末装置から受信した前記学習によって得られた重みパラメータに基づいて前記複数の端末装置をグループ化し、グループごとに最適な重みパラメータを選択する、請求項1乃至5のいずれかに記載のニューラルネットワークシステム。
  7. 画像データが保存された記憶部と、
    ニューラルネットワークにおける、画像識別を行うための重みパラメータを学習する画像識別器と、
    学習によって得られた重みパラメータを管理装置に送信することと、前記画像データに基づいて生成される学習用データを他の端末装置または前記管理装置に送信することと、他の端末装置によって生成された前記学習用データを受信することと、を行う第1制御部と、を備え、
    前記画像識別器は、自身の記憶部に保存された画像データのみならず、他の端末装置によって生成された前記学習用データを用いて前記重みパラメータを学習する、端末装置。
  8. 複数の端末装置から、学習によって得られた重みパラメータと、認識精度と、を受信し、前記認識精度に基づいて、前記複数の端末装置から受信した重みパラメータから最適な重みパラメータを選択する第2制御部を備える、管理装置。
  9. 端末装置が、ニューラルネットワークにおける、画像識別を行うための重みパラメータを学習する学習ステップと、
    前記端末装置が、学習によって得られた重みパラメータを管理装置に送信ステップと、
    前記管理装置が、前記学習によって得られた重みパラメータを複数の端末装置から受信し、最適な重みパラメータを選択する選択ステップと、を備え、
    前記学習ステップは、前記端末装置が、
    自身の記憶部に保存された画像データに基づいて生成される学習用データを他の端末装置または前記管理装置に送信することと、
    他の端末装置によって生成された前記学習用データを受信することと、
    自身の記憶部に保存された画像データのみならず、他の端末装置によって生成された前記学習用データを用いて前記重みパラメータを学習することと、を含む、ニューラルネットワークにおける重みパラメータの学習方法。
JP2016061926A 2016-03-25 2016-03-25 ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 Active JP6561004B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016061926A JP6561004B2 (ja) 2016-03-25 2016-03-25 ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061926A JP6561004B2 (ja) 2016-03-25 2016-03-25 ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法

Publications (2)

Publication Number Publication Date
JP2017174298A JP2017174298A (ja) 2017-09-28
JP6561004B2 true JP6561004B2 (ja) 2019-08-14

Family

ID=59971278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061926A Active JP6561004B2 (ja) 2016-03-25 2016-03-25 ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法

Country Status (1)

Country Link
JP (1) JP6561004B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6727176B2 (ja) * 2017-09-27 2020-07-22 富士フイルム株式会社 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置
JP7058440B2 (ja) * 2018-01-10 2022-04-22 国立研究開発法人情報通信研究機構 学習システム及び学習方法
KR102097442B1 (ko) * 2018-03-27 2020-04-06 주식회사 제니스텍 전력 계통 운용을 위한 상호작용형 실시간 제어 및 진단 시스템 업데이트 방법 및 장치
JP7228961B2 (ja) * 2018-04-02 2023-02-27 キヤノン株式会社 ニューラルネットワークの学習装置およびその制御方法
JP6742565B2 (ja) * 2018-05-02 2020-08-19 三菱電機株式会社 学習装置、検証装置、データ処理システムおよびデータ処理方法
JP2021181124A (ja) * 2018-07-19 2021-11-25 ソニーグループ株式会社 制御装置、制御方法、およびプログラム
CN112912901A (zh) 2018-10-18 2021-06-04 富士通株式会社 学习程序、学习方法以及学习装置
KR102126795B1 (ko) * 2018-11-30 2020-06-26 서울대학교 산학협력단 딥러닝 기반의 이미지 개인정보 가공장치 시스템, 장치 및 그 방법
JP7279368B2 (ja) * 2019-01-17 2023-05-23 富士通株式会社 学習方法、学習プログラムおよび学習装置
JP7171477B2 (ja) * 2019-03-14 2022-11-15 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
EP3951709A4 (en) 2019-03-29 2022-09-07 Sony Group Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
JP7374202B2 (ja) * 2019-09-26 2023-11-06 富士フイルム株式会社 機械学習システムおよび方法、統合サーバ、プログラムならびに推論モデルの作成方法
CN113688424A (zh) * 2021-08-31 2021-11-23 福建师范大学 基于权重社会网络的个性化差分隐私保护方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540587B2 (en) * 2014-04-11 2020-01-21 Google Llc Parallelizing the training of convolutional neural networks

Also Published As

Publication number Publication date
JP2017174298A (ja) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6561004B2 (ja) ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法
JP6656376B2 (ja) 顔認証方法、装置及びコンピュータ記憶媒体
KR102144707B1 (ko) 인공지능 학습을 위한 모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법 및 그 장치
KR102545128B1 (ko) 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템
JP6756037B2 (ja) ユーザ本人確認の方法、装置及びシステム
CN108491805B (zh) 身份认证方法和装置
JP6594329B2 (ja) 顔表現のためのシステムおよび方法
EP3255586A1 (en) Method, program, and apparatus for comparing data graphs
CN109840530A (zh) 训练多标签分类模型的方法和装置
CN111477290A (zh) 保护用户隐私的联邦学习和图像分类方法、系统及终端
JP6731529B1 (ja) 単一画素攻撃サンプルの生成方法、装置、設備及び記憶媒体
CN109840477A (zh) 基于特征变换的受遮挡人脸识别方法及装置
US11575502B2 (en) Homomorphic encryption processing device, system including the same and method of performing homomorphic encryption processing
CN110675458B (zh) 用于摄像头标定的方法、装置及存储介质
CN110263909A (zh) 图像识别方法及装置
US8417047B2 (en) Noise suppression in low light images
KR20180004898A (ko) 딥러닝 기반의 이미지 처리 기술 및 그 방법
WO2020258902A1 (zh) 图像生成和神经网络训练方法、装置、设备和介质
US20220067888A1 (en) Image processing method and apparatus, storage medium, and electronic device
US20220368877A1 (en) Image processing method, image processing apparatus, storage medium, manufacturing method of learned model, and image processing system
CN106373112B (zh) 图像处理方法、装置和电子设备
CN106664372B (zh) 图像处理装置、图像处理方法及记录介质
JP6935868B2 (ja) 画像認識装置、画像認識方法、およびプログラム
US20220116198A1 (en) Homomorphic operation accelerator and homomorphic operation performing device including the same
US11800235B2 (en) Dual exposure control in a camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6561004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250