JP2020086539A - 逐次学習プログラム、逐次学習装置および逐次学習方法 - Google Patents
逐次学習プログラム、逐次学習装置および逐次学習方法 Download PDFInfo
- Publication number
- JP2020086539A JP2020086539A JP2018214993A JP2018214993A JP2020086539A JP 2020086539 A JP2020086539 A JP 2020086539A JP 2018214993 A JP2018214993 A JP 2018214993A JP 2018214993 A JP2018214993 A JP 2018214993A JP 2020086539 A JP2020086539 A JP 2020086539A
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- data
- generated
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000013016 learning Effects 0.000 title claims abstract description 603
- 238000000034 method Methods 0.000 title claims description 78
- 238000012545 processing Methods 0.000 claims description 32
- 230000006866 deterioration Effects 0.000 abstract 1
- 241000272194 Ciconiiformes Species 0.000 description 41
- 238000010586 diagram Methods 0.000 description 24
- 230000000694 effects Effects 0.000 description 12
- 241001137251 Corvidae Species 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 241000209094 Oryza Species 0.000 description 7
- 235000007164 Oryza sativa Nutrition 0.000 description 7
- 235000009566 rice Nutrition 0.000 description 7
- 241000271566 Aves Species 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- FBOUIAKEJMZPQG-AWNIVKPZSA-N (1E)-1-(2,4-dichlorophenyl)-4,4-dimethyl-2-(1,2,4-triazol-1-yl)pent-1-en-3-ol Chemical compound C1=NC=NN1/C(C(O)C(C)(C)C)=C/C1=CC=C(Cl)C=C1Cl FBOUIAKEJMZPQG-AWNIVKPZSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、実施例1に係る逐次学習装置の機能的構成の一例を示すブロック図である。図1を参照しながら、本実施例に係る逐次学習装置10の機能的構成の一例について説明する。
図2は、既成の生成部の生成画像を用いて学習する動作を説明する図である。図2を参照しながら、本実施例に係る逐次学習装置10の学習処理の概要の一例を説明する。なお、図2に基づく説明の中で言及する画像は、野鳥に係る画像であるものとする。
Cs:集合Sに属する国およびそのいずれでもないことを表す確率変数
G(X|Cs):国の集合Sにより条件づけられた野鳥画像の確率変数Xの確率分布、およびその生成モデル
D(Cs|X):確率変数Xに対応する野鳥画像を見たとき、国の集合Sの野鳥だと判別する確率分布、およびその判別モデル
図3は、第1のタスクとして特定の画像のみを判別する動作を説明する図である。図4は、第2のタスクとして既成の生成部の生成画像を用いて差集合に係る画像を判別する動作を説明する図である。図3および図4を参照しながら、本実施例に係る逐次学習装置10の学習処理の詳細の一例を説明する。
図5は、実施例1に係る逐次学習装置の学習動作の流れの一例を示すフローチャートである。図5を参照しながら、本実施例に係る逐次学習装置10の学習動作の流れの一例を説明する。なお、図5では、逐次学習装置10としての逐次学習装置10bにおける学習動作に着目して説明する。
以上のように、本実施例に係る逐次学習装置10では、既に生成モデルとして作成されている生成部が生成する生成画像を偽の画像として、判別部に入力させるものとしている。すなわち、判別部には、新たな学習データである実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部)が生成する生成画像が偽の画像として入力される。したがって、判別部は、過去の学習データに基づく学習結果を含む生成モデル(生成部)の生成画像を偽の画像として入力しているので、当該学習結果を忘却することなく、新たな学習データの概念のみを際立たせて識別することができるようになる。すなわち、これまでの学習結果を利用して、新たな概念に対する判別精度を向上させることができる。また、新たな判別部および生成部についての学習の際に用いる既に学習済みの生成モデルについては、任意のモデルを選択して用いることが可能である。この場合、学習済みのすべての生成モデルを用いるものとしてもよい。また、新たに作成される生成部は、上述のような判別部に真の画像として判別させるような画像を生成することができるようになるので、生成部による画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データの概念のみを際立たせて生成することができるようになる。
図6は、既成の生成部の生成画像を用いて学習する動作を説明する図である。図6を参照しながら、本実施例に係る逐次学習装置10の学習処理の概要の一例を説明する。なお、図6に基づく説明の中で言及する画像は、野鳥に係る画像であるものとする。
図7は、第2のタスクとして既成の生成部の生成画像を用いて和集合に係る画像を判別する動作を説明する図である。図8は、従来技術の解答部の学習動作を説明する図である。図7および図8を参照しながら、本実施例に係る逐次学習装置10の学習処理の詳細の一例、および従来技術との差異について説明する。なお、第1のタスクとしての逐次学習装置10a(図6参照)におけるカラスの画像のみを判別するモデルを作成する処理については、上述の図3で説明した処理と同様であり、ここでは、当該処理が既に完了しているものとする。
図9は、実施例2に係る逐次学習装置の学習動作の流れの一例を示すフローチャートである。図9を参照しながら、本実施例に係る逐次学習装置10の学習動作の流れの一例を説明する。なお、図9では、逐次学習装置10としての逐次学習装置10b(図6参照)における学習動作に着目して説明する。
以上のように、本実施例に係る逐次学習装置10では、既に生成モデルとして作成されている生成部が生成する生成画像を真の画像として、判別部に入力させるものとしている。すなわち、判別部には、新たな学習データである実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部)が生成する生成画像が真の画像として入力される。したがって、判別部は、過去の学習データに基づく学習結果を含む生成モデル(生成部)の生成画像を真の画像として入力しているので、当該学習結果を忘却することなく、既に学習した概念に対して、新たな学習データの概念を追加して識別することができるようになる。また、新たに作成される生成部は、上述のような判別部に真の画像として判別させるような画像を生成することができるようになるので、生成部による画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データの概念を追加して生成することができるようになる。
図10は、実施例3における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がある場合の動作を説明する図である。図10に示すように、既に作成されたモデルからアメリカの学習データ(アメリカの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っている場合の動作について説明する。
図11は、実施例3における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がない場合の動作を説明する図である。図11に示すように、既に作成されたモデルからアメリカの学習データ(アメリカの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っていない場合の動作について説明する。
以上のように、本実施例に係る逐次学習装置10では、得られた生成モデルおよび判別モデルから、特定の学習データの影響を除く必要性が生じた場合、既に作成された生成モデルを選択的に用いる。これによって、当該学習データの影響が除かれた生成モデルおよび判別モデルを作成することができる。図10および図11で示した例では、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像についての生成モデルおよび判別モデルに対して、アメリカ(米)の野鳥の画像の影響が除かれた画像を識別および生成するような判別モデルおよび生成モデルをそれぞれ再作成することができる。
図12は、実施例4における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がある場合の動作を説明する図である。図12に示すように、既に作成されたモデルからカナダの学習データ(カナダの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っている場合の動作について説明する。
図13は、実施例4における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がない場合の動作を説明する図である。図13に示すように、既に作成されたモデルからカナダの学習データ(カナダの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っていない場合の動作について説明する。
以上のように、本実施例に係る逐次学習装置10では、得られた生成モデルおよび判別モデルから、特定の学習データの影響を除く必要性が生じた場合、既に作成された生成モデルを選択的に用いる。これによって、当該学習データの影響が除かれた生成モデルおよび判別モデルを作成することができる。図12および図13で示した例では、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像についての生成モデルおよび判別モデルに対して、カナダ(加)の野鳥の画像の影響が除かれた画像を識別および生成するような判別モデルおよび生成モデルをそれぞれ再作成することができる。
図14は、実施例1〜実施例4に係る逐次学習プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。上述の各実施例で説明した各種の処理は、予め用意されたプログラムをPC(Personal Computer)またはワークステーション等のコンピュータで実行することによって実現することができる。そこで、以下では、図14を用いて、上述の各実施例と同様の機能を有する逐次学習プログラムを実行するコンピュータの一例について説明する。
Area Network)等を介してコンピュータ400に接続される他のコンピュータまたはワークステーション等に逐次学習プログラム404aを記憶させておき、コンピュータ400がこれらから逐次学習プログラム404aを取得して実行するようにしてもよい。
コンピュータに、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
処理を実行させる逐次学習プログラム。
前記第2の判別器に、
前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。
前記第1のデータ群および前記第2のデータ群は、画像である逐次学習プログラム。
コンピュータに、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を真として前記第2の判別器に入力する、
処理を実行させる逐次学習プログラム。
第1の判別器に、
少なくとも前記第1のデータ群と、前記第1の生成器からの出力である第1の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第1の生成データに対する判別の結果を前記第1の生成器へ出力させ、
前記第1の生成器に、
前記第1の判別器から出力された判別の結果に基づいて学習させ、
前記第2の判別器に、
前記第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させ、
第3の判別器に、
第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第3の生成器からの出力である第3の生成データと、を入力させ、
前記第2の生成データを真として入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第3の生成データに対する判別の結果を前記第3の生成器へ出力させ、
前記第3の生成器に、
前記第3の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。
第4の判別器に、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
前記第1の生成器からの出力である前記第1の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第2のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第2のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
第4の判別器に、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
前記第2の生成器からの出力である前記第2の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
第4の判別器に、
敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データを入力させ、
前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
前記第3の生成器からの出力である前記第3の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
逐次学習装置。
前記第2の判別器は、
前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力し、
入力した各データについて判別を行うことによって学習し、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力し、
前記第2の生成器は、
前記第2の判別器から出力された判別の結果に基づいて学習する逐次学習装置。
前記第1のデータ群および前記第2のデータ群は、画像である逐次学習装置。
前記第1の生成器からの出力を真として前記第2の判別器に入力する、
逐次学習装置。
第1の判別器は、
少なくとも前記第1のデータ群と、前記第1の生成器からの出力である第1の生成データと、を入力し、
入力した各データについて判別を行うことによって学習し、
前記第1の生成データに対する判別の結果を前記第1の生成器へ出力し、
前記第1の生成器は、
前記第1の判別器から出力された判別の結果に基づいて学習し、
前記第2の判別器は、
前記第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力し、
入力した各データについて判別を行うことによって学習し、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力し、
前記第2の生成器は、
前記第2の判別器から出力された判別の結果に基づいて学習し、
第3の判別器は、
第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第3の生成器からの出力である第3の生成データと、を入力し、
前記第2の生成データを真として入力し、
入力した各データについて判別を行うことによって学習し、
前記第3の生成データに対する判別の結果を前記第3の生成器へ出力し、
前記第3の生成器は、
前記第3の判別器から出力された判別の結果に基づいて学習する逐次学習装置。
第4の判別器は、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力し、
前記第1の生成器からの出力である前記第1の生成データを真として入力し、
入力した各データについて判別を行うことによって、前記第2のデータ群の影響を除いたデータを識別するように学習し、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力し、
前記第4の生成器は、
前記第4の判別器から出力された判別の結果に基づいて学習することによって、前記第2のデータ群の影響を除いたデータを生成するように学習する逐次学習装置。
第4の判別器は、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力し、
前記第1の生成器からの出力である前記第1の生成データを偽として入力し、
前記第2の生成器からの出力である前記第2の生成データを真として入力し、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習し、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器は、
前記第4の判別器から出力された判別の結果に基づいて学習することによって、前記第1のデータ群の影響を除いたデータを生成するように学習する逐次学習装置。
第4の判別器は、
敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データを入力し、
前記第1の生成器からの出力である前記第1の生成データを偽として入力し、
前記第3の生成器からの出力である前記第3の生成データを真として入力し、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習し、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力し、
前記第4の生成器は、
前記第4の判別器から出力された判別の結果に基づいて学習することによって、前記第1のデータ群の影響を除いたデータを生成するように学習する逐次学習装置。
コンピュータが、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
逐次学習方法。
前記第2の判別器に、
前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させる逐次学習方法。
前記第1のデータ群および前記第2のデータ群は、画像である逐次学習方法。
コンピュータが、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を真として前記第2の判別器に入力する、
逐次学習方法。
121、121a〜121c、121c_1〜121c_5 生成部
122、122a〜122c、122c_1〜122c_5 判別部
131、131a〜131c 実画像
132a、132b 実画像
201、201a 生成画像
202 生成画像
251 実画像
261 生成画像
Claims (10)
- 逐次学習プログラムであって、
コンピュータに、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
処理を実行させる逐次学習プログラム。 - 請求項1に記載の逐次学習プログラムであって、
前記第2の判別器に、
前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。 - 請求項1または2に記載の逐次学習プログラムであって、
前記第1のデータ群および前記第2のデータ群は、画像である逐次学習プログラム。 - 逐次学習プログラムであって、
コンピュータに、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を真として前記第2の判別器に入力する、
処理を実行させる逐次学習プログラム。 - 請求項4に記載の逐次学習プログラムであって、
第1の判別器に、
少なくとも前記第1のデータ群と、前記第1の生成器からの出力である第1の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第1の生成データに対する判別の結果を前記第1の生成器へ出力させ、
前記第1の生成器に、
前記第1の判別器から出力された判別の結果に基づいて学習させ、
前記第2の判別器に、
前記第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させ、
第3の判別器に、
第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第3の生成器からの出力である第3の生成データと、を入力させ、
前記第2の生成データを真として入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第3の生成データに対する判別の結果を前記第3の生成器へ出力させ、
前記第3の生成器に、
前記第3の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。 - 請求項5に記載の逐次学習プログラムであって、
第4の判別器に、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
前記第1の生成器からの出力である前記第1の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第2のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第2のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。 - 請求項5に記載の逐次学習プログラムであって、
第4の判別器に、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
前記第2の生成器からの出力である前記第2の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。 - 請求項5に記載の逐次学習プログラムであって、
第4の判別器に、
敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データを入力させ、
前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
前記第3の生成器からの出力である前記第3の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。 - 第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
逐次学習装置。 - 逐次学習方法であって、
コンピュータが、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
逐次学習方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018214993A JP7318197B2 (ja) | 2018-11-15 | 2018-11-15 | 逐次学習プログラム、逐次学習装置および逐次学習方法 |
US16/680,562 US11449715B2 (en) | 2018-11-15 | 2019-11-12 | Sequential learning maintaining a learned concept |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018214993A JP7318197B2 (ja) | 2018-11-15 | 2018-11-15 | 逐次学習プログラム、逐次学習装置および逐次学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020086539A true JP2020086539A (ja) | 2020-06-04 |
JP7318197B2 JP7318197B2 (ja) | 2023-08-01 |
Family
ID=70727940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018214993A Active JP7318197B2 (ja) | 2018-11-15 | 2018-11-15 | 逐次学習プログラム、逐次学習装置および逐次学習方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11449715B2 (ja) |
JP (1) | JP7318197B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020119567A (ja) * | 2019-01-28 | 2020-08-06 | 株式会社ストラドビジョンStradvision,Inc. | スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス連続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10825148B2 (en) | 2018-11-29 | 2020-11-03 | Adobe Inc. | Boundary-aware object removal and content fill |
US11544532B2 (en) * | 2019-09-26 | 2023-01-03 | Sap Se | Generative adversarial network with dynamic capacity expansion for continual learning |
CN111898696B (zh) * | 2020-08-10 | 2023-10-27 | 腾讯云计算(长沙)有限责任公司 | 伪标签及标签预测模型的生成方法、装置、介质及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180101770A1 (en) * | 2016-10-12 | 2018-04-12 | Ricoh Company, Ltd. | Method and system of generative model learning, and program product |
US20180307947A1 (en) * | 2017-04-25 | 2018-10-25 | Nec Laboratories America, Inc. | Cyclic generative adversarial network for unsupervised cross-domain image generation |
US20180322366A1 (en) * | 2017-05-02 | 2018-11-08 | General Electric Company | Neural network training image generation system |
US20190130278A1 (en) * | 2017-10-26 | 2019-05-02 | Nvidia Corporation | Progressive modification of generative adversarial neural networks |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107808098B (zh) * | 2017-09-07 | 2020-08-21 | 阿里巴巴集团控股有限公司 | 一种模型安全检测方法、装置以及电子设备 |
US10552714B2 (en) * | 2018-03-16 | 2020-02-04 | Ebay Inc. | Generating a digital image using a generative adversarial network |
-
2018
- 2018-11-15 JP JP2018214993A patent/JP7318197B2/ja active Active
-
2019
- 2019-11-12 US US16/680,562 patent/US11449715B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180101770A1 (en) * | 2016-10-12 | 2018-04-12 | Ricoh Company, Ltd. | Method and system of generative model learning, and program product |
US20180307947A1 (en) * | 2017-04-25 | 2018-10-25 | Nec Laboratories America, Inc. | Cyclic generative adversarial network for unsupervised cross-domain image generation |
US20180322366A1 (en) * | 2017-05-02 | 2018-11-08 | General Electric Company | Neural network training image generation system |
US20190130278A1 (en) * | 2017-10-26 | 2019-05-02 | Nvidia Corporation | Progressive modification of generative adversarial neural networks |
Non-Patent Citations (3)
Title |
---|
SHIN, H., ET AL.: "Continual Learning with Deep Generative Replay", ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 30 (NIPS 2017) [ONLINE], JPN6022026892, 4 December 2017 (2017-12-04), ISSN: 0004817295 * |
ZHU, XINYUE ET AL.: ""Emotion Classification with Data Augmentation Using Generative Adversarial Networks"", ARXIV [ONLINE], JPN6023024445, December 2017 (2017-12-01), ISSN: 0005086243 * |
渡部 宏樹: "Data Augmentation using DCGAN considering generate", FIT2017 第16回情報科学技術フォーラム 講演論文集 第3分冊 選奨論文・一般論文 画像認識・, JPN6022055187, 4 October 2017 (2017-10-04), pages 273 - 274, ISSN: 0004955304 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020119567A (ja) * | 2019-01-28 | 2020-08-06 | 株式会社ストラドビジョンStradvision,Inc. | スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス連続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
US20200160119A1 (en) | 2020-05-21 |
US11449715B2 (en) | 2022-09-20 |
JP7318197B2 (ja) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7318197B2 (ja) | 逐次学習プログラム、逐次学習装置および逐次学習方法 | |
US20210125000A1 (en) | Method and apparatus for training model for object classification and detection | |
CN116541538B (zh) | 基于大数据的智慧学习知识点挖掘方法及系统 | |
JP2021022368A (ja) | ニューラルネットワークを用いた画像認識装置およびトレーニング装置 | |
KR102042168B1 (ko) | 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치 | |
EP3382609A1 (en) | Risk assessment method, risk assessment program, and information processing device | |
EP3443450A1 (en) | Two-stage training of a spoken dialogue system | |
CN112966112B (zh) | 基于对抗学习的文本分类模型训练和文本分类方法及装置 | |
CN110046622A (zh) | 一种有目标的攻击样本生成方法、装置、设备及存储介质 | |
WO2021130888A1 (ja) | 学習装置、推定装置および学習方法 | |
WO2023093346A1 (zh) | 基于外源特征进行模型所有权验证的方法和装置 | |
JP6856503B2 (ja) | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム | |
CN113128619B (zh) | 伪造样本检测模型的训练方法、伪造样本识别方法、装置、介质和设备 | |
JP2019159835A (ja) | 学習プログラム、学習方法および学習装置 | |
JP7293658B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20220284315A1 (en) | Apparatus and system for training knowledge tracking model based on data augmentation and operation method thereof | |
CN111737417A (zh) | 修正自然语言生成结果的方法和装置 | |
TW201816706A (zh) | 具個人化學習路徑自動產生機制之學習規劃方法與學習規劃系統 | |
CN110879832A (zh) | 目标文本检测方法、模型训练方法、装置及设备 | |
US20230062484A1 (en) | Hand-drawn diagram recognition using visual arrow-relation detection | |
CN112926515B (zh) | 活体模型训练方法和装置 | |
JP2020003879A (ja) | 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム | |
JP7331926B2 (ja) | 学習装置、物体検出装置、学習方法、及び、プログラム | |
KR20220104394A (ko) | 대상 모델의 특성을 반영하는 모방 모델 생성 시스템 및 방법 | |
CN110688371B (zh) | 数据调整方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7318197 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |