JP2020086539A - 逐次学習プログラム、逐次学習装置および逐次学習方法 - Google Patents

逐次学習プログラム、逐次学習装置および逐次学習方法 Download PDF

Info

Publication number
JP2020086539A
JP2020086539A JP2018214993A JP2018214993A JP2020086539A JP 2020086539 A JP2020086539 A JP 2020086539A JP 2018214993 A JP2018214993 A JP 2018214993A JP 2018214993 A JP2018214993 A JP 2018214993A JP 2020086539 A JP2020086539 A JP 2020086539A
Authority
JP
Japan
Prior art keywords
image
learning
data
generated
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018214993A
Other languages
English (en)
Other versions
JP7318197B2 (ja
Inventor
稲越 宏弥
Hiroya Inakoshi
宏弥 稲越
孝 河東
Takashi Kato
孝 河東
健人 上村
Taketo Uemura
健人 上村
優 安富
Masaru Yasutomi
優 安富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018214993A priority Critical patent/JP7318197B2/ja
Priority to US16/680,562 priority patent/US11449715B2/en
Publication of JP2020086539A publication Critical patent/JP2020086539A/ja
Application granted granted Critical
Publication of JP7318197B2 publication Critical patent/JP7318197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】新たな概念の学習時に学習済みの概念が損なわれることを抑制すること。【解決手段】逐次学習装置10は、第1のデータ群を用いて敵対的生成ネットワークにより学習された生成部121aからの出力と、第2のデータ群とを判別部122bに入力して、敵対的生成ネットワークにより生成部121bの学習を行う際に、生成部121aからの出力を偽として判別部122bに入力する。【選択図】図2

Description

本発明は、逐次学習プログラム、逐次学習装置および逐次学習方法に関する。
AI(Artificial Intelligence)の分野において、ディープラーニングを用いた画像認識では、大量の学習データが必要である。学習データは、教師データ、または訓練データと呼ばれることもある。また、以前に学習した結果を利用して学習を行う逐次学習の処理は、判別モデルを作成する場合において、毎回、学習をやり直す必要があり計算コストを要する。また、学習データは提供する業者の知的財産であるため、ディープラーニングによる学習を請け負う業者は、学習の作業実施後には学習データを破棄することが求められる場合が多い。
また、判別モデルの学習に使用する学習データは、画像等のサンプルデータに対してラベル付けを行うことで作成されるが、一般的にはその作業に時間およびコストがかかる。一方、画像データのような精細な対象が従う確率分布を精度よく学習するシステムとして、GAN(Generative Adversarial Network:敵対的生成ネットワーク)が知られている。GANは、乱数等を基に、学習データと似た新しいデータ(生成データ)を生成する生成モデルと、生成モデルにより生成された生成データであるのか、学習データであるのかを判別する判別モデルとを含んでいる。生成モデルは、判別モデルにより判別がつかないように、学習データと似たデータを生成するようなパラメータを求める学習を行い、判別モデルは、生成モデルにより生成された生成データと、学習データとを見分けられるようなパラメータを求める学習を行う。すなわち、生成モデルは、判別モデルを騙すような生成データを生成するように学習し、判別モデルは、生成モデルに騙されずに生成データと学習データとを見分けられるように学習する。これらの学習が繰り返されることによって、学習データと類似度の高いデータを生成することができる生成モデルが得られ、かつ、本物(学習データ)であるのか偽物(生成データ)であるのかを見分ける判別精度を向上させた判別モデルが得られる。
このようなGANを使用するシステムであって、過去に使用した学習データを保持せずに、GANで生成された生成モデルの生成データを利用してモデルを学習するシステムが提案されている。このシステムでは、まず、学習データを基にGANにより生成モデルを作成すると共に、学習データのラベルを予測して出力する「solver」と称する解答モデルを、生成モデルとは独立して学習により作成する。そして、新たなラベル付き学習データ(サンプルデータおよびラベル)と、予め作成した生成モデルの出力(生成データ)およびこの生成データに対する解答モデルの出力(予測したラベル)と、を用いて、新たな解答モデルを作成する。
James Kirkpatrick, et al., "Overcoming catastrophic forgetting in neural networks", arXiv:1612.00796, 2 Dec 2016. S. Hanul, et al., "Continual Learning with Deep Generative Replay", arXiv:1705.08690, 24 May 2017.
上述のシステムでは、新たな概念を含む学習データを使用して当該概念を判別できるようなモデルの生成を目的とする。しかしながら、これまでに学習した概念と、新たな学習データが含む概念とがオーバーラップしていない(概念が類似していない)場合、これまでの学習結果がモデルに反映されず、モデルからこれまでに学習した概念が忘却される可能性がある。
1つの側面では、本発明は、新たな概念の学習時に学習済みの概念が損なわれることを抑制できる逐次学習プログラム、逐次学習装置および逐次学習方法を提供することを目的とする。
一態様では、逐次学習プログラムは、第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、前記第1の生成器からの出力を偽として前記判別器に入力する、処理をコンピュータに実行させる。
新たな概念の学習時に学習済みの概念が損なわれることを抑制できる。
図1は、実施例1に係る逐次学習装置の機能的構成の一例を示すブロック図である。 図2は、既成の生成部の生成画像を用いて学習する動作を説明する図である。 図3は、第1のタスクとして特定の画像のみを判別する動作を説明する図である。 図4は、第2のタスクとして既成の生成部の生成画像を用いて差集合に係る画像を判別する動作を説明する図である。 図5は、実施例1に係る逐次学習装置の学習動作の流れの一例を示すフローチャートである。 図6は、既成の生成部の生成画像を用いて学習する動作を説明する図である。 図7は、第2のタスクとして既成の生成部の生成画像を用いて和集合に係る画像を判別する動作を説明する図である。 図8は、従来技術の解答部の学習動作を説明する図である。 図9は、実施例2に係る逐次学習装置の学習動作の流れの一例を示すフローチャートである。 図10は、実施例3における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がある場合の動作を説明する図である。 図11は、実施例3における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がない場合の動作を説明する図である。 図12は、実施例4における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がある場合の動作を説明する図である。 図13は、実施例4における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がない場合の動作を説明する図である。 図14は、実施例1〜実施例4に係る逐次学習プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。
以下に添付図面を参照して本願に係る逐次学習プログラム、逐次学習装置および逐次学習方法について説明する。なお、以下の各実施例は開示の技術を限定するものではない。そして、以下の各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[逐次学習装置の機能的構成]
図1は、実施例1に係る逐次学習装置の機能的構成の一例を示すブロック図である。図1を参照しながら、本実施例に係る逐次学習装置10の機能的構成の一例について説明する。
図1に示す逐次学習装置10は、GANを利用して、新たな学習データ、および、既に作成した生成モデルの出力(生成データ)を用いてモデルを学習(逐次学習)する装置である。図1に示すように、逐次学習装置10は、通信部11と、制御部12と、記憶部13とを含む。なお、以下では、学習データ、および生成モデルが出力するデータ等が「画像」であるものとして説明する。
通信部11は、他の逐次学習装置10および外部装置とデータ通信を行う処理部である。具体的には、通信部11は、例えば、他の逐次学習装置10における生成モデルからの出力(生成データ)を受信したり、または、制御部12に含まれる生成モデルが出力した生成データを外部に送信する。
制御部12は、逐次学習の処理を行う処理部である。図1に示すように、制御部12は、生成部121と、判別部122と、を含む。なお、生成部121は、第1の生成器、第2の生成器、第3の生成器、第4の生成器それぞれの一例に対応する。また、判別部122は、第1の判別器、第2の判別器、第3の判別器、第4の判別器それぞれの一例に対応する。
生成部121は、乱数等のデータを入力し、判別部122に真の画像として判別させるような画像を生成データの一例としての生成画像として生成する処理部(生成モデル)である。また、生成部121は、生成した生成画像を判別部122へ出力し、判別部122による判別結果を受け取って、判別部122が真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。
判別部122は、画像を入力して、当該画像が真の画像であるか否かを判別する処理部(判別モデル)である。ここで、判別部122により、入力した真の画像が「真」と判別された場合、および、偽の画像が「偽」と判別された場合、判別結果は正答であるものとする。一方、判別部122により、入力した真の画像が「偽」と判別された場合、および、偽の画像が「真」と判別された場合、判別結果は誤答であるものとする。
判別部122は、後述する記憶部13に記憶された所定の被写体が写った新たな学習データである実画像131を真の画像として入力し、生成部121により生成された生成画像を偽の画像として入力し、それぞれの画像の真偽を判別する。なお、実画像131は、第1のデータ群、第2のデータ群、第3のデータ群それぞれの一例に対応する。また、判別部122は、生成部121により生成された生成画像に対する判別結果を生成部121へ出力する。そして、判別部122は、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。例えば、判別部122は、偽の画像として入力した生成画像に対して「真」と判別した場合、その判別結果は誤答となる。また、判別部122は、後述するように、既に作成された生成部121とは異なる生成部(生成モデル)により生成された生成画像を入力して、当該生成画像の真偽を判別し、その判別結果に基づいて上述と同様に学習を行う。
記憶部13は、制御部12で実行されるOS(Operating System)、上述の生成部121および判別部122の学習処理を実現する逐次学習プログラム、および、アプリケーションプログラムまたはミドルウェア等の各種プログラムに用いられるデータ等を記憶する記憶デバイスである。また、記憶部13は、上述のように、所定の被写体が写った新たな学習データとしての実画像131を記憶する。
ここで、記憶部13に記憶された新たな学習データは、例えば、学習済みモデル(判別モデル)の作成を依頼する業者が提供する知的財産に係るデータである。この場合、その学習データの提供を受けた業者は、当該学習データを利用して、本実施例に係る逐次学習装置10の学習処理により作成された判別モデルを、学習データを提供した業者に納品する。例えば、アメリカの野鳥の画像を判別する判別モデルの作成を依頼する業者は、当該判別モデルの作成を請け負う業者に対して、アメリカの野鳥の実画像のデータを学習データとして提供する。また、依頼を受けた業者が納品する形態としては、例えば、作成した判別モデルの実体に係るデータ(パラメータ等)を記憶した記録媒体を納品するものとしてもよい。または、作成した判別モデルを搭載し、入力した評価データに対して判別処理を可能とする情報処理装置もしくは情報処理システムを納品するものとしてもよい。この際、上述したように、学習の作業実施後には、利用した学習データの破棄が求められる場合が多い。詳細は後述するが、本実施例に係る逐次学習装置10では、過去に利用した学習データは破棄されたとしても、その学習データを利用した学習により作成された生成モデルを保持しておくことができる。そして、破棄された過去の学習データの代わりに当該生成モデルが生成する生成データを利用し、さらに、新たに提供された学習データを利用した学習処理によって、新たな生成モデルおよび判別モデルを得ることができる。この場合、既に作成された生成モデルは、過去の学習データに基づく学習結果(過去の学習データの確率分布)を含んでいるため当該確率分布を忘却することがない。さらに、新たに利用する学習データの確率分布にも適合した、すなわち、新たな学習データが含む新たな概念を学習したモデル(生成モデルおよび判別モデル)を得ることができる。
[逐次学習装置の学習処理の概要]
図2は、既成の生成部の生成画像を用いて学習する動作を説明する図である。図2を参照しながら、本実施例に係る逐次学習装置10の学習処理の概要の一例を説明する。なお、図2に基づく説明の中で言及する画像は、野鳥に係る画像であるものとする。
図2に示す逐次学習装置10a〜10cは、それぞれ本実施例に係る逐次学習装置10と同様の装置であるものとする。そして、逐次学習装置10aは、上述の生成部121、判別部122および記憶部13と同様の機能を有する生成部121a、判別部122aおよび記憶部13aを有する。同様に、逐次学習装置10bは、生成部121b、判別部122bおよび記憶部13bを有し、逐次学習装置10cは、生成部121c、判別部122cおよび記憶部13cを有する。なお、生成部121aは、第1の生成器の一例に対応する。また、判別部122aは、第1の判別器の一例に対応する。また、生成部121bは、第2の生成器の一例に対応する。また、判別部122bは、第2の判別器の一例に対応する。また、生成部121cは、第3の生成器の一例に対応する。また、判別部122cは、第3の判別器の一例に対応する。
ここで、図2に示す記号について、以下のように定義する。なお、下記における「G」は、「generator」の頭文字に対応し、下記における「D」は、「discriminator」の頭文字に対応する。
X:野鳥画像の確率変数
:集合Sに属する国およびそのいずれでもないことを表す確率変数
G(X|C):国の集合Sにより条件づけられた野鳥画像の確率変数Xの確率分布、およびその生成モデル
D(C|X):確率変数Xに対応する野鳥画像を見たとき、国の集合Sの野鳥だと判別する確率分布、およびその判別モデル
図2に示すように、逐次学習装置10aにおいて、生成部121a(G(X|C{加}))は、乱数等のデータを入力し、判別部122aにカナダ(加)の野鳥の生成画像を真の画像として判別させるような生成画像を生成し、判別部122aへ出力する。なお、生成部121aにより生成される生成画像は、第1の生成データの一例に対応する。
判別部122a(D(C{加}|X))は、記憶部13aに記憶された学習データであるカナダ(加)の野鳥の実画像131aを真の画像として入力し、生成部121aにより生成された野鳥の生成画像を偽の画像として入力する。なお、実画像131aは、第1のデータ群の一例に対応する。そして、判別部122aは、入力したそれぞれの画像の真偽を判別する。また、判別部122aは、生成部121aにより生成された生成画像に対する判別結果を生成部121aへ出力する。そして、判別部122aは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122aは、カナダ(加)の野鳥の画像のみを識別するように学習する。
さらに、生成部121aは、判別部122aによる判別結果を受け取り、判別部122aが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121aは、カナダ(加)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、通常のGANの動作に従って、生成部121aおよび判別部122aの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。そして、学習処理後、学習に使用された学習データ(カナダ(加)の野鳥の実画像131a)は破棄される。また、例えば、上述の学習データを提供し、カナダ(加)の野鳥の画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。ここで、判別モデルを納品した業者にとって、学習に使用した学習データ(カナダ(加)の野鳥の実画像131a)は破棄されて手元には残らないが、カナダ(加)の野鳥の実画像と同一または類似する画像を生成することができる生成モデル(生成部121a)は、手元に残ることになる。
次に、図2に示すように、逐次学習装置10bにおいて、生成部121b(G(X|C{米}))は、乱数等のデータを入力し、判別部122bに真の画像(ここでは、アメリカ(米)の野鳥の生成画像)として判別させるような生成画像を生成し、判別部122bへ出力する。なお、生成部121bにより生成される生成画像は、第2の生成データの一例に対応する。
判別部122b(D(C{米}|X))は、記憶部13bに記憶された新たな学習データであるアメリカ(米)の野鳥の実画像131bを真の画像として入力し、生成部121bにより生成された野鳥の生成画像を偽の画像として入力する。なお、実画像131bは、第2のデータ群の一例に対応する。さらに、判別部122bは、既に作成された生成モデルである生成部121aにより生成されたカナダ(加)の野鳥の生成画像を偽の画像として入力する。そして、判別部122bは、入力したそれぞれの画像の真偽を判別する。また、判別部122bは、生成部121bにより生成された生成画像に対する判別結果を生成部121bへ出力する。そして、判別部122bは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122bは、アメリカ(米)の野鳥の画像のみを識別するように学習する。
さらに、生成部121bは、判別部122bによる判別結果を受け取り、判別部122bが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121bは、アメリカ(米)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、生成部121bおよび判別部122bの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。ここで、逐次学習装置10bにおいては、逐次学習装置10aにおける学習で使用していたカナダ(加)の野鳥の実画像131aは破棄されているので、その代替として、既に生成モデルとして作成されている生成部121aが生成するカナダ(加)の野鳥の生成画像を偽の画像として、判別部122bに入力させるものとしている。すなわち、判別部122bには、新たな学習データであるアメリカ(米)の野鳥の実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部121a)が生成するカナダ(加)の野鳥の生成画像が偽の画像として入力される。したがって、判別部122bは、過去の学習データ(カナダ(加)の野鳥の実画像)に基づく学習結果を含む生成モデル(生成部121a)の生成画像を偽の画像として入力している。よって、当該学習結果を忘却することなく、新たな学習データ(アメリカ(米)の野鳥の実画像)の概念のみを際立たせて識別することができるようになる。また、生成部121bは、上述のような判別部122bに真の画像(アメリカ(米)の野鳥の実画像)として判別させるような画像を生成することができるようになるので、生成部121bによる画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データ(アメリカ(米)の野鳥の実画像)の概念のみを際立たせて生成することができるようになる。
そして、学習処理後、学習に使用された学習データ(アメリカ(米)の野鳥の実画像131b)は破棄される。また、例えば、上述の学習データを提供し、アメリカ(米)の野鳥の画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。ここで、判別モデルを納品した業者にとって、学習に使用した学習データ(アメリカ(米)の野鳥の実画像131b)は破棄されて手元には残らないが、アメリカ(米)の野鳥の実画像と同一または類似する画像を生成することができる生成モデル(生成部121b)は、手元に残ることになる。
次に、図2に示すように、逐次学習装置10cにおいて、生成部121c(G(X|C{墨}))は、乱数等のデータを入力し、判別部122cに真の画像(ここでは、メキシコ(墨)の野鳥の生成画像)として判別させるような生成画像を生成し、判別部122cへ出力する。なお、生成部121cにより生成される生成画像は、第3の生成データの一例に対応する。
判別部122c(D(C{墨}|X))は、記憶部13cに記憶された新たな学習データであるメキシコ(墨)の野鳥の実画像131c(第3のデータ群の一例)を真の画像として入力し、生成部121cにより生成された野鳥の生成画像を偽の画像として入力する。さらに、判別部122cは、既に作成された生成モデルである生成部121bにより生成されたアメリカ(米)の野鳥の生成画像を偽の画像として入力する。そして、判別部122cは、入力したそれぞれの画像の真偽を判別する。また、判別部122cは、生成部121cにより生成された生成画像に対する判別結果を生成部121cへ出力する。そして、判別部122cは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122cは、メキシコ(墨)の野鳥の画像のみを識別するように学習する。
さらに、生成部121cは、判別部122cによる判別結果を受け取り、判別部122cが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121cは、メキシコ(墨)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、生成部121cおよび判別部122cの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。ここで、逐次学習装置10cにおいては、逐次学習装置10bにおける学習で使用していたアメリカ(米)の野鳥の実画像131bは破棄されているので、その代替として、既に生成モデルとして作成されている生成部121bが生成するアメリカ(米)の野鳥の生成画像を偽の画像として、判別部122cに入力させるものとしている。すなわち、判別部122cには、新たな学習データであるメキシコ(墨)の野鳥の実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部121b)が生成するアメリカ(米)の野鳥の生成画像が偽の画像として入力される。したがって、判別部122cは、過去の学習データ(アメリカ(米)およびカナダ(加)の野鳥の実画像)に基づく学習結果を含む生成モデル(生成部121b)の生成画像を偽の画像として入力している。よって、当該学習結果を忘却することなく、新たな学習データ(メキシコ(墨)の野鳥の実画像)の概念のみを際立たせて識別することができるようになる。また、生成部121cは、上述のような判別部122cに真の画像(メキシコ(墨)の野鳥の実画像)として判別させるような画像を生成することができるようになるので、生成部121cによる画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データ(メキシコ(墨)の野鳥の実画像)の概念のみを際立たせて生成することができるようになる。
そして、学習処理後、学習に使用された学習データ(メキシコ(墨)の野鳥の実画像131c)は破棄される。また、例えば、上述の学習データを提供し、メキシコ(墨)の野鳥の画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。ここで、判別モデルを納品した業者にとって、学習に使用した学習データ(メキシコ(墨)の野鳥の実画像131c)は破棄されて手元には残らないが、メキシコ(墨)の野鳥の実画像と同一または類似する画像を生成することができる生成モデル(生成部121c)は、手元に残ることになる。
なお、図2では、便宜上、逐次学習装置10a〜10cというように装置を分けて説明したが、これに限定されるものではなく、同一の装置(逐次学習装置10)上でそれぞれの学習処理が行われるものとしてもよい。例えば、逐次学習装置10bの判別部122bは、逐次学習装置10aの生成部121aからの生成画像を入力するものとしているが、逐次学習装置10a上で生成部121aの生成モデルとしての機能を残存させるものとしてもよい。そして、記憶部13aに実画像131bを記憶させ、同じ逐次学習装置10a上で、生成部121bおよび判別部122bの学習処理を実行させるものとしてもよい。
[逐次学習装置の学習処理の詳細]
図3は、第1のタスクとして特定の画像のみを判別する動作を説明する図である。図4は、第2のタスクとして既成の生成部の生成画像を用いて差集合に係る画像を判別する動作を説明する図である。図3および図4を参照しながら、本実施例に係る逐次学習装置10の学習処理の詳細の一例を説明する。
まず、図3に示すように、逐次学習装置10a(図2参照)の記憶部13aは、学習データとしてカラスの実画像132aを記憶しているものとする。なお、実画像132aは、第1のデータ群の一例に対応する。以下、第1のタスクとして、カラスの画像のみを判別するモデルを作成する処理について説明する。逐次学習装置10aにおいて、生成部121a(G(X|C{カラス}))は、乱数等のデータを入力し、判別部122aにカラスの画像を真の画像として判別させるような生成画像201を生成し、判別部122aへ出力する。なお、生成画像201は、第1の生成データの一例に対応する。ただし、図3に示す生成画像201のように、生成部121aが学習の初期の段階で生成する画像は、カラスの形状としては違和感のあるノイズを含むような画像となっている。
判別部122a(D(C{カラス}|X))は、記憶部13aに記憶された学習データであるカラスの実画像132aを真の画像として入力し、生成部121aにより生成されたカラスの生成画像を偽の画像として入力する。そして、判別部122aは、入力したそれぞれの画像の真偽を判別する。また、判別部122aは、生成部121aにより生成された生成画像に対する判別により正答であるのか誤答であるのかという判別結果を生成部121aへ出力する。そして、判別部122aは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122aは、カラスの画像を精度よく識別するように学習する。
さらに、生成部121aは、判別部122aによる判別結果を受け取り、判別部122aが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121aは、カラスの画像と識別されるような画像を生成するように学習する。したがって、図3に示す生成画像201は、上述のように、学習の初期の段階では、カラスの形状としては違和感のあるノイズを含むような画像となっているが、学習が進むにつれて、カラスの実画像に近い画像が生成できるようになる。
上述のような、通常のGANの動作に従って、生成部121aおよび判別部122aの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。そして、学習処理後、学習に使用された学習データ(カラスの実画像131b)は破棄される。また、例えば、上述の学習データを提供し、カラスの画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。
次に、図4に示すように、逐次学習装置10b(図2参照)の記憶部13bは、学習データとしてペリカンの実画像132bを記憶しているものとする。なお、実画像132bは、第2のデータ群の一例に対応する。以下、第2のタスクとして、ペリカンの画像のみを判別するモデルを作成する処理について説明する。逐次学習装置10bにおいて、生成部121b(G(X|C{ペリカン}))は、乱数等のデータを入力し、判別部122bにペリカンの画像を真の画像として判別させるような生成画像202を生成し、判別部122bへ出力する。なお、生成画像202は、第2の生成データの一例に対応する。ただし、図4に示す生成画像202のように、生成部121bが学習の初期の段階で生成する画像は、ペリカンの形状としては違和感のあるノイズを含むような画像となっている。
判別部122b(D(C{ペリカン}|X))は、記憶部13bに記憶された新たな学習データであるペリカンの実画像132bを真の画像として入力し、生成部121bにより生成されたペリカンの生成画像を偽の画像として入力する。さらに、判別部122bは、既に作成された生成モデルである生成部121a(G(X|C{カラス}))により生成されたカラスの生成画像201aを偽の画像として入力する。なお、生成画像201aは、第1の生成データの一例に対応する。そして、判別部122bは、入力したそれぞれの画像の真偽を判別する。また、判別部122bは、生成部121bにより生成された生成画像に対する判別結果を生成部121bへ出力する。そして、判別部122bは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122bは、ペリカンの画像のみを識別するように学習する。
さらに、生成部121bは、判別部122bによる判別結果を受け取り、判別部122bが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121bは、ペリカンの画像と識別されるような画像を生成するように学習する。
上述のような、生成部121bおよび判別部122bの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。ここで、逐次学習装置10bにおいては、逐次学習装置10aにおける学習で使用していたカラスの実画像132aは破棄されているので、その代替として、既に生成モデルとして作成されている生成部121aが生成するカラスの生成画像を偽の画像として、判別部122bに入力させるものとしている。すなわち、判別部122bには、新たな学習データであるペリカンの実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部121a)が生成するカラスの生成画像が偽の画像として入力される。したがって、判別部122bは、過去の学習データ(カラスの実画像)に基づく学習結果を含む生成モデル(生成部121a)の生成画像を偽の画像として入力している。よって、当該学習結果を忘却することなく、新たな学習データ(ペリカンの実画像)の概念のみを際立たせて識別することができるようになる。また、生成部121bは、上述のような判別部122bに真の画像(ペリカンの実画像)として判別させるような画像を生成することができるようになるので、生成部121bによる画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データ(ペリカンの実画像)の概念のみを際立たせて生成することができるようになる。
そして、学習処理後、学習に使用された学習データ(ペリカンの実画像132b)は破棄される。また、例えば、上述の学習データを提供し、ペリカンの画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。
[処理の流れ]
図5は、実施例1に係る逐次学習装置の学習動作の流れの一例を示すフローチャートである。図5を参照しながら、本実施例に係る逐次学習装置10の学習動作の流れの一例を説明する。なお、図5では、逐次学習装置10としての逐次学習装置10bにおける学習動作に着目して説明する。
まず、生成部121bは、乱数等のデータを入力し、判別部122bに真の画像として判別させるような生成画像を生成する(ステップS11)。次に、判別部122bは、生成部121bにより生成された生成画像を偽の画像として入力する(ステップS12)。そして、判別部122bは、入力した生成画像について真偽を判別し、その判別結果に基づいて、入力した画像が真の画像か偽の画像かをさらに精度よく判別ができるようなパラメータを求めて更新する(ステップS13)。これによって、判別部122bは、真の画像を精度よく識別するように学習する。
判別部122bは、生成部121bにより生成された生成画像に対する上述の判別結果を、生成部121bへ出力する(ステップS14)。そして、生成部121bは、判別部122bによる判別結果を受け取り、判別部122bが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新する(ステップS15)。これによって、生成部121bは、判別部122bにより真の画像と識別されるような画像を生成するように学習する。
また、判別部122bは、記憶部13bに記憶された新たな学習データである実画像を真の画像として入力する(ステップS16)。そして、判別部122bは、入力した実画像の真偽を判別し、その判別結果に基づいて、入力した画像が真の画像か偽の画像かをさらに精度よく判別ができるようなパラメータを求めて更新する(ステップS17)。これによって、判別部122bは、真の画像を精度よく識別するように学習する。
また、判別部122bは、既に作成された生成モデルである生成部121aにより生成された生成画像を偽の画像として入力する(ステップS18)。そして、判別部122bは、入力した生成画像について真偽を判別し、その判別結果に基づいて、入力した画像が真の画像か偽の画像かをさらに精度よく判別ができるようなパラメータを求めて更新する(ステップS19)。これによって、判別部122bは、真の画像を精度よく識別するように学習する。
以上のステップS11〜S19の処理が繰り返されることにより、逐次学習装置10の学習動作が行われる。なお、逐次学習装置10の学習動作の流れは、ステップS11〜S19の順序に限定されるものではない。上述のように、ステップS11〜S15は、生成部121bにより生成された生成画像を扱う処理であり、ステップS16およびS17は、記憶部13bに記憶された実画像を扱う処理であり、ステップS18およびS19は、既に作成された生成モデルである生成部121aにより生成された生成画像を扱う処理である。例えば、これらの処理が順不同に実行されるものとしてもよい。また、上述の処理が1回ずつ行われることに限らず、例えば、記憶部13bに記憶された実画像を扱う処理が連続で行われることがあってもよい。
[効果の一側面]
以上のように、本実施例に係る逐次学習装置10では、既に生成モデルとして作成されている生成部が生成する生成画像を偽の画像として、判別部に入力させるものとしている。すなわち、判別部には、新たな学習データである実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部)が生成する生成画像が偽の画像として入力される。したがって、判別部は、過去の学習データに基づく学習結果を含む生成モデル(生成部)の生成画像を偽の画像として入力しているので、当該学習結果を忘却することなく、新たな学習データの概念のみを際立たせて識別することができるようになる。すなわち、これまでの学習結果を利用して、新たな概念に対する判別精度を向上させることができる。また、新たな判別部および生成部についての学習の際に用いる既に学習済みの生成モデルについては、任意のモデルを選択して用いることが可能である。この場合、学習済みのすべての生成モデルを用いるものとしてもよい。また、新たに作成される生成部は、上述のような判別部に真の画像として判別させるような画像を生成することができるようになるので、生成部による画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データの概念のみを際立たせて生成することができるようになる。
実施例2に係る逐次学習装置10について、実施例1に係る逐次学習装置10と相違する点を中心に説明する。実施例1では、既に生成された生成モデルにより生成されたデータを、新たに作成する判別モデルに対して偽のデータ(画像)として入力させていたのに対し、実施例2では、真のデータ(画像)として入力させる場合の動作について説明する。なお、実施例2に係る逐次学習装置10の機能的構成は、図1に示した実施例1に係る逐次学習装置10の構成と同様である。
[逐次学習装置の学習処理の概要]
図6は、既成の生成部の生成画像を用いて学習する動作を説明する図である。図6を参照しながら、本実施例に係る逐次学習装置10の学習処理の概要の一例を説明する。なお、図6に基づく説明の中で言及する画像は、野鳥に係る画像であるものとする。
図6に示すように、逐次学習装置10aにおいて、生成部121a(G(X|C{加}))は、乱数等のデータを入力し、判別部122aに真の画像(ここでは、カナダ(加)の野鳥の生成画像)として判別させるような生成画像を生成し、判別部122aへ出力する。なお、生成部121aにより生成される生成画像は、第1の生成データの一例に対応する。
判別部122a(D(C{加}|X))は、記憶部13aに記憶された学習データであるカナダ(加)の野鳥の実画像131aを真の画像として入力し、生成部121aにより生成された野鳥の生成画像を偽の画像として入力する。そして、判別部122aは、入力したそれぞれの画像の真偽を判別する。また、判別部122aは、生成部121aにより生成された生成画像に対する判別結果を生成部121aへ出力する。そして、判別部122aは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122aは、カナダ(加)の野鳥の画像のみを識別するように学習する。
さらに、生成部121aは、判別部122aによる判別結果を受け取り、判別部122aが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121aは、カナダ(加)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、通常のGANの動作に従って、生成部121aおよび判別部122aの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。そして、学習処理後、学習に使用された学習データ(カナダ(加)の野鳥の実画像131a)は破棄される。また、例えば、上述の学習データを提供し、カナダ(加)の野鳥の画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。ここで、判別モデルを納品した業者にとって、学習に使用した学習データ(カナダ(加)の野鳥の実画像131a)は破棄されて手元には残らないが、カナダ(加)の野鳥の実画像と同一または類似する画像を生成することができる生成モデル(生成部121a)は、手元に残ることになる。
次に、図6に示すように、逐次学習装置10bにおいて、生成部121b(G(X|C{米,加}))は、乱数等のデータを入力し、判別部122bに真の画像(ここでは、アメリカ(米)またはカナダ(加)の野鳥の生成画像)として判別させるような生成画像を生成し、判別部122bへ出力する。なお、生成部121bにより生成される生成画像は、第2の生成データの一例に対応する。
判別部122b(D(C{米,加}|X))は、記憶部13bに記憶された新たな学習データであるアメリカ(米)の野鳥の実画像131bを真の画像として入力し、生成部121bにより生成された野鳥の生成画像を偽の画像として入力する。さらに、判別部122bは、既に作成された生成モデルである生成部121aにより生成されたカナダ(加)の野鳥の生成画像を真の画像として入力する。そして、判別部122bは、入力したそれぞれの画像の真偽を判別する。また、判別部122bは、生成部121bにより生成された生成画像に対する判別結果を生成部121bへ出力する。そして、判別部122bは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122bは、アメリカ(米)の野鳥の画像またはカナダ(加)の野鳥の画像を識別するように学習する。
さらに、生成部121bは、判別部122bによる判別結果を受け取り、判別部122bが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121bは、アメリカ(米)の野鳥の画像またはカナダ(加)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、生成部121bおよび判別部122bの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。ここで、逐次学習装置10bにおいては、逐次学習装置10aにおける学習で使用していたカナダ(加)の野鳥の実画像131aは破棄されているので、その代替として、既に生成モデルとして作成されている生成部121aが生成するカナダ(加)の野鳥の生成画像を真の画像として、判別部122bに入力させるものとしている。すなわち、判別部122bには、新たな学習データであるアメリカ(米)の野鳥の実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部121a)が生成するカナダ(加)の野鳥の生成画像が真の画像として入力される。したがって、判別部122bは、過去の学習データ(カナダ(加)の野鳥の実画像)に基づく学習結果を含む生成モデル(生成部121a)の生成画像を真の画像として入力している。よって、当該学習結果を忘却することなく、既に学習した概念(カナダ(加)の野鳥の画像)に対して、新たな学習データ(アメリカ(米)の野鳥の実画像)の概念を追加して識別することができるようになる。また、生成部121bは、上述のような判別部122bに真の画像(アメリカ(米)またはカナダ(加)の野鳥の実画像)として判別させるような画像を生成することができるようになるので、生成部121bによる画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データ(アメリカ(米)の野鳥の実画像)の概念を追加して生成することができるようになる。
そして、学習処理後、学習に使用された学習データ(アメリカ(米)の野鳥の実画像131b)は破棄される。また、例えば、上述の学習データを提供し、アメリカ(米)またはカナダ(加)の野鳥の画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。ここで、判別モデルを納品した業者にとって、学習に使用した学習データ(アメリカ(米)の野鳥の実画像131b)は破棄されて手元には残らないが、アメリカ(米)またはカナダ(加)の野鳥の実画像と同一または類似する画像を生成することができる生成モデル(生成部121b)は、手元に残ることになる。
次に、図6に示すように、逐次学習装置10cにおいて、生成部121c(G(X|C{墨,米,加}))は、乱数等のデータを入力し、判別部122cに真の画像(ここでは、メキシコ(墨)、アメリカ(米)またはカナダ(加)の野鳥の生成画像)として判別させるような生成画像を生成し、判別部122cへ出力する。なお、生成部121cにより生成される生成画像は、第3の生成データの一例に対応する。
判別部122c(D(C{墨,米,加}|X))は、記憶部13cに記憶された新たな学習データであるメキシコ(墨)の野鳥の実画像131cを真の画像として入力し、生成部121cにより生成された野鳥の生成画像を偽の画像として入力する。さらに、判別部122cは、既に作成された生成モデルである生成部121bにより生成されたアメリカ(米)またはカナダ(加)の野鳥の生成画像を偽の画像として入力する。そして、判別部122cは、入力したそれぞれの画像の真偽を判別する。また、判別部122cは、生成部121cにより生成された生成画像に対する判別結果を生成部121cへ出力する。そして、判別部122cは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122cは、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を識別するように学習する。
さらに、生成部121cは、判別部122cによる判別結果を受け取り、判別部122cが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121cは、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)と識別されるような画像を生成するように学習する。
上述のような、生成部121cおよび判別部122cの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。ここで、逐次学習装置10cにおいては、逐次学習装置10bにおける学習で使用していたアメリカ(米)の野鳥の実画像131bは破棄されているので、その代替として、既に生成モデルとして作成されている生成部121bが生成するアメリカ(米)またはカナダ(加)の野鳥の生成画像を真の画像として、判別部122cに入力させるものとしている。すなわち、判別部122cには、新たな学習データであるメキシコ(墨)の野鳥の実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部121b)が生成するアメリカ(米)またはカナダ(加)の野鳥の生成画像が真の画像として入力される。したがって、判別部122cは、過去の学習データ(アメリカ(米)およびカナダ(加)の野鳥の実画像)に基づく学習結果を含む生成モデル(生成部121b)の生成画像を真の画像として入力している。よって、当該学習結果を忘却することなく、既に学習した概念(アメリカ(米)およびカナダ(加)の野鳥の画像)に対して、新たな学習データ(メキシコ(墨)の野鳥の実画像)の概念を追加して識別することができるようになる。また、生成部121cは、上述のような判別部122cに真の画像(メキシコ(墨)、アメリカ(米)またはカナダ(加)の野鳥の実画像)として判別させるような画像を生成することができるようになるので、生成部121cによる画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データ(メキシコ(墨)の野鳥の実画像)の概念を追加して生成することができるようになる。
そして、学習処理後、学習に使用された学習データ(メキシコ(墨)の野鳥の実画像131c)は破棄される。また、例えば、上述の学習データを提供し、メキシコ(墨)、アメリカ(米)またはカナダ(加)の野鳥の画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。ここで、判別モデルを納品した業者にとって、学習に使用した学習データ(メキシコ(墨)の野鳥の実画像131c)は破棄されて手元には残らないが、メキシコ(墨)、アメリカ(米)またはカナダ(加)の野鳥の実画像と同一または類似する画像を生成することができる生成モデル(生成部121c)は、手元に残ることになる。
[逐次学習装置の学習処理の詳細、および、従来技術との差異]
図7は、第2のタスクとして既成の生成部の生成画像を用いて和集合に係る画像を判別する動作を説明する図である。図8は、従来技術の解答部の学習動作を説明する図である。図7および図8を参照しながら、本実施例に係る逐次学習装置10の学習処理の詳細の一例、および従来技術との差異について説明する。なお、第1のタスクとしての逐次学習装置10a(図6参照)におけるカラスの画像のみを判別するモデルを作成する処理については、上述の図3で説明した処理と同様であり、ここでは、当該処理が既に完了しているものとする。
図7に示すように、逐次学習装置10b(図6参照)の記憶部13bは、学習データとしてペリカンの実画像132bを記憶しているものとする。以下、第2のタスクとして、ペリカンまたはカラスの画像を判別するモデルを作成する処理について説明する。逐次学習装置10bにおいて、生成部121b(G(X|C{ペリカン,カラス}))は、乱数等のデータを入力し、判別部122bに真の画像(ここでは、ペリカンまたはカラスの画像)として判別させるような画像である生成画像202aを生成し、判別部122bへ出力する。なお、生成画像202aは、第2の生成データの一例に対応する。ただし、図7に示す生成画像202aのように、生成部121bが学習の初期の段階で生成する画像は、ペリカンまたはカラスの形状としては違和感のあるノイズを含むような画像となっている。
判別部122b(D(C{ペリカン,カラス}|X))は、記憶部13bに記憶された新たな学習データであるペリカンの実画像132bを真の画像として入力し、生成部121bにより生成されたペリカンまたはカラスの生成画像を偽の画像として入力する。さらに、判別部122bは、既に作成された生成モデルである生成部121a(G(X|C{カラス}))により生成されたカラスの生成画像201aを真の画像として入力する。なお、生成画像201aは、第1の生成データの一例に対応する。そして、判別部122bは、入力したそれぞれの画像の真偽を判別する。また、判別部122bは、生成部121bにより生成された生成画像に対する判別結果を生成部121bへ出力する。そして、判別部122bは、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122bは、ペリカンまたはカラスの画像を識別するように学習する。
さらに、生成部121bは、判別部122bによる判別結果を受け取り、判別部122bが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121bは、ペリカンまたはカラスの画像と識別されるような画像を生成するように学習する。
上述のような、生成部121bおよび判別部122bの学習処理が繰り返されることによって、それぞれ生成モデルおよび判別モデルが作成される。ここで、逐次学習装置10bにおいては、逐次学習装置10aにおける学習で使用していたカラスの実画像132aは破棄されているので、その代替として、既に生成モデルとして作成されている生成部121aが生成するカラスの生成画像を真の画像として、判別部122bに入力させるものとしている。すなわち、判別部122bには、新たな学習データであるペリカンの実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部121a)が生成するカラスの生成画像が真の画像として入力される。したがって、判別部122bは、過去の学習データ(カラスの実画像)に基づく学習結果を含む生成モデル(生成部121a)の生成画像を真の画像として入力している。よって、当該学習結果を忘却することなく、既に学習した概念(カラスの野鳥の画像)に対して、新たな学習データ(ペリカンの実画像)の概念を追加して識別することができるようになる。また、生成部121bは、上述のような判別部122bに真の画像(ペリカンまたはカラスの実画像)として判別させるような画像を生成することができるようになるので、生成部121bによる画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データ(ペリカンの実画像)の概念を追加して生成することができるようになる。
そして、学習処理後、学習に使用された学習データ(ペリカンの実画像132b)は破棄される。また、例えば、上述の学習データを提供し、ペリカンまたはカラスの画像を判別する判別モデルの作成を依頼した業者に対しては、当該判別モデルを上述のような納品態様に従って納品することが可能となる。
次に、図8を参照しながら、上述したsolverと称する解答部を作成する従来技術に係るシステム(以下の説明では「従来システム」と称する)と、本実施例に係る逐次学習装置10とを比較しながら、その差異について説明する。
上述のように、従来システムでは、まず、学習データを基にGANにより生成モデルを作成すると共に、学習データのラベルを予測して出力するsolverと称する解答モデルを、生成モデルと独立して学習により作成する。この学習の結果、生成モデルとして、図8に示すように、カラスおよびペリカンの画像を生成する生成部301(G(X|C{ペリカン,カラス}))が得られたものとする。
そして、新たな学習データとして、図8に示すように、ペリカンの実画像251と、「ペリカン」というラベルとを含む学習データが与えられ、解答モデルとしての解答部302に入力されるものとする。すなわち、解答部302は、ラベル付きの画像を学習データとして入力する。解答部302は、さらに、既に作成された生成部301が出力するカラスおよびペリカンの生成画像261を入力すると共に、上述の生成部301の学習の際に、独立して作成された解答部により出力される生成画像261のラベルである「カラス」または「ペリカン」のいずれかを入力する。解答部302は、入力したそれぞれの画像が何の画像であるのか、すなわち、どのようなラベルの画像であるのかを判別し、その判別結果に基づいて、入力した画像がどのラベルなのかを精度よく判別できるようなパラメータを求めて更新することで学習を行う。
ただし、このような従来システムでは、「solver」である解答部302(図8に示す解答部S)の学習の際に算出される下記の式(1)で表される損失関数について、これまでに学習した概念(例えば、生成部301の学習後に解答部312(図8に示す解答部S’)により学習された概念)と、新たな学習データが含む概念(実ラベル252)とがオーバーラップしていない場合、損失の第2項が常に一定(最大)になるという問題がある。
Figure 2020086539
この場合、損失の第1項のみが学習により低減可能であるため、新たな学習データのみで学習した場合と結果が同一となり、これまでに学習した概念を忘却した解答部302が解答モデルとして学習されてしまうことになる。例えば、図8に示す例では、これまでに学習した概念(カラスおよびペリカン)と、新たな学習データが含む概念(ペリカン)とがオーバーラップしているため、上述の影響は抑制されるものと考えられる。一方、仮に、新たな学習データがワシの画像であり、概念として全くオーバーラップしていないとした場合を考える。このとき、新たな学習データ(ワシの画像)とは概念がオーバーラップせず、これまで学習した概念(カラスおよびペリカン)を忘却した解答部302が得られることになる。また、従来システムでは、GANにおける生成モデルとは別に、新たに学習するための学習データごとに、「solver」である解答モデルを学習させる必要がある。
一方、本実施例に係る逐次学習装置10では、学習によって得られる判別部は、過去の学習データ(カラスおよびペリカンの実画像)に基づく学習結果を含む生成モデル(生成部121b)の生成画像を真の画像と、新たな学習データ(ワシの実画像)と、対になる生成モデルが生成した生成画像と、を入力とするGANの学習方式により得られたものを用いており、概念がオーパーラップしているか否かは問題にならない。また、本実施例に係る逐次学習装置10では、従来システムにおける解答モデルを作成する必要もない。
[処理の流れ]
図9は、実施例2に係る逐次学習装置の学習動作の流れの一例を示すフローチャートである。図9を参照しながら、本実施例に係る逐次学習装置10の学習動作の流れの一例を説明する。なお、図9では、逐次学習装置10としての逐次学習装置10b(図6参照)における学習動作に着目して説明する。
まず、生成部121bは、乱数等のデータを入力し、判別部122bに真の画像として判別させるような生成画像を生成する(ステップS31)。次に、判別部122bは、生成部121bにより生成された生成画像を偽の画像として入力する(ステップS32)。そして、判別部122bは、入力した生成画像について真偽を判別し、その判別結果に基づいて、入力した画像が真の画像か偽の画像かをさらに精度よく判別ができるようなパラメータを求めて更新する(ステップS33)。これによって、判別部122bは、真の画像を精度よく識別するように学習する。
判別部122bは、生成部121bにより生成された生成画像に対する上述の判別結果を、生成部121bへ出力する(ステップS34)。そして、生成部121bは、判別部122bによる判別結果を受け取り、判別部122bが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新する(ステップS35)。これによって、生成部121bは、判別部122bにより真の画像と識別されるような画像を生成するように学習する。
また、判別部122bは、記憶部13bに記憶された新たな学習データである実画像を真の画像として入力する(ステップS36)。そして、判別部122bは、入力した実画像の真偽を判別し、その判別結果に基づいて、入力した画像が真の画像か偽の画像かをさらに精度よく判別ができるようなパラメータを求めて更新する(ステップS37)。これによって、判別部122bは、真の画像を精度よく識別するように学習する。
また、判別部122bは、既に作成された生成モデルである生成部121aにより生成された生成画像を真の画像として入力する(ステップS38)。そして、判別部122bは、入力した生成画像について真偽を判別し、その判別結果に基づいて、入力した画像が真の画像か偽の画像かをさらに精度よく判別ができるようなパラメータを求めて更新する(ステップS39)。これによって、判別部122bは、真の画像を精度よく識別するように学習する。
以上のステップS31〜S39の処理が繰り返されることにより、逐次学習装置10の学習動作が行われる。なお、逐次学習装置10の学習動作の流れは、ステップS31〜S39の順序に限定されるものではない。上述のように、ステップS31〜S35は、生成部121bにより生成された生成画像を扱う処理であり、ステップS36およびS37は、記憶部13bに記憶された実画像を扱う処理であり、ステップS38およびS39は、既に作成された生成モデルである生成部121aにより生成された生成画像を扱う処理である。例えば、これらの処理が順不同に実行されるものとしてもよい。また、上述の処理が1回ずつ行われることに限らず、例えば、記憶部13bに記憶された実画像を扱う処理が連続で行われることがあってもよい。
[効果の一側面]
以上のように、本実施例に係る逐次学習装置10では、既に生成モデルとして作成されている生成部が生成する生成画像を真の画像として、判別部に入力させるものとしている。すなわち、判別部には、新たな学習データである実画像が真の画像として入力されると共に、既に作成された生成モデル(生成部)が生成する生成画像が真の画像として入力される。したがって、判別部は、過去の学習データに基づく学習結果を含む生成モデル(生成部)の生成画像を真の画像として入力しているので、当該学習結果を忘却することなく、既に学習した概念に対して、新たな学習データの概念を追加して識別することができるようになる。また、新たに作成される生成部は、上述のような判別部に真の画像として判別させるような画像を生成することができるようになるので、生成部による画像の生成処理についても、当該学習結果を忘却することなく、新たな学習データの概念を追加して生成することができるようになる。
実施例2に係る逐次学習装置10では、図6に示す例で上述したように、最後にメキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を識別するように学習した判別モデルが得られている。この場合、特定の業者から提供された学習データである野鳥に実画像が間違いが含まれている、または、品質が粗悪である等の理由により、得られたモデルから当該学習データの影響を除く必要性が生じる場合がある。実施例3では、最後の得られた生成部121cおよび判別部122cの各モデルに反映された学習データのうち、アメリカの学習データに問題があることが判明したことを想定し、当該学習データの影響を除いたモデルを再作成する動作について説明する。
[既に作成されたモデルからアメリカの学習データの影響を除く動作の一形態]
図10は、実施例3における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がある場合の動作を説明する図である。図10に示すように、既に作成されたモデルからアメリカの学習データ(アメリカの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っている場合の動作について説明する。
なお、図10においては、上述の図6で説明した逐次学習装置10cのモデルの生成までの動作と同様の動作が既に完了しているものとして説明する。また、アメリカの学習データの影響を除いたモデルを、仮に逐次学習装置10c_1で作成するものとし、当該逐次学習装置10c_1は、記憶部13cを含むものとする。
図10に示すように、逐次学習装置10c_1において、生成部121c_1(G(X|C{墨,加}))は、乱数等のデータを入力し、判別部122c_1に真の画像(ここでは、メキシコ(墨)またはカナダ(加)の野鳥の生成画像)として判別させるような生成画像を生成し、判別部122c_1へ出力する。なお、生成部121c_1は、第4の生成器の一例に対応する。また、生成部121c_1により生成される生成画像は、第4の生成データの一例に対応する。
判別部122c_1(D(C{墨,加}|X))は、記憶部13cに記憶されて残っている学習データであるメキシコ(墨)の野鳥の実画像131cを真の画像として入力し、生成部121c_1により生成された野鳥の生成画像を偽の画像として入力する。なお、判別部122c_1は、第4の判別器の一例に対応する。さらに、判別部122c_1は、既に作成された生成モデルである生成部121aにより生成されたカナダ(加)の野鳥の生成画像を真の画像として入力する。そして、判別部122c_1は、入力したそれぞれの画像の真偽を判別する。また、判別部122c_1は、生成部121c_1により生成された生成画像に対する判別結果を生成部121c_1へ出力する。そして、判別部122c_1は、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122c_1は、アメリカ(米)の野鳥の画像の影響が除かれたメキシコ(墨)またはカナダ(加)の野鳥の画像を識別するように学習する。
さらに、生成部121c_1は、判別部122c_1による判別結果を受け取り、判別部122bが真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121c_1は、アメリカ(米)の野鳥の画像の影響が除かれたメキシコ(墨)またはカナダ(加)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、生成部121c_1および判別部122c_1の学習処理が繰り返されることによって、アメリカ(米)の野鳥の画像の影響が除かれたメキシコ(墨)またはカナダ(加)の野鳥の画像についての生成モデルおよび判別モデルが作成される。ここで、アメリカの野鳥の画像の影響を除くために、判別部122c_1は、既に生成された生成モデルである生成部121bではなく、カナダ(加)の野鳥の画像を生成する生成部121aの生成画像を真の画像として入力するものとしている。したがって、判別部122c_1は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を識別する判別部122cに対して、アメリカ(米)の野鳥の画像の影響が除かれた画像を識別するような判別モデルとして再作成することができる。また、生成部121c_3は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を生成する生成部121cに対して、アメリカ(米)の野鳥の画像の影響が除かれた画像を生成するような生成モデルとして再作成することができる。
なお、図10では、便宜上、逐次学習装置10a〜10c、10c_1というように装置を分けて説明したが、これに限定されるものではなく、同一の装置(逐次学習装置10)上でそれぞれの学習処理が行われるものとしてもよい。例えば、逐次学習装置10c_1の判別部122c_1は、逐次学習装置10aの生成部121aから生成画像を入力するものとしているが、逐次学習装置10a上で生成部121aの生成モデルとしての機能を残存させるものとしてもよい。そして、記憶部13aに実画像131cを記憶させ、同じ逐次学習装置10a上で、生成部121c_1および判別部122c_1の学習処理を実行させるものとしてもよい。
[既に作成されたモデルからアメリカの学習データの影響を除く動作の別形態]
図11は、実施例3における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がない場合の動作を説明する図である。図11に示すように、既に作成されたモデルからアメリカの学習データ(アメリカの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っていない場合の動作について説明する。
なお、図11においては、上述の図6で説明した逐次学習装置10cのモデルの生成までの動作と同様の動作が既に完了しているものとして説明する。また、アメリカの学習データの影響を除いたモデルを、仮に逐次学習装置10c_2、10c_3を用いて作成するものとする。
図11の例では、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っていないため、まず、以下の手順で、逐次学習装置10c_2において、メキシコの野鳥の画像を生成できるような生成モデルの作成を行う。
図11に示すように、逐次学習装置10c_2において、生成部121c_2(G(X|C{墨}))は、乱数等のデータを入力し、判別部122c_2にメキシコ(墨)の野鳥の生成画像を真の画像として判別させるような生成画像を生成し、判別部122c_2へ出力する。
判別部122c_2(D(C{墨}|X))は、メキシコ(墨)の野鳥の実画像131cが既に破棄されているので、その代わりに、既に作成された生成モデルである生成部121cにより生成されたメキシコ(墨)、アメリカ(米)またはカナダ(加)の野鳥の画像を真の画像として入力する。また、判別部122c_2は、生成部121c_2により生成された野鳥の生成画像を偽の画像として入力する。さらに、判別部122c_2は、既に作成された生成モデルである生成部121bにより生成されたアメリカ(米)またはカナダ(加)の野鳥の生成画像を偽の画像として入力する。そして、判別部122c_2は、入力したそれぞれの画像の真偽を判別する。また、判別部122c_2は、生成部121c_2により生成された生成画像に対する判別結果を生成部121c_2へ出力する。そして、判別部122c_2は、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122c_2は、メキシコ(墨)の野鳥の画像のみを識別するように学習することになる。
さらに、生成部121c_2は、判別部122c_2による判別結果を受け取り、判別部122c_2が真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121c_2は、メキシコ(墨)の野鳥の画像と識別されるような画像を生成するように学習することになる。
次に、図11に示すように、逐次学習装置10c_3において、生成部121c_3(G(X|C{墨,加}))は、乱数等のデータを入力し、判別部122c_3にメキシコ(墨)またはカナダ(加)の野鳥の生成画像を真の画像として判別させるような生成画像を生成し、判別部122c_3へ出力する。
判別部122c_3(D(C{墨,加}|X))は、逐次学習装置10c_2で作成された生成モデルである生成部121c_2により生成されたメキシコ(墨)の野鳥の生成画像を真の画像として入力し、生成部121c_3により生成された野鳥の生成画像を偽の画像として入力する。さらに、判別部122c_3は、既に作成された生成モデルである生成部121aにより生成されたカナダ(加)の野鳥の生成画像を真の画像として入力する。そして、判別部122c_3は、入力したそれぞれの画像の真偽を判別する。また、判別部122c_3は、生成部121c_3により生成された生成画像に対する判別結果を生成部121c_3へ出力する。そして、判別部122c_3は、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122c_3は、メキシコ(墨)またはカナダ(加)の野鳥の画像を識別するように学習するようになり、アメリカ(米)の野鳥の画像の影響が除かれた状態となる。
さらに、生成部121c_3は、判別部122c_3による判別結果を受け取り、判別部122c_3が真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121c_3は、メキシコ(墨)またはカナダ(加)の野鳥の画像と識別されるような画像を生成するように学習するようになり、アメリカ(米)の野鳥の画像の影響が除かれた状態となる。
上述のような、逐次学習装置10c_2、10c_3での学習処理が行われることによって、アメリカ(米)の野鳥の画像の影響が除かれたメキシコ(墨)またはカナダ(加)の野鳥の画像についての生成モデルおよび判別モデルが作成される。ここで、メキシコの野鳥の実画像(学習データ)が手元に残っていないため、まず、逐次学習装置10c_2において、メキシコ(墨)の野鳥の画像を生成するような生成モデル(生成部121c_2)を作成するものとしている。そして、カナダ(加)の野鳥の画像を生成する生成部121aと、メキシコ(墨)の野鳥の画像を生成する生成部121c_2とを用いて、判別モデル(判別部122c_3)を作成するものとしている。したがって、判別部122c_3は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を識別する判別部122cに対して、アメリカ(米)の野鳥の画像の影響が除かれた画像を識別するような判別モデルとして再作成することができる。また、生成部121c_3は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を生成する生成部121cに対して、アメリカ(米)の野鳥の画像の影響が除かれた画像を生成するような生成モデルとして再作成することができる。
なお、図11では、便宜上、逐次学習装置10a〜10c、10c_2、10c_3というように装置を分けて説明したが、これに限定されるものではなく、同一の装置(逐次学習装置10)上でそれぞれの学習処理が行われるものとしてもよい。例えば、逐次学習装置10c_3の判別部122c_3は、逐次学習装置10c_2の生成部121c_2から生成画像を入力するものとしているが、逐次学習装置10c_2上で生成部121c_2の生成モデルとしての機能を残存させるものとしてもよい。そして、同じ逐次学習装置10c_2上で、生成部121c_3および判別部122c_3の学習処理を実行させるものとしてもよい。
[効果の一側面]
以上のように、本実施例に係る逐次学習装置10では、得られた生成モデルおよび判別モデルから、特定の学習データの影響を除く必要性が生じた場合、既に作成された生成モデルを選択的に用いる。これによって、当該学習データの影響が除かれた生成モデルおよび判別モデルを作成することができる。図10および図11で示した例では、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像についての生成モデルおよび判別モデルに対して、アメリカ(米)の野鳥の画像の影響が除かれた画像を識別および生成するような判別モデルおよび生成モデルをそれぞれ再作成することができる。
これに対して、従来システムでは、既に学習された学習データが後で誤っていること等が判明したとしても、当該学習データの影響を除外することはできない。
実施例3では、最後の得られた生成部121cおよび判別部122cの各モデルに反映された学習データのうち、アメリカの学習データの影響を除いたモデルを再作成する動作について説明した。実施例4では、最後の得られた生成部121cおよび判別部122cの各モデルに反映された学習データのうち、カナダの学習データに問題があることが判明したことを想定し、当該学習データの影響を除いたモデルを再作成する動作について説明する。
[既に作成されたモデルからカナダの学習データの影響を除く動作の一形態]
図12は、実施例4における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がある場合の動作を説明する図である。図12に示すように、既に作成されたモデルからカナダの学習データ(カナダの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っている場合の動作について説明する。
なお、図12においては、上述の図6で説明した逐次学習装置10cのモデルの生成までの動作と同様の動作が既に完了しているものとして説明する。また、カナダの学習データの影響を除いたモデルを、仮に逐次学習装置10c_4で作成するものとし、当該逐次学習装置10c_4は、記憶部13cを含むものとする。
図12に示すように、逐次学習装置10c_4において、生成部121c_4(G(X|C{墨,米}))は、乱数等のデータを入力し、判別部122c_4にメキシコ(墨)またはアメリカ(米)の野鳥の生成画像を真の画像として判別させるような生成画像を生成し、判別部122c_4へ出力する。なお、生成部121c_4は、第4の生成器の一例に対応する。また、生成部121c_4により生成される生成画像は、第4の生成データの一例に対応する。
判別部122c_4(D(C{墨,米}|X))は、記憶部13cに記憶されて残っている学習データであるメキシコ(墨)の野鳥の実画像131cを真の画像として入力し、生成部121c_4により生成された野鳥の生成画像を偽の画像として入力する。なお、判別部122c_4は、第4の判別器の一例に対応する。さらに、判別部122c_4は、既に作成された生成モデルである生成部121aにより生成されたカナダ(加)の野鳥の生成画像を偽の画像として入力し、既に作成された生成モデルである生成部121bで生成されたアメリカ(米)またはカナダ(加)の野鳥の生成画像を真の画像として入力する。そして、判別部122c_4は、入力したそれぞれの画像の真偽を判別する。また、判別部122c_4は、生成部121c_4により生成された生成画像に対する判別結果を生成部121c_4へ出力する。そして、判別部122c_4は、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122c_4は、カナダ(加)の野鳥の画像の影響が除かれたメキシコ(墨)またはアメリカ(米)の野鳥の画像を識別するように学習するようになる。
さらに、生成部121c_4は、判別部122c_4による判別結果を受け取り、判別部122c_4が真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121c_4は、カナダ(加)の野鳥の画像の影響が除かれたメキシコ(墨)またはアメリカ(米)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、生成部121c_4および判別部122c_4の学習処理が繰り返されることによって、カナダ(加)の野鳥の画像の影響が除かれたメキシコ(墨)またはアメリカ(米)の野鳥の画像についての生成モデルおよび判別モデルが作成される。ここで、カナダの野鳥の画像の影響を除くために、判別部122c_4は、既に生成された生成モデルである生成部121bの生成画像を真の画像として入力することに加えて、カナダ(加)の野鳥の画像を生成する生成部121aの生成画像を偽の画像として入力するものとしている。したがって、判別部122c_4は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を識別する判別部122cに対して、カナダ(加)の野鳥の画像の影響が除かれた画像を識別するような判別モデルとして再作成することができる。また、生成部121c_4は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を生成する生成部121cに対して、カナダ(加)の野鳥の画像の影響が除かれた画像を生成するような生成モデルとして再作成することができる。
なお、図12では、便宜上、逐次学習装置10a〜10c、10c_4というように装置を分けて説明したが、これに限定されるものではなく、同一の装置(逐次学習装置10)上でそれぞれの学習処理が行われるものとしてもよい。例えば、逐次学習装置10c_4の判別部122c_4は、逐次学習装置10aの生成部121aから生成画像を入力するものとしているが、逐次学習装置10a上で生成部121aの生成モデルとしての機能を残存させるものとしてもよい。そして、記憶部13aに実画像131cを記憶させ、同じ逐次学習装置10a上で、生成部121c_4および判別部122c_4の学習処理を実行させるものとしてもよい。
[既に作成されたモデルからカナダの学習データの影響を除く動作の別形態]
図13は、実施例4における学習後に特定の学習データの影響を除いたモデルの生成動作であって実画像がない場合の動作を説明する図である。図13に示すように、既に作成されたモデルからカナダの学習データ(カナダの野鳥の実画像)の影響を除く動作であって、逐次学習装置10cにおけるモデルの生成動作に用いられたメキシコの野鳥の実画像(学習データ)が手元に残っていない場合の動作について説明する。
なお、図13においては、上述の図6で説明した逐次学習装置10cのモデルの生成までの動作と同様の動作が既に完了しているものとして説明する。また、カナダの学習データの影響を除いたモデルを、仮に逐次学習装置10c_5で作成するものとする。
図13に示すように、逐次学習装置10c_5において、生成部121c_5(G(X|C{墨,米}))は、乱数等のデータを入力し、判別部122c_5にメキシコ(墨)またはアメリカ(米)の野鳥の生成画像を真の画像として判別させるような生成画像を生成し、判別部122c_5へ出力する。なお、生成部121c_5は、第4の生成器の一例に対応する。また、生成部121c_5により生成される生成画像は、第4の生成データの一例に対応する。
判別部122c_5(D(C{墨,米}|X))は、生成部121c_5により生成された野鳥の生成画像を偽の画像として入力する。なお、判別部122c_5は、第4の判別器の一例に対応する。さらに、判別部122c_5は、既に作成された生成モデルである生成部121aにより生成されたカナダ(加)の野鳥の生成画像を偽の画像として入力し、既に作成された生成モデルである生成部121cで生成されたメキシコ(墨)、アメリカ(米)またはカナダ(加)の野鳥の生成画像を真の画像として入力する。そして、判別部122c_5は、入力したそれぞれの画像の真偽を判別する。また、判別部122c_5は、生成部121c_5により生成された生成画像に対する判別結果を生成部121c_5へ出力する。そして、判別部122c_5は、それぞれの判別結果に基づいて、入力した画像が真の画像か偽の画像かを精度よく判別ができるようなパラメータを求めて更新することで学習を行う。すなわち、判別部122c_5は、カナダ(加)の野鳥の画像の影響が除かれたメキシコ(墨)またはアメリカ(米)の野鳥の画像を識別するように学習するようになる。
さらに、生成部121c_5は、判別部122c_5による判別結果を受け取り、判別部122c_5が真の画像との判別を困難とする画像を生成するようなパラメータを求めて更新することで学習を行う。すなわち、生成部121c_5は、カナダ(加)の野鳥の画像の影響が除かれたメキシコ(墨)またはアメリカ(米)の野鳥の画像と識別されるような画像を生成するように学習する。
上述のような、生成部121c_5および判別部122c_5の学習処理が繰り返されることによって、カナダ(加)の野鳥の画像の影響が除かれたメキシコ(墨)またはアメリカ(米)の野鳥の画像についての生成モデルおよび判別モデルが作成される。ここで、カナダの野鳥の画像の影響を除くために、判別部122c_5は、既に生成された生成モデルである生成部121cの生成画像を真の画像として入力することに加えて、カナダ(加)の野鳥の画像を生成する生成部121aの生成画像を偽の画像として入力するものとしている。したがって、判別部122c_5は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を識別する判別部122cに対して、カナダ(加)の野鳥の画像の影響が除かれた画像を識別するような判別モデルとして再作成することができる。また、生成部121c_5は、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像を生成する生成部121cに対して、カナダ(加)の野鳥の画像の影響が除かれた画像を生成するような生成モデルとして再作成することができる。
なお、図13では、便宜上、逐次学習装置10a〜10c、10c_5というように装置を分けて説明したが、これに限定されるものではなく、同一の装置(逐次学習装置10)上でそれぞれの学習処理が行われるものとしてもよい。例えば、逐次学習装置10c_5の判別部122c_5は、逐次学習装置10aの生成部121aから生成画像を入力するものとしているが、逐次学習装置10a上で生成部121aの生成モデルとしての機能を残存させるものとしてもよい。そして、同じ逐次学習装置10a上で、生成部121c_5および判別部122c_5の学習処理を実行させるものとしてもよい。
[効果の一側面]
以上のように、本実施例に係る逐次学習装置10では、得られた生成モデルおよび判別モデルから、特定の学習データの影響を除く必要性が生じた場合、既に作成された生成モデルを選択的に用いる。これによって、当該学習データの影響が除かれた生成モデルおよび判別モデルを作成することができる。図12および図13で示した例では、メキシコ(墨)の野鳥の画像、アメリカ(米)の野鳥の画像、またはカナダ(加)の野鳥の画像についての生成モデルおよび判別モデルに対して、カナダ(加)の野鳥の画像の影響が除かれた画像を識別および生成するような判別モデルおよび生成モデルをそれぞれ再作成することができる。
これに対して、従来システムでは、既に学習された学習データが後で誤っていること等が判明したとしても、当該学習データの影響を除外することはできない。
[逐次学習プログラム]
図14は、実施例1〜実施例4に係る逐次学習プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。上述の各実施例で説明した各種の処理は、予め用意されたプログラムをPC(Personal Computer)またはワークステーション等のコンピュータで実行することによって実現することができる。そこで、以下では、図14を用いて、上述の各実施例と同様の機能を有する逐次学習プログラムを実行するコンピュータの一例について説明する。
図14に示すように、コンピュータ400は、CPU401と、ROM402と、RAM403と、補助記憶装置404と、入力装置405と、通信装置406と、ディスプレイ407と、ドライブ装置408と、を有する。これらの各部は、バス410を介して接続される。ドライブ装置408は、例えば、リムーバブルディスク409に対する読み出し、および書き込みを行うための装置である。
補助記憶装置404には、図14に示すように、上述の各実施例で示した生成部121(生成部121a、121b、121c、121c_1〜121c_5)および判別部122(判別部122a、122b、122c、122c_1〜122c_5)と同様の機能を発揮する逐次学習プログラム404aが記憶される。この逐次学習プログラム404aは、上述の各構成要素と同様に、統合または分離しても構わない。すなわち、補助記憶装置404には、必ずしも上述の各実施例で示した全てのデータを格納されずともよく、処理に用いるデータが補助記憶装置404に格納されていればよい。
このような環境の下、CPU401は、補助記憶装置404から逐次学習プログラム404aを読み出したうえでRAM403へ展開され、上述の各機能を発揮する。例えば、逐次学習プログラム404aが実行される処理の一例として、図5および図9に示す処理等が含まれる。なお、CPU401では、必ずしも上述で各実施例で示したすべての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上述の逐次学習プログラム404aは、必ずしも最初から補助記憶装置404またはROM402に記憶されていなくてもよい。例えば、コンピュータ400に挿入されるFD(Flexible Disk)、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、光磁気ディスク、ICカード等の「可搬用の物理媒体」に逐次学習プログラム404aを記憶させる。そして、コンピュータ400がこれらの可搬用の物理媒体から逐次学習プログラム404aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide
Area Network)等を介してコンピュータ400に接続される他のコンピュータまたはワークステーション等に逐次学習プログラム404aを記憶させておき、コンピュータ400がこれらから逐次学習プログラム404aを取得して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)逐次学習プログラムであって、
コンピュータに、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
処理を実行させる逐次学習プログラム。
(付記2)付記1に記載の逐次学習プログラムであって、
前記第2の判別器に、
前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。
(付記3)付記1または2に記載の逐次学習プログラムであって、
前記第1のデータ群および前記第2のデータ群は、画像である逐次学習プログラム。
(付記4)逐次学習プログラムであって、
コンピュータに、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を真として前記第2の判別器に入力する、
処理を実行させる逐次学習プログラム。
(付記5)付記4に記載の逐次学習プログラムであって、
第1の判別器に、
少なくとも前記第1のデータ群と、前記第1の生成器からの出力である第1の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第1の生成データに対する判別の結果を前記第1の生成器へ出力させ、
前記第1の生成器に、
前記第1の判別器から出力された判別の結果に基づいて学習させ、
前記第2の判別器に、
前記第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させ、
第3の判別器に、
第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第3の生成器からの出力である第3の生成データと、を入力させ、
前記第2の生成データを真として入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第3の生成データに対する判別の結果を前記第3の生成器へ出力させ、
前記第3の生成器に、
前記第3の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。
(付記6)付記5に記載の逐次学習プログラムであって、
第4の判別器に、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
前記第1の生成器からの出力である前記第1の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第2のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第2のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
(付記7)付記5に記載の逐次学習プログラムであって、
第4の判別器に、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
前記第2の生成器からの出力である前記第2の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
(付記8)付記5に記載の逐次学習プログラムであって、
第4の判別器に、
敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データを入力させ、
前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
前記第3の生成器からの出力である前記第3の生成データを真として入力させ、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器に、
前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
(付記9)第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
逐次学習装置。
(付記10)付記9に記載の逐次学習装置であって、
前記第2の判別器は、
前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力し、
入力した各データについて判別を行うことによって学習し、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力し、
前記第2の生成器は、
前記第2の判別器から出力された判別の結果に基づいて学習する逐次学習装置。
(付記11)付記9または10に記載の逐次学習装置であって、
前記第1のデータ群および前記第2のデータ群は、画像である逐次学習装置。
(付記12)第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を真として前記第2の判別器に入力する、
逐次学習装置。
(付記13)付記12に記載の逐次学習装置であって、
第1の判別器は、
少なくとも前記第1のデータ群と、前記第1の生成器からの出力である第1の生成データと、を入力し、
入力した各データについて判別を行うことによって学習し、
前記第1の生成データに対する判別の結果を前記第1の生成器へ出力し、
前記第1の生成器は、
前記第1の判別器から出力された判別の結果に基づいて学習し、
前記第2の判別器は、
前記第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力し、
入力した各データについて判別を行うことによって学習し、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力し、
前記第2の生成器は、
前記第2の判別器から出力された判別の結果に基づいて学習し、
第3の判別器は、
第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第3の生成器からの出力である第3の生成データと、を入力し、
前記第2の生成データを真として入力し、
入力した各データについて判別を行うことによって学習し、
前記第3の生成データに対する判別の結果を前記第3の生成器へ出力し、
前記第3の生成器は、
前記第3の判別器から出力された判別の結果に基づいて学習する逐次学習装置。
(付記14)付記13に記載の逐次学習装置であって、
第4の判別器は、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力し、
前記第1の生成器からの出力である前記第1の生成データを真として入力し、
入力した各データについて判別を行うことによって、前記第2のデータ群の影響を除いたデータを識別するように学習し、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力し、
前記第4の生成器は、
前記第4の判別器から出力された判別の結果に基づいて学習することによって、前記第2のデータ群の影響を除いたデータを生成するように学習する逐次学習装置。
(付記15)付記13に記載の逐次学習装置であって、
第4の判別器は、
前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力し、
前記第1の生成器からの出力である前記第1の生成データを偽として入力し、
前記第2の生成器からの出力である前記第2の生成データを真として入力し、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習し、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
前記第4の生成器は、
前記第4の判別器から出力された判別の結果に基づいて学習することによって、前記第1のデータ群の影響を除いたデータを生成するように学習する逐次学習装置。
(付記16)付記13に記載の逐次学習装置であって、
第4の判別器は、
敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データを入力し、
前記第1の生成器からの出力である前記第1の生成データを偽として入力し、
前記第3の生成器からの出力である前記第3の生成データを真として入力し、
入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習し、
前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力し、
前記第4の生成器は、
前記第4の判別器から出力された判別の結果に基づいて学習することによって、前記第1のデータ群の影響を除いたデータを生成するように学習する逐次学習装置。
(付記17)逐次学習方法であって、
コンピュータが、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
逐次学習方法。
(付記18)付記17に記載の逐次学習方法であって、
前記第2の判別器に、
前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
入力した各データについて判別を行うことによって学習させ、
前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
前記第2の生成器に、
前記第2の判別器から出力された判別の結果に基づいて学習させる逐次学習方法。
(付記19)付記17または18に記載の逐次学習方法であって、
前記第1のデータ群および前記第2のデータ群は、画像である逐次学習方法。
(付記20)逐次学習方法であって、
コンピュータが、
第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
前記第1の生成器からの出力を真として前記第2の判別器に入力する、
逐次学習方法。
10、10a〜10c、10c_1〜10c_5 逐次学習装置
121、121a〜121c、121c_1〜121c_5 生成部
122、122a〜122c、122c_1〜122c_5 判別部
131、131a〜131c 実画像
132a、132b 実画像
201、201a 生成画像
202 生成画像
251 実画像
261 生成画像

Claims (10)

  1. 逐次学習プログラムであって、
    コンピュータに、
    第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
    前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
    処理を実行させる逐次学習プログラム。
  2. 請求項1に記載の逐次学習プログラムであって、
    前記第2の判別器に、
    前記第1の生成器からの出力である第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
    入力した各データについて判別を行うことによって学習させ、
    前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
    前記第2の生成器に、
    前記第2の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。
  3. 請求項1または2に記載の逐次学習プログラムであって、
    前記第1のデータ群および前記第2のデータ群は、画像である逐次学習プログラム。
  4. 逐次学習プログラムであって、
    コンピュータに、
    第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
    前記第1の生成器からの出力を真として前記第2の判別器に入力する、
    処理を実行させる逐次学習プログラム。
  5. 請求項4に記載の逐次学習プログラムであって、
    第1の判別器に、
    少なくとも前記第1のデータ群と、前記第1の生成器からの出力である第1の生成データと、を入力させ、
    入力した各データについて判別を行うことによって学習させ、
    前記第1の生成データに対する判別の結果を前記第1の生成器へ出力させ、
    前記第1の生成器に、
    前記第1の判別器から出力された判別の結果に基づいて学習させ、
    前記第2の判別器に、
    前記第1の生成データと、前記第2のデータ群と、前記第2の生成器からの出力である第2の生成データと、を入力させ、
    入力した各データについて判別を行うことによって学習させ、
    前記第2の生成データに対する判別の結果を前記第2の生成器へ出力させ、
    前記第2の生成器に、
    前記第2の判別器から出力された判別の結果に基づいて学習させ、
    第3の判別器に、
    第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第3の生成器からの出力である第3の生成データと、を入力させ、
    前記第2の生成データを真として入力させ、
    入力した各データについて判別を行うことによって学習させ、
    前記第3の生成データに対する判別の結果を前記第3の生成器へ出力させ、
    前記第3の生成器に、
    前記第3の判別器から出力された判別の結果に基づいて学習させる逐次学習プログラム。
  6. 請求項5に記載の逐次学習プログラムであって、
    第4の判別器に、
    前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
    前記第1の生成器からの出力である前記第1の生成データを真として入力させ、
    入力した各データについて判別を行うことによって、前記第2のデータ群の影響を除いたデータを識別するように学習させ、
    前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
    前記第4の生成器に、
    前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第2のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
  7. 請求項5に記載の逐次学習プログラムであって、
    第4の判別器に、
    前記第3のデータ群と、該第3のデータ群を用いて敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データと、を入力させ、
    前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
    前記第2の生成器からの出力である前記第2の生成データを真として入力させ、
    入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
    前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
    前記第4の生成器に、
    前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
  8. 請求項5に記載の逐次学習プログラムであって、
    第4の判別器に、
    敵対的生成ネットワークにより学習された第4の生成器からの出力である第4の生成データを入力させ、
    前記第1の生成器からの出力である前記第1の生成データを偽として入力させ、
    前記第3の生成器からの出力である前記第3の生成データを真として入力させ、
    入力した各データについて判別を行うことによって、前記第1のデータ群の影響を除いたデータを識別するように学習させ、
    前記第4の生成データに対する判別の結果を、前記第4の生成器へ出力させ、
    前記第4の生成器に、
    前記第4の判別器から出力された判別の結果に基づいて学習させることによって、前記第1のデータ群の影響を除いたデータを生成するように学習させる逐次学習プログラム。
  9. 第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
    前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
    逐次学習装置。
  10. 逐次学習方法であって、
    コンピュータが、
    第1のデータ群を用いて敵対的生成ネットワークにより学習された第1の生成器からの出力と、第2のデータ群とを第2の判別器に入力して、敵対的生成ネットワークにより第2の生成器の学習を行う際に、
    前記第1の生成器からの出力を偽として前記第2の判別器に入力する、
    逐次学習方法。
JP2018214993A 2018-11-15 2018-11-15 逐次学習プログラム、逐次学習装置および逐次学習方法 Active JP7318197B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018214993A JP7318197B2 (ja) 2018-11-15 2018-11-15 逐次学習プログラム、逐次学習装置および逐次学習方法
US16/680,562 US11449715B2 (en) 2018-11-15 2019-11-12 Sequential learning maintaining a learned concept

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018214993A JP7318197B2 (ja) 2018-11-15 2018-11-15 逐次学習プログラム、逐次学習装置および逐次学習方法

Publications (2)

Publication Number Publication Date
JP2020086539A true JP2020086539A (ja) 2020-06-04
JP7318197B2 JP7318197B2 (ja) 2023-08-01

Family

ID=70727940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214993A Active JP7318197B2 (ja) 2018-11-15 2018-11-15 逐次学習プログラム、逐次学習装置および逐次学習方法

Country Status (2)

Country Link
US (1) US11449715B2 (ja)
JP (1) JP7318197B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020119567A (ja) * 2019-01-28 2020-08-06 株式会社ストラドビジョンStradvision,Inc. スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス連続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10825148B2 (en) 2018-11-29 2020-11-03 Adobe Inc. Boundary-aware object removal and content fill
US11544532B2 (en) * 2019-09-26 2023-01-03 Sap Se Generative adversarial network with dynamic capacity expansion for continual learning
CN111898696B (zh) * 2020-08-10 2023-10-27 腾讯云计算(长沙)有限责任公司 伪标签及标签预测模型的生成方法、装置、介质及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180101770A1 (en) * 2016-10-12 2018-04-12 Ricoh Company, Ltd. Method and system of generative model learning, and program product
US20180307947A1 (en) * 2017-04-25 2018-10-25 Nec Laboratories America, Inc. Cyclic generative adversarial network for unsupervised cross-domain image generation
US20180322366A1 (en) * 2017-05-02 2018-11-08 General Electric Company Neural network training image generation system
US20190130278A1 (en) * 2017-10-26 2019-05-02 Nvidia Corporation Progressive modification of generative adversarial neural networks

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808098B (zh) * 2017-09-07 2020-08-21 阿里巴巴集团控股有限公司 一种模型安全检测方法、装置以及电子设备
US10552714B2 (en) * 2018-03-16 2020-02-04 Ebay Inc. Generating a digital image using a generative adversarial network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180101770A1 (en) * 2016-10-12 2018-04-12 Ricoh Company, Ltd. Method and system of generative model learning, and program product
US20180307947A1 (en) * 2017-04-25 2018-10-25 Nec Laboratories America, Inc. Cyclic generative adversarial network for unsupervised cross-domain image generation
US20180322366A1 (en) * 2017-05-02 2018-11-08 General Electric Company Neural network training image generation system
US20190130278A1 (en) * 2017-10-26 2019-05-02 Nvidia Corporation Progressive modification of generative adversarial neural networks

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHIN, H., ET AL.: "Continual Learning with Deep Generative Replay", ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 30 (NIPS 2017) [ONLINE], JPN6022026892, 4 December 2017 (2017-12-04), ISSN: 0004817295 *
ZHU, XINYUE ET AL.: ""Emotion Classification with Data Augmentation Using Generative Adversarial Networks"", ARXIV [ONLINE], JPN6023024445, December 2017 (2017-12-01), ISSN: 0005086243 *
渡部 宏樹: "Data Augmentation using DCGAN considering generate", FIT2017 第16回情報科学技術フォーラム 講演論文集 第3分冊 選奨論文・一般論文 画像認識・, JPN6022055187, 4 October 2017 (2017-10-04), pages 273 - 274, ISSN: 0004955304 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020119567A (ja) * 2019-01-28 2020-08-06 株式会社ストラドビジョンStradvision,Inc. スマートフォン、ドローン、船舶もしくは軍事的目的に利用するための、入力データを分析するニューラルネットワークをオンデバイス連続学習する方法及び装置、並びにこれによって学習されたニューラルネットワークをテストする方法及び装置

Also Published As

Publication number Publication date
US20200160119A1 (en) 2020-05-21
US11449715B2 (en) 2022-09-20
JP7318197B2 (ja) 2023-08-01

Similar Documents

Publication Publication Date Title
JP7318197B2 (ja) 逐次学習プログラム、逐次学習装置および逐次学習方法
US20210125000A1 (en) Method and apparatus for training model for object classification and detection
CN116541538B (zh) 基于大数据的智慧学习知识点挖掘方法及系统
JP2021022368A (ja) ニューラルネットワークを用いた画像認識装置およびトレーニング装置
KR102042168B1 (ko) 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치
EP3382609A1 (en) Risk assessment method, risk assessment program, and information processing device
EP3443450A1 (en) Two-stage training of a spoken dialogue system
CN112966112B (zh) 基于对抗学习的文本分类模型训练和文本分类方法及装置
CN110046622A (zh) 一种有目标的攻击样本生成方法、装置、设备及存储介质
WO2021130888A1 (ja) 学習装置、推定装置および学習方法
WO2023093346A1 (zh) 基于外源特征进行模型所有权验证的方法和装置
JP6856503B2 (ja) 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム
CN113128619B (zh) 伪造样本检测模型的训练方法、伪造样本识别方法、装置、介质和设备
JP2019159835A (ja) 学習プログラム、学習方法および学習装置
JP7293658B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20220284315A1 (en) Apparatus and system for training knowledge tracking model based on data augmentation and operation method thereof
CN111737417A (zh) 修正自然语言生成结果的方法和装置
TW201816706A (zh) 具個人化學習路徑自動產生機制之學習規劃方法與學習規劃系統
CN110879832A (zh) 目标文本检测方法、模型训练方法、装置及设备
US20230062484A1 (en) Hand-drawn diagram recognition using visual arrow-relation detection
CN112926515B (zh) 活体模型训练方法和装置
JP2020003879A (ja) 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム
JP7331926B2 (ja) 学習装置、物体検出装置、学習方法、及び、プログラム
KR20220104394A (ko) 대상 모델의 특성을 반영하는 모방 모델 생성 시스템 및 방법
CN110688371B (zh) 数据调整方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150