JP7392836B2 - データ生成装置、データ生成方法、学習装置及び記録媒体 - Google Patents
データ生成装置、データ生成方法、学習装置及び記録媒体 Download PDFInfo
- Publication number
- JP7392836B2 JP7392836B2 JP2022518441A JP2022518441A JP7392836B2 JP 7392836 B2 JP7392836 B2 JP 7392836B2 JP 2022518441 A JP2022518441 A JP 2022518441A JP 2022518441 A JP2022518441 A JP 2022518441A JP 7392836 B2 JP7392836 B2 JP 7392836B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- fake
- ratio
- composite
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 239000002131 composite material Substances 0.000 claims description 221
- 239000000203 mixture Substances 0.000 claims description 124
- 230000015572 biosynthetic process Effects 0.000 claims description 98
- 238000003786 synthesis reaction Methods 0.000 claims description 98
- 230000006870 function Effects 0.000 claims description 61
- 238000004590 computer program Methods 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000013145 classification model Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7792—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
初めに、図1を参照しながら、本実施形態のデータ生成装置1の構成について説明する。図1は、本実施形態のデータ生成装置1の構成を示すブロック図である。
(2-1)学習動作の全体の流れ
続いて、図2を参照しながら、本実施形態のデータ生成装置1が行う学習動作(つまり、生成モデルG及び識別モデルDの学習を行うための学習動作)の全体の流れについて説明する。図2は、本実施形態のデータ生成装置1が行う学習動作の全体の流れを示すフローチャートである。
続いて、図4から図13を参照しながら、合成比率αの具体例について説明する。図4は、合成比率αの第1具体例を示すグラフであり、図5は、合成比率αの第1具体例を用いて生成された合成画像D_mixを模式的に示す平面図である。図6は、合成比率α(x、y)の第2具体例を示すグラフであり、図7は、合成比率αの第2具体例を用いて生成された合成画像D_mixを模式的に示す平面図である。図8は、合成比率αの第3具体例を示すグラフであり、図9は、合成比率αの第3具体例を用いて生成された合成画像D_mixを模式的に示す平面図である。図10は、合成比率αの第4具体例を示すグラフであり、図11は、合成比率αの第4具体例を用いて生成された合成画像D_mixを模式的に示す平面図である。
図4に示すように、合成データ生成部24は、座標値xに応じて合成比率αを連続的に(言い換えれば、滑らかに)変化させてもよい。尚、ここでの「合成比率αが連続的に変化する」状態は、合成比率αがその下限値である0とその上限値である1との間で連続的に変化する状態を意味していてもよい。この場合、合成比率αは、下限値である0及び上限値である1になることに加えて、0よりも大きく且つ1よりも小さい値になる。このため、合成比率αが連続的に変化する場合には、合成比率αは、0、1、及び、0よりも大きく且つ1よりも小さい少なくとも一つの値の間で多値的に変化してもよい。
図6に示すように、第2具体例においても、第1具体例と同様に、合成データ生成部24は、座標値xに応じて合成比率αを連続的に変化させてもよい。但し、第2具体例では、合成データ生成部24は、座標値xの全体に渡って合成比率α(x、y)を単調に増加又は減少させなくてもよい。例えば、合成データ生成部24は、座標値xが第1の範囲の値である場合には、座標値xに応じて合成比率αを単調に増加させる一方で、座標値xが第1の範囲とは異なる第2の範囲の値である場合には、座標値xに応じて合成比率α(x、y)を単調に減少させてもよい。図6に示す例では、合成データ生成部24は、座標値xが所定値x2より小さい場合には、座標値xに応じて合成比率α(x、y)を単調に増加させる一方で、座標値xが所定値x2より大きい場合には、座標値xに応じて合成比率α(x、y)を単調に減少させている。この場合、合成比率α(x、y)は、座標値xが所定値x2となる地点を中心に変化する。
図8に示すように、第3具体例では、合成データ生成部24は、座標値x及び座標値yの夫々に応じて合成比率αを連続的に変化させてもよい。つまり、第3具体例では、合成データ生成部24は、座標値x及び座標値yの双方を引数とする関数Fを用いることで、合成比率α(x、y)を変化させてもよい。このため、合成比率αの第3具体例は、座標値x及び座標値yの双方を引数とする関数Fに応じて変化するという点で、座標値x及び座標値yのいずれか一方を引数とする関数Fに応じて変化する合成比率αの第1及び第2具体例の夫々とは異なると言える。合成比率αの第3具体例のその他の特徴は、合成比率αの第1及び第2具体例の夫々のその他の特徴と同一であってもよい。
図10に示すように、第4具体例では、合成データ生成部24は、座標値xが第5の範囲の値である場合には、座標値xに応じて合成比率αを変化させる一方で、座標値xが第5の範囲とは異なる第6の範囲の値である場合には、座標値xに関わらず合成比率αを固定値に設定してもよい。図10に示す例では、合成データ生成部24は、(i)座標値xが所定値x41より小さい場合には、座標値xに関わらずに合成比率αを0に固定し、(ii)座標値xが所定値x42(但し、x42>x41)より大きい場合には、座標値xに関わらずに合成比率αを1に固定し、(iii)座標値xが所定値x41より大きく且つ所定値x42より小さい場合には、座標値xに応じて合成比率αを変化させている。この場合、座標値xが所定値x41より大きく且つ所定値x42より小さい場合には、合成比率αは、座標値xが所定値x41より小さいときの合成比率αの値である0から、座標値xが所定値x42より大きいときの合成比率αの値である1まで連続的に変化してもよい。
以上説明したように、本実施形態では、本物画像D_real及び偽物画像D_fakeのみならず、本物画像D_real及び偽物画像D_fakeを合成することで生成される合成画像D_mixもまた識別部23に入力される。その結果、識別モデルD及び生成モデルGの学習もまた、本物画像D_real及び偽物画像D_fakeのみならず合成画像D_mixにも基づいて行われる。その結果、合成画像D_mixを用いることなく識別モデルD及び生成モデルGの学習が行われる場合と比較して、識別モデルD及び生成モデルGの学習がより効率的に行われる。
(4-1)第1変形例
上述した説明では、合成データ生成部24は、合成画像D_mixを生成するための合成比率αを、合成画像D_mixを構成する画素D_mix(x、y)の座標(x、y)に応じて変化させている。一方で、第1変形例では、合成データ生成部24は、座標(x、y)に加えて又は代えて、図2に示す学習動作(つまり、識別モデルD及び生成モデルGの学習)を開始してからの経過時間に応じて合成比率αを変化させてもよい。つまり、合成データ生成部24は、学習動作を開始してからの経過時間が第1時間となる第1期間中に用いる合成比率αが、学習動作を開始してからの経過時間が第1時間とは異なる第2時間となる第2期間中に用いる合成比率αと異なるものとなるように、合成比率αを変化させてもよい。
上述した説明では、合成データ生成部24は、本物画像D_realと偽物画像D_fakeとを合成することで合成画像D_mixを生成している。しかしながら、合成データ生成部24は、二つの異なる本物画像D_realを合成することで合成画像D_mixを生成してもよい。合成データ生成部24は、二つの同一の本物画像D_realを合成することで合成画像D_mixを生成してもよい。合成データ生成部24は、二つの異なる偽物画像D_fakeを合成することで合成画像D_mixを生成してもよい。合成データ生成部24は、二つの同一の偽物画像D_fakeを合成することで合成画像D_mixを生成してもよい。合成データ生成部24は、合成データ生成部24が偽物画像D_fakeとして生成した二つの同一の合成画像D_mixを合成することで新たな合成画像D_mixを生成してもよい。合成データ生成部24は、合成データ生成部24が偽物画像D_fakeとして生成した二つの異なる合成画像D_mixを合成することで新たな合成画像D_mixを生成してもよい。いずれの場合においても、生成される合成画像D_mixは、本物画像D_realとは異なるデータであるがゆえに、本物画像D_realを疑似したデータ(つまり、偽物画像D_fake)と等価であるとみなしてもよい。
合成データ生成部24は、所望の画像処理が施された本物画像D_realを用いて、合成画像D_mixを生成してもよい。合成データ生成部24は、所望の画像処理が施された偽物画像D_fakeを用いて、合成画像D_mixを生成してもよい。この場合、演算装置2内には、本物データ取得部21が取得した本物画像D_real及び偽物データ生成部22が生成した偽物画像D_fakeの少なくとも一つに対して画像処理を行うための画像処理部が実現されていてもよい。尚、所望の画像処理の一例として、スケーリング処理、回転処理、ノイズ除去処理及びHDR(HighDynamic Range)処理の少なくとも一つがあげられる。
上述した説明では、データ生成装置1は、画像を用いた学習動作を行っている。つまり、上述した説明では、本物データ取得部21は、本物画像D_realを本物データとして取得し、偽物データ生成部22は、偽物画像D_fakeを偽物データとして生成し、合成データ生成部24は、合成画像D_mixを合成データとして生成し、識別部23は、本物画像D_real、偽物画像D_fake及び合成画像D_mixを含む識別対象画像を識別対象データとして識別している。しかしながら、データ生成装置1は、画像とは異なる任意のデータを用いて学習動作を行ってもよい。つまり、本物データ取得部21は、任意の種類の本物データを取得し、偽物データ生成部22は、本物データを疑似する任意の種類の偽物データを生成し、合成データ生成部24は、本物データと偽物データとを合成することで任意の種類の合成データを生成し、識別部23は、本物データ、偽物データ及び合成データを含む任意の種類の識別対象データを識別してもよい。この場合も、合成データ生成部24は、合成データ=合成比率α×本物データ+(1-合成比率α)×偽物データという数式を用いて、合成データを生成してもよい。この場合、合成データ生成部24は、合成比率αを、合成データを細分化することで得られる複数のデータ要素の夫々の合成データ内での位置に応じて変化させてもよい。尚、ここでいう「合成データ内でのデータ要素の位置」は、「合成データが示す目的物(例えば、画像)を目的物に応じて定まる所望の単位(例えば、画素の単位)で細分化することで得られるデータ要素(例えば、画素)の、合成データが示す目的物の中での位置」を示していてもよい。
上述した説明では、データ生成装置1(演算装置2)が識別部23を備えている。一方で、第5変形例におけるデータ生成装置1a(演算装置2a)は、第5変形例におけるデータ生成装置1a(演算装置2a)の構成を示す図12に示すように、識別部23を備えていなくてもよい。この場合、本物データ取得部21が取得した本物画像D_real、偽物データ生成部22が生成した偽物画像D_fake及び合成データ生成部24が生成した合成画像D_mixは、データ生成装置1aの外部の識別部23に出力されてもよい。
以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
本物データを取得する取得手段と、
前記本物データを疑似した偽物データを生成する偽物データ生成手段と、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成する合成データ生成手段と
を備え、
前記合成データ生成手段は、前記合成データを構成するデータ要素を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置に応じて変化させる
データ生成装置。
[付記2]
前記合成データ生成手段は、前記合成データを構成する複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて連続的に変化させる
付記1に記載のデータ生成装置。
[付記3]
前記合成データ生成手段は、
前記合成データを構成する第1のデータ要素を生成するために用いる前記合成比率を、第1の比率に設定し、
前記合成データを構成し且つ前記第1のデータ要素とは異なる第2のデータ要素を生成するために用いる前記合成比率を、前記第1の比率とは異なる第2の比率に設定し、
前記合成データのうちの前記第1及び第2のデータ要素の間の複数の第3のデータ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記第3のデータ要素の位置に応じて前記第1の比率から前記第2の比率まで連続的に変化させる
付記1又は2に記載のデータ生成装置。
[付記4]
前記合成データ生成手段は、前記合成データのうちの一のデータ部分に含まれる複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて連続的に変化させる
付記1から3のいずれか一項に記載のデータ生成装置。
[付記5]
前記合成データ生成手段は、
前記合成データのうちの第1のデータ部分に含まれる複数の前記データ要素を生成するために用いる前記合成比率を、第3の比率に固定し、
前記合成データのうちの前記第1のデータ部分とは異なる第2のデータ部分に含まれる複数の前記データ要素を生成するために用いる前記合成比率を、前記第3の比率とは異なる第4の比率に固定し、
前記合成データのうちの前記第1及び第2のデータ部分の間の第3のデータ部分に含まれる複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置に応じて前記第3の比率から前記第4の比率にまで連続的に変化させる
付記1から4のいずれか一項に記載のデータ生成装置。
[付記6]
前記合成データ生成手段は、前記合成データを構成する複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて多値的に変化させる
付記1から5のいずれか一項に記載のデータ生成装置。
[付記7]
前記合成データ生成手段は、
前記合成データを構成する第1のデータ要素を生成するために用いる前記合成比率を、第1の比率に設定し、
前記合成データを構成し且つ前記第1のデータ要素とは異なる第2のデータ要素を生成するために用いる前記合成比率を、前記第1の比率とは異なる第2の比率に設定し、
前記合成データのうちの前記第1及び第2のデータ要素の間の複数の第3のデータ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記第3のデータ要素の位置に応じて前記第1の比率から前記第2比率まで多値的に変化させる
付記1から6のいずれか一項に記載のデータ生成装置。
[付記8]
前記合成データ生成手段は、前記合成データのうちの一のデータ部分に含まれる複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて多値的に変化させる
付記1から7のいずれか一項に記載のデータ生成装置。
[付記9]
前記合成データ生成手段は、
前記合成データのうちの第1のデータ部分に含まれる複数の前記データ要素を生成するために用いる前記合成比率を、第3の比率に固定し、
前記合成データのうちの前記第1のデータ部分とは異なる第2のデータ部分に含まれる複数の前記データ要素を生成するために用いる前記合成比率を、前記第3の比率とは異なる第4の比率に固定し、
前記合成データのうちの前記第1及び第2のデータ部分の間の第3のデータ部分に含まれる複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置に応じて前記第3の比率から前記第4比率にまで多値的に変化させる
付記1から8のいずれか一項に記載のデータ生成装置。
[付記10]
前記合成データ生成手段は、前記合成データが、前記本物データが支配的となる第4データ部分と、前記偽物データが支配的となる第5データ部分と、前記本物データ及び前記偽物データが均衡する第6データ部分とを含むように、前記合成比率を変化させる
付記1から9のいずれか一項に記載のデータ生成装置。
[付記11]
前記合成データ生成手段は、前記第4データ部分と前記第5データ部分との間に前記第6データ部分が位置するように、前記合成比率を変える
付記10に記載のデータ生成装置。
[付記12]
前記合成データ生成手段は、第1期間に前記合成データを生成するために用いる前記合成比率と、前記第1期間とは異なる第2期間に前記合成データを生成するために用いる前記合成比率とが異なるものとなるように、前記合成比率を、前記合成データを生成する時間に応じて変化させる
付記1から11のいずれか一項に記載のデータ生成装置。
[付記13]
前記合成データ生成手段は、
前記第1期間には、前記偽物データが支配的となる第5データ部分が前記合成データに占める割合が、前記本物データが支配的となる第4データ部分が前記合成データに占める割合以上になるように、前記合成比率を設定し、
前記第2期間には、前記第2期間において前記第4データ部分が前記合成データに占める割合が、前記第1期間において前記第4データ部分が前記合成データに占める割合よりも大きくなるように、前記合成比率を設定する
付記12に記載のデータ生成装置。
[付記14]
前記本物データと前記偽物データと前記合成データとを含む識別対象データを識別する識別手段を更に備え、
前記偽物データ生成手段は、前記識別手段による前記識別対象データの識別結果に基づいて学習可能であって且つ前記偽物データを生成するための生成モデルを用いて、前記偽物データを生成し、
前記識別手段は、前記識別手段による前記識別対象データの識別結果に基づいて学習可能であって且つ前記識別対象データを識別するための識別モデルを用いて、前記識別対象データを識別し、
前記第1期間は、前記生成モデル及び前記識別モデルの学習を開始してから所定時間が経過する前の期間を含み、
前記第2期間は、前記生成モデル及び前記識別モデルの学習を開始してから前記所定時間が経過した後の期間を含む
付記12又は13に記載のデータ生成装置。
[付記15]
前記本物データ、前記偽物データ及び前記合成データの夫々は、画像に関するデータであり、
前記合成データを構成する前記データ要素は、前記画像を構成する画素を含み、
前記合成データ中での前記データ要素の位置は、前記画像中での前記画素の位置である
付記1から14のいずれか一項に記載のデータ生成装置。
[付記16]
前記合成データ生成手段は、前記合成データを構成する複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて非連続的に又は段階的に変化させる
付記1から15のいずれか一項に記載のデータ生成装置。
[付記17]
前記合成データ生成手段は、前記合成データのうちの第1のデータ要素から第2のデータ要素を結ぶ線上において、前記合成比率が、(i)前記本物データと前記偽物データとの比率が1:0となる第5の比率から、前記本物データと前記偽物データとの比率が1:1となる第6の比率へと、若しくは、(ii)前記第6の比率から前記第5の比率へと、又は、(iii)前記本物データと前記偽物データとの比率が0:1となる第7の比率から、前記第6の比率へと、若しくは(iv)前記第6の比率から前記第7の比率へと変化するように、前記合成比率を変化させる
付記1から16のいずれか一項に記載のデータ生成装置。
[付記18]
本物データを取得する取得手段と、
前記本物データを疑似した偽物データを取得又は生成する偽物データ生成手段と、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成する合成データ生成手段と、
識別モデルを用いて、前記本物データと前記偽物データと前記合成データとを含む識別対象データを識別する識別手段と
を備え、
前記識別手段は、前記識別手段による前記識別対象データの識別結果に基づいて前記識別モデルを学習させ、
前記合成データ生成手段は、前記識別モデルの学習を開始してから所定時間が経過するまでの期間を含む第1期間に前記合成データを生成するために用いる前記合成比率と、前記第1期間とは異なり且つ前記識別モデルの学習を開始してから前記所定時間が経過した後の期間を含む第2期間に前記合成データを生成するために用いる前記合成比率とが異なるものとなるように、前記合成比率を、前記合成データを生成する時間に応じて変化させる
学習装置。
[付記19]
本物データを取得する取得工程と、
前記本物データを疑似した偽物データを取得又は生成する偽物データ生成工程と、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成する合成データ生成工程と
を含み、
前記合成データ生成工程では、前記合成データを構成するデータ要素を生成するために用いる前記合成比率は、前記合成データ中での前記データ要素の位置に応じて変化する
データ生成方法。
[付記20]
コンピュータにデータ生成方法を実行させるコンピュータプログラムが記録された記録媒体であって、
前記データ生成方法は、
本物データを取得する取得工程と、
前記本物データを疑似した偽物データを取得又は生成する偽物データ生成工程と、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成する合成データ生成工程と
を含み、
前記合成データ生成工程では、前記合成データを構成するデータ要素を生成するために用いる前記合成比率は、前記合成データ中での前記データ要素の位置に応じて変化する
記録媒体。
[付記21]
コンピュータにデータ生成方法を実行させるコンピュータプログラムであって、
前記データ生成方法は、
本物データを取得する取得工程と、
前記本物データを疑似した偽物データを取得又は生成する偽物データ生成工程と、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成する合成データ生成工程と
を含み、
前記合成データ生成工程では、前記合成データを構成するデータ要素を生成するために用いる前記合成比率は、前記合成データ中での前記データ要素の位置に応じて変化する
コンピュータプログラム。
2 演算装置
21 本物データ取得部
22 偽物データ生成部
23 識別部
24 合成データ生成部
G 生成モデル
D 識別モデル
D_real 本物画像
D_fake 偽物画像
D_mix 合成画像
Claims (10)
- 本物データを取得する取得手段と、
前記本物データを疑似した偽物データを生成する偽物データ生成手段と、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成する合成データ生成手段と
を備え、
前記合成データ生成手段は、前記合成データを構成するデータ要素を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置に応じて変化させる
データ生成装置。 - 前記合成データ生成手段は、前記合成データを構成する複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて連続的に変化させる
請求項1に記載のデータ生成装置。 - 前記合成データ生成手段は、
前記合成データを構成する第1のデータ要素を生成するために用いる前記合成比率を、第1の比率に設定し、
前記合成データを構成し且つ前記第1のデータ要素とは異なる第2のデータ要素を生成するために用いる前記合成比率を、前記第1の比率とは異なる第2の比率に設定し、
前記合成データのうちの前記第1及び第2のデータ要素の間の複数の第3のデータ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記第3のデータ要素の位置に応じて前記第1の比率から前記第2の比率まで連続的に変化させる
請求項1又は2に記載のデータ生成装置。 - 前記合成データ生成手段は、前記合成データのうちの一のデータ部分に含まれる複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて連続的に変化させる
請求項1から3のいずれか一項に記載のデータ生成装置。 - 前記合成データ生成手段は、
前記合成データのうちの第1のデータ部分に含まれる複数の前記データ要素を生成するために用いる前記合成比率を、第3の比率に固定し、
前記合成データのうちの前記第1のデータ部分とは異なる第2のデータ部分に含まれる複数の前記データ要素を生成するために用いる前記合成比率を、前記第3の比率とは異なる第4の比率に固定し、
前記合成データのうちの前記第1及び第2のデータ部分の間の第3のデータ部分に含まれる複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置に応じて前記第3の比率から前記第4の比率にまで連続的に変化させる
請求項1から4のいずれか一項に記載のデータ生成装置。 - 前記合成データ生成手段は、前記合成データを構成する複数の前記データ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置を引数とする関数を用いて多値的に変化させる
請求項1から5のいずれか一項に記載のデータ生成装置。 - 前記合成データ生成手段は、
前記合成データを構成する第1のデータ要素を生成するために用いる前記合成比率を、第1の比率に設定し、
前記合成データを構成し且つ前記第1のデータ要素とは異なる第2のデータ要素を生成するために用いる前記合成比率を、前記第1の比率とは異なる第2の比率に設定し、
前記合成データのうちの前記第1及び第2のデータ要素の間の複数の第3のデータ要素の夫々を生成するために用いる前記合成比率を、前記合成データ中での前記第3のデータ要素の位置に応じて前記第1の比率から前記第2比率まで多値的に変化させる
請求項1から6のいずれか一項に記載のデータ生成装置。 - 本物データを取得する取得手段と、
前記本物データを疑似した偽物データを取得又は生成する偽物データ生成手段と、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成する合成データ生成手段と、
識別モデルを用いて、前記本物データと前記偽物データと前記合成データとを含む識別対象データを識別する識別手段と
を備え、
前記識別手段は、前記識別手段による前記識別対象データの識別結果に基づいて前記識別モデルを学習させ、
前記合成データ生成手段は、前記識別モデルの学習を開始してから所定時間が経過するまでの期間を含む第1期間に前記合成データを生成するために用いる前記合成比率と、前記第1期間とは異なり且つ前記識別モデルの学習を開始してから前記所定時間が経過した後の期間を含む第2期間に前記合成データを生成するために用いる前記合成比率とが異なるものとなるように、前記合成比率を、前記合成データを生成する時間に応じて変化させる
学習装置。 - 本物データを取得することと、
前記本物データを疑似した偽物データを取得又は生成することと、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成することと、
前記合成データを構成するデータ要素を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置に応じて変化させることと
を含むデータ生成方法。 - コンピュータにデータ生成方法を実行させるコンピュータプログラムであって、
前記データ生成方法は、
本物データを取得することと、
前記本物データを疑似した偽物データを取得又は生成することと、
前記本物データと前記偽物データとを所望の合成比率で合成することで合成データを生成することと、
前記合成データを構成するデータ要素を生成するために用いる前記合成比率を、前記合成データ中での前記データ要素の位置に応じて変化させることと
を含むコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/017974 WO2021220343A1 (ja) | 2020-04-27 | 2020-04-27 | データ生成装置、データ生成方法、学習装置及び記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021220343A1 JPWO2021220343A1 (ja) | 2021-11-04 |
JPWO2021220343A5 JPWO2021220343A5 (ja) | 2023-01-23 |
JP7392836B2 true JP7392836B2 (ja) | 2023-12-06 |
Family
ID=78373422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022518441A Active JP7392836B2 (ja) | 2020-04-27 | 2020-04-27 | データ生成装置、データ生成方法、学習装置及び記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220366228A1 (ja) |
JP (1) | JP7392836B2 (ja) |
WO (1) | WO2021220343A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023149513A1 (ja) * | 2022-02-05 | 2023-08-10 | 国立大学法人 東京大学 | 偽造画像検出装置、偽造画像検出方法、及びプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020013563A (ja) | 2018-07-19 | 2020-01-23 | パロ アルト リサーチ センター インコーポレイテッド | 意味的情報に基づいてフォトリアリスティックな合成画像を生成するためのシステムおよび方法 |
-
2020
- 2020-04-27 US US17/618,998 patent/US20220366228A1/en active Pending
- 2020-04-27 JP JP2022518441A patent/JP7392836B2/ja active Active
- 2020-04-27 WO PCT/JP2020/017974 patent/WO2021220343A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020013563A (ja) | 2018-07-19 | 2020-01-23 | パロ アルト リサーチ センター インコーポレイテッド | 意味的情報に基づいてフォトリアリスティックな合成画像を生成するためのシステムおよび方法 |
Non-Patent Citations (1)
Title |
---|
VANDENHENDE, Simon et al.,A Three-Player GAN: Generating Hard Samples To Improve Classification Networks,arxiv,2019年,https://arxiv.org/abs/1903.03496 |
Also Published As
Publication number | Publication date |
---|---|
WO2021220343A1 (ja) | 2021-11-04 |
JPWO2021220343A1 (ja) | 2021-11-04 |
US20220366228A1 (en) | 2022-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093805B2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
Larsen et al. | Autoencoding beyond pixels using a learned similarity metric | |
US10346726B2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
CN110648334A (zh) | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 | |
AU2015207945A1 (en) | Method for training an artificial neural network | |
JP7047498B2 (ja) | 学習プログラム、学習方法および学習装置 | |
CN110956575B (zh) | 转变图像风格的方法和装置、卷积神经网络处理器 | |
JP7392836B2 (ja) | データ生成装置、データ生成方法、学習装置及び記録媒体 | |
Tarasiewicz et al. | Skinny: A lightweight U-Net for skin detection and segmentation | |
Gao et al. | Bottom-up and top-down: Bidirectional additive net for edge detection | |
US10600186B2 (en) | Performing segmentation of cells and nuclei in multi-channel images | |
Hong et al. | Safa: Sample-adaptive feature augmentation for long-tailed image classification | |
CN114913078A (zh) | 基于连拍图像的图像恢复方法和设备 | |
Le et al. | Exploring the asynchronous of the frequency spectra of gan-generated facial images | |
JP7357454B2 (ja) | 特徴特定装置、特徴特定方法及び特徴特定プログラム | |
KR102477700B1 (ko) | 대조 학습과 적대적 생성 신경망을 활용하는 이미지 생성 및 편집 방법과 장치 | |
Huang et al. | A method for identifying origin of digital images using a convolutional neural network | |
Al-Qerem et al. | Comparison between transfer learning and data augmentation on medical images classification | |
KR20200134813A (ko) | 기계 학습을 위한 이미지 처리 장치 및 방법 | |
KR20200058297A (ko) | 설명 가능한 소수샷 영상 분류 방법 및 장치 | |
US11288534B2 (en) | Apparatus and method for image processing for machine learning | |
Shi et al. | SSFD+: a robust two-stage face detector | |
JP2023078578A (ja) | 画像処理装置、学習システム、および、学習方法 | |
Gomes et al. | Recent data augmentation strategies for deep learning in plant phenotyping and their significance | |
KR20210123674A (ko) | Tta를 이용한 분포 외 데이터 검출 방법 및 이를 수행하는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7392836 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |