JP2020135485A - 拡張装置、拡張方法及び拡張プログラム - Google Patents

拡張装置、拡張方法及び拡張プログラム Download PDF

Info

Publication number
JP2020135485A
JP2020135485A JP2019028851A JP2019028851A JP2020135485A JP 2020135485 A JP2020135485 A JP 2020135485A JP 2019028851 A JP2019028851 A JP 2019028851A JP 2019028851 A JP2019028851 A JP 2019028851A JP 2020135485 A JP2020135485 A JP 2020135485A
Authority
JP
Japan
Prior art keywords
data
class
data set
expansion
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019028851A
Other languages
English (en)
Inventor
真弥 山口
Shinya Yamaguchi
真弥 山口
毅晴 江田
Takeharu Eda
毅晴 江田
沙那恵 村松
Sanae Muramatsu
沙那恵 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019028851A priority Critical patent/JP2020135485A/ja
Priority to PCT/JP2020/004113 priority patent/WO2020170803A1/ja
Publication of JP2020135485A publication Critical patent/JP2020135485A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】モデルの精度を大きく改善するような高品質な学習データを、データ拡張により効率良く得ること。
【解決手段】拡張装置は、目的データセットと外部データセットとの間の類似度と、外部データセットの画一性の度合いとから計算されるメトリクスに基づき、外部データセットの中から所定のデータセットを選択する。拡張装置は、生成器に目的クラスが指定された際に、生成器が、識別器によって本物であると識別されやすく、分類器によって複数の外部クラスに属する確率が0でなくかつ均等になるように計算されるデータを生成するように、生成モデルの学習を行う。拡張装置は、学習が行われた生成モデルの生成器に、目的クラスを指定しデータを生成する。拡張装置は、生成されたデータから、識別器によって偽物と識別されるデータを、拡張用データとして抽出する。拡張装置は、抽出された拡張用データに目的ラベルを付与する。
【選択図】図1

Description

本発明は、拡張装置、拡張方法及び拡張プログラムに関する。
深層学習モデルにおける学習データの整備は、大きなコストを要する。学習データの整備には、学習データの収集だけでなく、学習データへのラベル等のアノテーションの付加が含まれる。
従来、学習データの整備のコストを軽減するための技術として、ルールベースのデータ拡張(Data Augmentation)が知られている。例えば、学習データとして用いられる画像に、反転、拡大縮小、ノイズ付加、回転等の特定のルールにしたがった変更を加えることで、別の学習データを生成する方法が知られている(例えば、非特許文献1又は2を参照)。また、学習データが音声やテキストである場合にも、同様のルールベースのデータ拡張が行われることがある。
Patrice Y. Simard, Dave Steinkraus, and John C. Platt. Best practices for convolutional neural networks applied to visual document analysis. In Proceedings of the Seventh International Conference on Document Analysis and Recognition - Volume 2, ICDAR '03, pp.958, Washington, DC, USA, 2003. IEEE Computer Society. Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton. Imagenet classification with deep convolutional neural networks. In Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1, NIPS'12, pp. 1097-1105, USA, 2012. Curran Associates Inc. C. Szegedy, Wei Liu, Yangqing Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich. Going deeper with convolutions. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),pp. 1-9, June 2015. Tom Ko, Vijayaditya Peddinti, Daniel Povey, and Sanjeev Khudanpur. Audio augmentation for speech recognition. In INTERSPEECH, pp. 3586-3589. ISCA, 2015. Z. Xie, S. I. Wang, J. Li, D. Levy, A. Nie, D. Jurafsky, and A. Y. Ng. Data noising as smoothing in neural network language models. In International Conference on Learning Representations (ICLR), 2017. Goodfellow, Ian, et al. "Generative adversarial nets." Advances in neural information processing systems. 2014. Yaxing Wang, Chenshen Wu, Luis Herranz, Joost van de Weijer, Abel Gonzalez-Garcia, and Bogdan Raducanu.Transferring gans: generating images from limited data. arXiv preprint arXiv:1805.01677, 2018. Xiaofeng Zhang, Zhangyang Wang, Dong Liu, and Qing Ling. Dada: Deep adversarial data augmentation for extremely low data regime classication. arXiv preprint arXiv:1809.00981, 2018. Martin Heusel, Hubert Ramsauer, Thomas Unterthiner, Bernhard Nessler, and Sepp Hochreiter. Gans trained by a two time-scale update rule converge to a local nash equilibrium. In Advances in Neural Information Processing Systems Zhou Wang, Eero P Simoncelli, and Alan C Bovik. Multiscale structural similarity for image quality assessment. In The Thrity-Seventh Asilomar Conference on Signals, Systems & Computers, 2003, Vol. 2, pp. 1398-1402. Ieee,2003. Brock, Andrew, Jeff Donahue, and Karen Simonyan. "Large scale gan training for high fidelity natural image synthesis." arXiv preprint arXiv:1809.11096 (2018). Zhedong Zheng, Liang Zheng, and Yi Yang. Unlabeled samples generated by gan improve the person re-identification baseline in vitro. In Proceedings of the IEEE International Conference on Computer Vision, 2017. Samaneh Azadi, Catherine Olsson, Trevor Darrell, Ian Goodfellow, and Augustus Odena. Discriminator rejection sampling. arXiv preprint arXiv:1810.06758, 2018. Ishaan Gulrajani, Faruk Ahmed, Martin Arjovsky, Vincent Dumoulin, and Aaron C Courville. Improved training of wasserstein gans. In Advances in Neural Information Processing Systems, pp. 5767-5777, 2017. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778, 2016. D. Cheng, Y. Gong, S. Zhou, J. Wang and N. Zheng, "Person Re-identification by Multi-Channel Parts-Based CNN with Improved Triplet Loss Function," 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, 2016. Augustus Odena, Christopher Olah, and Jonathon Shlens. Conditional image synthesis with auxiliary classier gans. arXiv preprint arXiv:1610.09585, 2016.
しかしながら、従来の技術には、モデルの精度を大きく改善するような高品質な学習データを、データ拡張により効率良く得ることが困難な場合があるという問題がある。具体的には、従来のルールベースのデータ拡張では、学習データの属性のバリエーションを増加させることが難しく、そのことがモデルの精度向上に限界を生じさせている。例えば、非特許文献1及び2に記載のルールベースのデータ拡張では、窓際にいる正面を向いた猫の画像の「窓際」、「猫」及び「正面」をいった属性を変更した画像を生成することは困難である。
拡張の基になる目的データを大量に用意することは難しい場合が多い。一方で、限られた量の目的データから、なるべくモデルの精度向上に大きく貢献するようなデータを得られることが望ましいが、そのような方法は知られていない。
上述した課題を解決し、目的を達成するために、拡張装置は、第1のクラスに属するデータの集合である第1のデータセット及び第2のクラスに属するデータの集合である第2のデータセットとの間の類似度と、前記第2のデータセットに含まれるデータの画一性の度合いとから計算されるメトリクスに基づき、前記第2のデータセットの中から、第3のクラスに属する第3のデータセットを選択する選択部と、指定されたクラスを基にデータを生成する生成器に前記第1のクラスが指定された際に、前記生成器が、識別器によって前記第1のデータセットのデータであると識別されやすく、分類器によって複数の前記第3のクラスに属する確率が0でなくかつ均等になるように計算されるデータを生成するように、前記生成器、前記識別器及び前記分類器を含む生成モデルの学習を行う学習部と、前記学習部による学習が行われた前記生成モデルの前記生成器に、前記第1のクラスを指定することでデータを生成する生成部と、前記生成部によって生成されたデータから、前記識別器によって前記第1のデータセットのデータであると識別されるデータを、拡張用データとして抽出する抽出部と、前記抽出部によって抽出された前記拡張用データに前記第1のクラスに属することを示すラベルを付与する付与部と、を有することを特徴とする。
本発明によれば、モデルの精度を大きく改善するような高品質な学習データを、データ拡張により効率良く得ることができる。
図1は、第1の実施形態に係る学習システムについて説明するための図である。 図2は、第1の実施形態に係る拡張装置の構成例を示す図である。 図3は、分類器としての機能を併せ持つ識別器について説明するための図である。 図4は、外部データに対する学習処理を説明するための図である。 図5は、目的データに対する学習処理を説明するための図である。 図6は、拡張用データの抽出について説明するための図である。 図7は、拡張済みデータセットについて説明するための図である。 図8は、第1の実施形態に係る拡張装置の処理の流れを示すフローチャートである。 図9は、第1の実施形態に係る拡張装置のパラメータの更新処理の流れを示すフローチャートである。 図10は、実験に使用したデータを示す図である。 図11は、実験の結果を示す図である。 図12は、実験の結果を示す図である。 図13は、実験の結果を示す図である。 図14は、追加実験の条件を示す図である。 図15は、追加実験の結果を示す図である。 図16は、拡張プログラムを実行するコンピュータの一例を示す図である。
以下に、本願に係る拡張装置、拡張方法及び拡張プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[第1の実施形態の構成]
まず、図1を用いて、学習システムについて説明する。図1は、第1の実施形態に係る学習システムについて説明するための図である。図1に示すように、学習システム1は、拡張装置10及び学習装置20を有する。
拡張装置10は、外部データセットSを用いて、目的データセットSのデータ拡張を行い、拡張済みデータセットS´genを出力する。また、学習装置20は、拡張済みデータセットS´genを用いて目的モデル21の学習を行う。目的モデル21は、機械学習を行う既知のモデルであってよい。例えば、目的モデル21は、Resnet−152等のクラス分類器である。
また、図1の各データセットは、目的モデル21で用いられるラベル付きのデータである。つまり、各データセットは、データとデータが属するクラスを示すラベルとの組み合わせである。例えば、目的モデル21が画像認識のためのモデルである場合、各データセットは、画像データとラベルの組み合わせである。また、目的モデル21は、音声認識モデルであってもよいし、自然言語認識モデルであってもよい。その場合、各データセットは、ラベル付きの音声データやラベル付きのテキストデータである。
ここで、目的データセットSは、目的データXと目的データXに付与された目的ラベルyとの組み合わせであるものとする。また、外部データセットSは、外部データXと外部データXに付与された外部ラベルyとの組み合わせであるものとする。
目的ラベルyは、目的モデル21の学習の対象のラベルである。例えば、目的モデル21が画像中の人物を認識するためのモデルである場合、目的ラベルyは、目的データの画像に映っている人物を識別するIDである。また、例えば、目的モデル21が音声からテキストを認識するモデルである場合、目的ラベルyは、目的データの音声を書き起こしたテキストである。
外部データセットSは、目的データセットSを拡張するためのデータセットである。外部データセットSは、目的データセットSと異なるドメインのデータセットであってもよい。ここで、ドメインとは、データセットに固有の特徴であって、データ、ラベル及び生成分布によって表される。例えば、データがX、ラベルがyであるデータセットのドメインは、(X,y,P(X,y))のように表される。
ここで、例として、目的モデル21が画像認識モデルであって、学習装置20は、画像からIDが「0002」である人物の画像を認識できるように目的モデル21の学習を行うものとする。この場合、目的データセットSは、ラベル「ID:0002」と、当該人物が映っていることが既知の画像との組み合わせである。また、外部データセットSは、「0002」以外のIDを示すラベルと、当該IDに対応する人物が映っていることが既知の画像との組み合わせである。
拡張装置10は、目的データセットSのデータが有しない属性を外部データセットSから取り入れた拡張済みデータセットS´genを出力する。これにより、目的データセットSからだけでは得ることができなかったバリエーションのデータを得ることができる。例えば、拡張装置10によれば、目的データセットSに、ある人物の背面が映った画像のみが含まれている場合であっても、当該人物の正面が映った画像を得ることが可能になる。
以降、各データセットが画像データとラベルの組み合わせである場合の例を説明する。また、以降の説明では、画像をコンピュータで処理可能な形式で表したデータを、画像データ又は単に画像と呼ぶ。
生成モデル121は、GAN(Generative Adversarial Networks)に基づくモデルである。例えば、生成器G及び識別器Dは、いずれもニューラルネットワークである。生成器Gは、目的クラスのラベルy又は外部クラスのラベルyがノイズzとともに指定されると、指定されたラベルに基づいて画像を生成する。目的クラスは、目的データXが属するクラスである。また、外部クラスは、外部データセットXが属するクラスである。
また、識別器Dは、生成器Gによって生成された画像が、本物(Real)であるか偽物(Fake)であるかを識別する。例えば、識別器Dには、生成器Gによって生成された画像Xgenと目的データセット及び外部データの画像XT+Oが入力され、2つの画像のうちどちらがXgen(偽物:Fake)であるか、及びどちらがXT+O(本物:Real)であるかを識別する。
なお、拡張装置10には、それぞれラベルが異なる複数の外部データセットが入力されてもよい。すなわち、拡張装置10には、外部データXkOとラベルykOを組み合わせた外部データセットSkO(ただし、kO=1,2,…,K)が入力されてもよい。
さらに、第1の実施形態では、識別器Dは分類器としての機能を併せ持つものとする。つまり、識別器Dは、画像が各クラスに属する確率を計算することができる。識別器Dの分類器としての機能の詳細については後述する。
拡張装置10は、外部データセットSの中から選択した所定のデータセットを用いて生成モデル121の学習を行う。また、拡張装置10は、識別器Dが画像が本物であるか偽物であるかを識別する際の誤差(Adversarial Loss)及び、分類器としての機能に関する誤差(OLSR Loss)が小さくなるように、識別器Dのパラメータを更新することで学習を行う。なお、学習における各パラメータの更新は、例えば誤差逆伝播法(Backpropagation)によって行われる。
さらに、拡張装置10は、実際に拡張済みデータセットS´genを出力する際には、目的データセットSのラベルyに基づいて生成器Gが生成した生成データXgenではなく、生成データXgenから抽出したX´genを拡張済みデータセットS´genに含める。
図2を用いて、拡張装置10の構成を説明する。図2は、第1の実施形態に係る拡張装置の構成例を示す図である。図2に示すように、拡張装置10は、入出力部11、記憶部12及び制御部13を有する。入出力部11は、データの入力の受け付け及びデータの出力を行うためのインタフェースである。また、入出力部11は、外部の装置とデータの通信を行う通信モジュールであってもよい。
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部12は、拡張装置10で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部12は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部12は、生成モデル121を記憶する。具体的には、記憶部12は、生成モデル121による各処理で用いられるパラメータを記憶する。
制御部13は、拡張装置10全体を制御する。制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部13は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部13は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部13は、選択部131、学習部132、生成部133、抽出部134及び付与部135を有する。
選択部131は、目的クラスに属するデータの集合である目的データセット及び外部クラスに属するデータの集合である外部データセットとの間の類似度と、外部データセットに含まれるデータの画一性の度合いとから計算されるメトリクスに基づき、外部データセットの中から、所定のデータセットを選択する。なお、選択部131によって選択されたデータセットは第3のデータセットの一例である。また、選択部131によって選択されたデータセットのラベルは、第3のラベルの一例である。
選択部131は、各データセットに含まれる画像データの輝度値の統計量を用いて計算された類似度と画一性の度合いとから計算されるメトリクスに基づき、外部データセットの中から選択済み外部データセットを選択することができる。例えば、選択部131は、(1)式によりメトリクスMを計算する。このとき、選択部131は、計算したメトリクスMが閾値以上であるデータセットを選択する。
Figure 2020135485
また、(1)式のFIDは、類似度であり、(2)式により表される(参考:非特許文献9)。μXT及びμXOは、目的データセットに含まれる画像と外部データセットに含まれる画像の輝度値の平均値である。また、ΣXT及びΣXTは、目的データセットの画像と外部データセットの画像の輝度値を表す行列である。FIDは、目的データセットと外部データセットとの類似度が大きいほど小さくなる。
Figure 2020135485
また、(1)式のMS-SSIMは画一性の度合いであり、(3)式により表される(参考:非特許文献10)。I(x,x)は、画像xと画像xの明るさの差が大きいほど大きくなる関数である。c(x,x)は、画像xと画像xのコントラストの差が大きいほど大きくなる関数である。s(x,x)は、画像xと画像xの構造の違いが大きいほど大きくなる関数である。
Figure 2020135485
次に、学習部132について説明する。なお、学習部132の説明における外部データセット及び外部ラベルは、選択部131によって選択された外部データセット及び当該外部データのラベルを意味するものとする。
学習部132は、指定されたクラスを基にデータを生成する生成器Gに目的クラスが指定された際に、生成器Gが、識別器Dによって目的データセットのデータであると識別されやすくなるように学習を行う。
ここで、前述の通り、図3に示すように、識別器Dは、分類器としての機能を併せ持つ(参考:非特許文献17)。図3は、分類器としての機能を併せ持つ識別器について説明するための図である。以降の説明では、識別器Dが分類器として機能している場合、識別器Dを分類器Cと呼ぶ場合がある。図3のLAdv.は、識別器Dの識別結果の誤差である。一方、図3のLOLSRは、分類器Cの分類結果の誤差である。なお、OLSRは、Outer Label Smoothing Regularizationの略称である。
学習部132は、分類器Cによって複数の外部クラスに属する確率が0でなくかつ均等になるように計算されるデータを生成するように、生成器G、識別器D及び分類器Cを含む生成モデルの学習を行う。
図4及び5を用いて、学習部132による学習処理について説明する。図4は、外部データに対する学習処理を説明するための図である。また、図5は、目的データに対する学習処理を説明するための図である。
まず、外部データセットに対する学習処理を説明する。図4に示すように、生成器Gは、外部ラベルyがノイズzとともに指定されると、画像データXgenを生成する。また、外部データセットSには、画像データXが含まれる。識別器Dは、画像データXgen及び画像データXについて、本物であるか偽物であるかの識別を行う。そして、学習部132は、本物であるか偽物であるかの二値識別誤差が小さくなるように識別器Dのパラメータを更新し、逆に二値識別誤差が大きくなるように生成器Gのパラメータを更新する。
また、分類器Cは、外部ラベルyに含まれる各ラベルykO(k=1,2,…,K)ごとに、外部データXが属している確率を計算する。このとき、学習部132は、(4)式のZを0とおいた式により誤差を計算する。
Figure 2020135485
例えば、図4の例では、k=1がRetrieverクラスを表し、k=2がDachshundクラスを表し、k=KがTerrierクラスを表すものとする。また、画像Xは、Terrierクラス(k=K)の画像であるものとする。このとき、分類器Cは、画像XがRetrieverクラス(k=1)である確率を0.11、画像XがDachshundクラス(k=2)である確率を0.05、画像XがTerrierクラス(k=K)である確率を0.70と計算している。そして、学習部132は、例えば、次回画像Xが入力されたときに、Terrierクラス(k=K)である確率がより大きく計算されるように、生成器Gを含めた生成モデル121全体のパラメータを更新する。つまり、学習部132による学習処理によれば、分類器Cが、外部データセットのデータについては、当該データが属するクラスに属する確率が1になるように計算を行うようになる。
次に、目的データセットに対する学習処理を説明する。図5に示すように、生成器Gは、目的ラベルyがノイズzとともに指定されると、画像データXgenを生成する。また、目的データセットSには、画像データXが含まれる。識別器Dは、画像データXgen及び画像データXについて、本物であるか偽物であるかの識別を行う。そして、学習部132は、本物であるか偽物であるかの二値識別誤差が小さくなるように識別器Dのパラメータを更新し、逆に二値識別誤差が大きくなるように生成器Gを更新する。
また、分類器Cは、外部ラベルyに含まれる各ラベルykO(k=1,2,…,K)ごとに、外部データXが属している確率を計算する。このとき、学習部132は、(4)式のZを1とおいた式により誤差を計算する。
例えば、図5の例では、k=1がRetrieverクラスを表し、k=2がDachshundクラスを表し、k=KがTerrierクラスを表すものとする。また、画像Xは、k=1からKまでのいずれのクラスにも属さないものとする。このとき、分類器Cは、画像XがRetrieverクラス(k=1)である確率を0.2、画像XがDachshundクラス(k=2)である確率を0.14、画像XがTerrierクラス(k=K)である確率を0.11と計算している。
ここで、画像Xは、k=1からKまでのいずれのクラスにも属さないため、一般的な分類器では、計算される確率が0になるように学習が行われると考えられる。これに対し、学習部132は、例えば、次回画像Xが入力されたときに、k=1からKまでの各クラスである確率がいずれも1/Kと計算されるように、生成器Gを含めた生成モデル121全体のパラメータを更新する。つまり、学習部132による学習処理によれば、分類器Cが、目的データセットのデータについては、外部クラスのそれぞれに属する確率が、外部クラスに含まれるクラス数の逆数になるように計算を行うようになる。
ここで、生成器Gに指定されるラベルは各クラスの固有表現である。一方、ノイズはクラスに共通する共通表現である。例えば、ラベルが動物の種類を表す場合、画像に写る動物の種類はラベルによって決定され、画像の背景及び姿勢等はノイズにより決定されることが考えられる。このため、例えば、「犬」を表すラベル指定場合と「猫」を表すラベルを指定した場合とで、ノイズが共通であれば、それぞれの場合に生成器Gは、犬の画像と、当該犬の画像と背景及び姿勢が共通する猫の画像を生成することが考えられる。
しかしながら、実際には、生成器Gは、ノイズが共通であっても、例えば「屋外で左を向いて座っている犬の画像」と「屋内で左を向いて座っている猫の画像」とを生成する場合がある。これは、画像の背景が屋外であるか屋内であるかを決定する情報が、ノイズだけでなく、ラベルそのものにも含まれているためである。そこで、学習部132は、目的ラベルと異なるラベルからも、生成するデータの品質を上げるための有益な情報を得るために、上記のように分類器Cの学習を行う。
これにより、ノイズを変化させつつラベル「犬」を指定した場合に、生成器Gが、従来は生成できなかった「屋内で左を向いて座っている犬の画像」を生成できるようになることが考えられる。これにより、生成器Gは多様なデータを生成できるようになるため、拡張用データの品質が向上する。
生成部133は、学習部132による学習が行われた生成モデルの生成器Gに、目的クラスを指定することでデータを生成する。このとき、生成部133は、目的クラスとともにノイズを指定する。例えば、ノイズは、N(0,1)の正規分布にしたがって生成される値であってもよい。
図6に示すように、抽出部134は、生成部133によって生成されたデータから、識別器Dによって目的データセットのデータ(Good)であると識別されるデータを、拡張用データX´genとして抽出する。図6は、拡張用データの抽出について説明するための図である。生成器Gは、学習済みであったとしても、識別器Dによって偽物である(Bad)と識別されるデータを生成することが考えられる。そこで、抽出部134は、例えばDRS(Discriminator Rejection Sampling)を使って拡張用データを抽出する(参考:非特許文献13)。
さらに、抽出部134は、さらに、拡張用データから、目的データセットからのユークリッド距離が所定値以上であるデータを除外する。例えば、抽出部134は、抽出した拡張用データの画像の特徴ベクトルと目的データセットの画像の特徴ベクトルとのユークリッド距離が閾値以上である場合に、当該拡張用データを除外する。
付与部135は、抽出部134によって抽出された拡張用データに目的クラスに属することを示すラベルを付与する。図7は、拡張済みデータセットについて説明するための図である。図7に示すように、拡張済みデータセットS´は、目的データXと拡張用データX´genに目的ラベルyを付したものである。
[第1の実施形態の処理]
図8を用いて、拡張装置10の処理の流れについて説明する。図8は、第1の実施形態に係る拡張装置の処理の流れを示すフローチャートである。図8に示すように、まず、拡張装置10は、目的データセット及び外部データセットの入力を受け付ける(ステップS11)。次に、拡張装置10は、データセット間の類似度と外部データセット内の画一性の度合いとに基づくメトリクスによって、外部データセットを評価し所定のデータセットを選択する(ステップS12)。
そして、拡張装置10は、生成モデルを用いて、目的データセット及び外部データセットから画像を生成する(ステップS13)。このとき、拡張装置10は、目的ラベルと外部ラベルをノイズとともに生成モデルに指定する。ここで、拡張装置10は、生成した画像を基に生成モデルのパラメータを更新する(ステップS14)。ステップS14のパラメータ更新処理(学習処理)については、後に図9を用いて説明する。
その後、拡張装置10は、生成モデルに目的データセットのラベルを指定し(ステップS15)、指定したラベルを基に画像を生成する(ステップS16)。拡張装置10は、生成した画像から拡張用の画像を抽出する(ステップS17)。このとき、拡張装置10は、生成モデルの識別器の識別基準にしたがって拡張用の画像を抽出することができる。
そして、拡張装置10は、目的データセットの画像と拡張用画像を統合し、目的データセットのラベルを付与する(ステップS18)。さらに、拡張装置10は、目的ラベルを付与した拡張済みデータセットを出力し(ステップS19)、学習装置20に受け渡す。
図9を用いて、ステップ14のパラメータの更新処理を説明する。図9は、第1の実施形態に係る拡張装置のパラメータの更新処理の流れを示すフローチャートである。図9に示すように、まず、拡張装置10は、二値判定誤差を基に生成モデル121のパラメータを更新する(ステップS141)。
次に、拡張装置10は、未選択のラベルを選択する(ステップS142)。拡張装置10は、選択したラベルが目的ラベルである場合(ステップS143、目的ラベル)、ラベルが平滑化されるようにパラメータを更新する(ステップS144)。つまり、拡張装置10は、分類器Cによって計算される確率であって、目的データが各外部クラスに分類される確率が、いずれも1/K(Kは外部クラス数)となるように生成モデル121のパラメータを更新する(ステップS144)。
一方、選択したラベルが外部ラベルである場合(ステップS143、外部ラベル)、外部クラスを正しく分類するように生成モデル121のパラメータを更新する(ステップS145)。
未選択のラベルがある場合(ステップS146、Yes)、拡張装置10は、ステップS142に戻り処理を繰り返す。一方、未選択のラベルがない場合(ステップS146、No)、拡張装置10はパラメータ更新処理を終了する。
[第1の実施形態の効果]
これまで説明してきたように、拡張装置10は、目的クラスに属するデータの集合である目的データセット及び外部クラスに属するデータの集合である外部データセットとの間の類似度と、外部データセットに含まれるデータの画一性の度合いとから計算されるメトリクスに基づき、外部データセットの中から、所定のデータセットを選択する。拡張装置10は、指定されたクラスを基にデータを生成する生成器Gに目的クラスが指定された際に、生成器Gが、識別器Dによって目的データセットのデータであると識別されやすく、分類器Cによって複数の選択済み外部クラスに属する確率が0でなくかつ均等になるように計算されるデータを生成するように、生成器G、識別器D及び分類器Cを含む生成モデルの学習を行う。拡張装置10は、学習が行われた生成モデルの生成器Gに、目的クラスを指定することでデータを生成する。拡張装置10は、生成されたデータから、識別器Dによって目的データセットのデータであると識別されるデータを、拡張用データとして抽出する。拡張装置10は、抽出された拡張用データに目的クラスに属することを示すラベルを付与する。このように、拡張装置10は、入力される外部データセットを所定の基準であらかじめ選択し、外部データセットから得られる有益な情報が失われないように学習を行い、生成したデータを識別器の基準で抽出する。このため、第1の実施形態によれば、モデルの精度を大きく改善するような高品質な学習データを、データ拡張により効率良く得ることができる。
拡張装置10は、各データセットに含まれる画像データの輝度値の統計量を用いて計算された類似度と画一性の度合いとから計算されるメトリクスに基づき、外部データセットの中から選択済み外部データセットを選択する。これにより、学習データの品質向上に寄与しないデータをあらかじめ除外し、学習用データの品質を向上させることができる。
拡張装置10は、分類器Cが、目的データセットのデータについては、選択した外部データセットの外部クラスのそれぞれに属する確率が、選択済み外部クラスに含まれるクラス数の逆数になるように計算を行い、外部データセットのデータについては、当該データが属するクラスに属する確率が1になるように計算を行う。これにより、ラベルに含まれる有益な情報を持つ学習データの生成が可能になる。
拡張装置10は、さらに、拡張用データから、目的データセットからのユークリッド距離が所定値以上であるデータを除外する。これにより、拡張用データから外れ値を除外することができ、学習用データの品質を向上させることができる。
[実験結果]
ここで、従来の技術と実施形態を比較するために行った実験について説明する。実験では、外部データセットとして、図10に示すデータセットのそれぞれから5000点ずつデータを取得したものを使用した。図10は、実験に使用したデータを示す図である。そして、選択部131が外部データセットを選択するメトリクスの閾値を変化させて、目的モデル21の精度(Top-1 Accuracy)と拡張済みデータセットのFIDを比較した。
その結果、図11に示すように、横軸に示すメトリクスの閾値を大きくするにしたがい、拡張済みデータセットのFIDは小さくなった。図11は、実験の結果を示す図である。つまり、メトリクスの閾値が大きくなるにしたがい、拡張済みデータセットと目的データセットとの類似度が大きくなった。このため、メトリクスによるデータの選択が学習用データの品質を向上させているといえる。
また、図12に示すように、横軸に示すメトリクスの閾値を大きくするにしたがい、目的モデル21の精度(Acc.)が大きくなった。図12は、実験の結果を示す図である。このため、メトリクスによるデータの選択が、学習用データの品質を向上させ、その結果目的モデル21の精度を向上させているといえる。
また、図13に示すように、学習部132による、分類器Cが計算する各外部クラスに属する確率の平滑化(OLSR)、及び抽出部134による識別器Dの基準を利用したデータ抽出(DRS)を取り入れるにしたがい、目的モデル21の精度と拡張済みデータセットのFIDは良くなっていった。図13は、実験の結果を示す図である。なお、Baselineは従来のルールベースのデータ拡張手法である。
また、追加実験として、目的データを1/10に削減してBaseline及び第1の実施形態の手法を適用した場合と、目的データを削減せずに従来手法を適用した場合の比較を行った。図14は、追加実験の条件を示す図である。
また、図15は、追加実験の結果を示す図である。図15に示すように、第1の実施形態の手法では、目的データを1/10に削減したとしても、目的データを削減しなかった場合の従来の手法に近い精度が得られた。
[その他の実施形態]
上記の実施形態では、目的モデル21の学習機能は、拡張装置10とは異なる学習装置20に備えられていた。一方で、拡張装置10に、拡張済みデータセットS´genを目的モデル21に学習させる目的モデル学習部が備えられていてもよい。これにより、拡張装置10は、装置間のデータ転送によるリソースの消費を抑え、データ拡張及び目的モデルの学習を、一連の処理として効率良く実行することができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、拡張装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記のデータ拡張を実行する拡張プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の拡張プログラムを情報処理装置に実行させることにより、情報処理装置を拡張装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、拡張装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記のデータ拡張に関するサービスを提供する拡張サーバ装置として実装することもできる。例えば、拡張サーバ装置は、目的データを入力とし、拡張済みデータを出力とする拡張サービスを提供するサーバ装置として実装される。この場合、拡張サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記のデータ拡張に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図16は、拡張プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、拡張装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、拡張装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 拡張装置
11 入出力部
12 記憶部
13 制御部
20 学習装置
21 目的モデル
121 生成モデル
131 選択部
132 学習部
133 生成部
134 抽出部
135 付与部

Claims (6)

  1. 第1のクラスに属するデータの集合である第1のデータセット及び第2のクラスに属するデータの集合である第2のデータセットとの間の類似度と、前記第2のデータセットに含まれるデータの画一性の度合いとから計算されるメトリクスに基づき、前記第2のデータセットの中から、第3のクラスに属する第3のデータセットを選択する選択部と、
    指定されたクラスを基にデータを生成する生成器に前記第1のクラスが指定された際に、前記生成器が、識別器によって前記第1のデータセットのデータであると識別されやすく、分類器によって複数の前記第3のクラスに属する確率が0でなくかつ均等になるように計算されるデータを生成するように、前記生成器、前記識別器及び前記分類器を含む生成モデルの学習を行う学習部と、
    前記学習部による学習が行われた前記生成モデルの前記生成器に、前記第1のクラスを指定することでデータを生成する生成部と、
    前記生成部によって生成されたデータから、前記識別器によって前記第1のデータセットのデータであると識別されるデータを、拡張用データとして抽出する抽出部と、
    前記抽出部によって抽出された前記拡張用データに前記第1のクラスに属することを示すラベルを付与する付与部と、
    を有することを特徴とする拡張装置。
  2. 前記選択部は、各データセットに含まれる画像データの輝度値の統計量を用いて計算された前記類似度と前記画一性の度合いとから計算されるメトリクスに基づき、前記第2のデータセットの中から前記第3のデータセットを選択することを特徴とする請求項1に記載の拡張装置。
  3. 前記学習部は、
    前記分類器が、前記第1のデータセットのデータについては、前記第3のクラスのそれぞれに属する確率が、前記第3のクラスに含まれるクラス数の逆数になるように計算を行い、前記第3のデータセットのデータについては、当該データが属するクラスに属する確率が1になるように計算を行う、
    ように前記生成モデルの学習を行うことを特徴とする請求項1に記載の拡張装置。
  4. 前記抽出部は、さらに、前記拡張用データから、前記第1のデータセットからのユークリッド距離が所定値以上であるデータを除外することを特徴とする請求項1に記載の拡張装置。
  5. コンピュータによって実行される拡張方法であって、
    第1のクラスに属するデータの集合である第1のデータセット及び第2のクラスに属するデータの集合である第2のデータセットとの間の類似度と、前記第2のデータセットに含まれるデータの画一性の度合いとから計算されるメトリクスに基づき、前記第2のデータセットの中から、第3のクラスに属する第3のデータセットを選択する選択工程と、
    指定されたクラスを基にデータを生成する生成器に前記第1のクラスが指定された際に、前記生成器が、識別器によって前記第1のデータセットのデータであると識別されやすく、分類器によって複数の前記第3のクラスに属する確率が0でなくかつ均等になるように計算されるデータを生成するように、前記生成器、前記識別器及び前記分類器を含む生成モデルの学習を行う学習工程と、
    前記学習工程による学習が行われた前記生成モデルの前記生成器に、前記第1のクラスを指定することでデータを生成する生成工程と、
    前記生成工程によって生成されたデータから、前記識別器によって前記第1のデータセットのデータであると識別されるデータを、拡張用データとして抽出する抽出工程と、
    前記抽出工程によって抽出された前記拡張用データに前記第1のクラスに属することを示すラベルを付与する付与工程と、
    を含むことを特徴とする拡張方法。
  6. コンピュータを、請求項1から4のいずれか1項に記載の拡張装置として機能させるための拡張プログラム。
JP2019028851A 2019-02-20 2019-02-20 拡張装置、拡張方法及び拡張プログラム Pending JP2020135485A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019028851A JP2020135485A (ja) 2019-02-20 2019-02-20 拡張装置、拡張方法及び拡張プログラム
PCT/JP2020/004113 WO2020170803A1 (ja) 2019-02-20 2020-02-04 拡張装置、拡張方法及び拡張プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028851A JP2020135485A (ja) 2019-02-20 2019-02-20 拡張装置、拡張方法及び拡張プログラム

Publications (1)

Publication Number Publication Date
JP2020135485A true JP2020135485A (ja) 2020-08-31

Family

ID=72144650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028851A Pending JP2020135485A (ja) 2019-02-20 2019-02-20 拡張装置、拡張方法及び拡張プログラム

Country Status (2)

Country Link
JP (1) JP2020135485A (ja)
WO (1) WO2020170803A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107464301A (zh) * 2017-08-07 2017-12-12 青岛松立软件信息技术股份有限公司 一种停车场出口收费系统及其收费管理方法
WO2022249415A1 (ja) * 2021-05-27 2022-12-01 日本電信電話株式会社 情報提供装置、情報提供方法及び情報提供プログラム

Also Published As

Publication number Publication date
WO2020170803A1 (ja) 2020-08-27

Similar Documents

Publication Publication Date Title
JP7014100B2 (ja) 拡張装置、拡張方法及び拡張プログラム
US10474929B2 (en) Cyclic generative adversarial network for unsupervised cross-domain image generation
CN110362677B (zh) 文本数据类别的识别方法及装置、存储介质、计算机设备
WO2022142450A1 (zh) 用于图像分割模型训练和图像分割的方法及装置
JP5214760B2 (ja) 学習装置、方法及びプログラム
JP2019028839A (ja) 分類器、分類器の学習方法、分類器における分類方法
JP6620882B2 (ja) ドメイン適応を用いたパターン認識装置、方法およびプログラム
JP6633476B2 (ja) 属性推定装置、属性推定方法および属性推定プログラム
WO2020045313A1 (ja) マスク推定装置、マスク推定方法及びマスク推定プログラム
WO2020170803A1 (ja) 拡張装置、拡張方法及び拡張プログラム
WO2023088174A1 (zh) 目标检测方法及装置
US20220358658A1 (en) Semi Supervised Training from Coarse Labels of Image Segmentation
JP6535134B2 (ja) 作成装置、作成プログラム、および作成方法
JP4348202B2 (ja) 顔画像認識装置及び顔画像認識プログラム
CN112801186A (zh) 一种验证图像生成方法、装置及设备
JP4928193B2 (ja) 顔画像認識装置及び顔画像認識プログラム
CN113762005A (zh) 特征选择模型的训练、对象分类方法、装置、设备及介质
JP2013058095A (ja) 情報処理装置、推定機生成方法、及びプログラム
JP2007249394A (ja) 顔画像認識装置及び顔画像認識プログラム
JPWO2018151124A1 (ja) パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム
Esmaeili et al. Transduction with matrix completion using smoothed rank function
JP7047664B2 (ja) 学習装置、学習方法および予測システム
JP6930408B2 (ja) 推定装置、推定方法および推定プログラム
CN108206024B (zh) 一种基于变分高斯回归过程的语音数据处理方法
US20220405585A1 (en) Training device, estimation device, training method, and training program