JP7055769B2 - データ生成装置、データ生成方法およびプログラム - Google Patents

データ生成装置、データ生成方法およびプログラム Download PDF

Info

Publication number
JP7055769B2
JP7055769B2 JP2019081831A JP2019081831A JP7055769B2 JP 7055769 B2 JP7055769 B2 JP 7055769B2 JP 2019081831 A JP2019081831 A JP 2019081831A JP 2019081831 A JP2019081831 A JP 2019081831A JP 7055769 B2 JP7055769 B2 JP 7055769B2
Authority
JP
Japan
Prior art keywords
loss
inference
image
data
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019081831A
Other languages
English (en)
Other versions
JP2020181240A (ja
Inventor
修平 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2019081831A priority Critical patent/JP7055769B2/ja
Priority to US16/798,543 priority patent/US11301723B2/en
Publication of JP2020181240A publication Critical patent/JP2020181240A/ja
Application granted granted Critical
Publication of JP7055769B2 publication Critical patent/JP7055769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、データ生成装置、データ生成方法およびプログラムに関する。
ニューラルネットワークによる推論の根拠を分析するための技術が提案されている。例えば、乱数画像を初期値として、ニューラルネットワークの出力(モデル出力)が大きくなるほど小さくなるロス関数を最適化することでモデル出力を最大とする入力画像を推定する技術が提案されている。また、乱数ベクトルから入力画像を生成する生成器を別途学習しておき、生成器を用いて、モデル出力を最大とする入力画像を乱数ベクトルから生成する技術が提案されている。
Karen Simonyan, Andrea Vedaldi, Andrew Zisserman, "Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps", in arXiv:1312.6034v2 19 Apr 2014. Anh Nguyen, Alexey Dosovitskiy, Jason Yosinski, Thomas Brox, Jeff Clune, "Synthesizing the preferred inputs for neurons in neural networks via deep generator networks", in arXiv:1605.09304v5 23 Nov 2016. B. Zhou, A. Khosla, A. Lapedriza, A. Oliva, A. Torralba, "Learning Deep Features for Discriminative Localization", In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2921-2929, 2016.
しかしながら、従来技術では、入力データ(入力画像など)の推定(生成)の精度が低下する場合があった。例えば、従来技術は、L2正則などの単純な正則化を用いるため、モデル出力は大きくなるが、不自然な入力画像が生成される場合があった。
実施形態のデータ生成装置は、推論部と、ロス算出部と、更新部と、を備える。推論部は、入力データをニューラルネットワークに入力し、ニューラルネットワークの推論結果を得る。ロス算出部は、推論結果と推論の正解を示す対象ラベルとが一致する度合いが大きいほど値が小さくなる第1ロス、および、入力データに含まれる複数の要素の推論結果に対する寄与度と対象ラベルとに基づく第2ロスを算出する。更新部は、第1ロスおよび第2ロスに基づいて入力データを更新する。
本実施形態にかかるデータ生成装置のブロック図。 本実施形態における推定処理のフローチャート。 初期画像の一例を示す図。 注目度画像の一例を示す図。 本実施形態にかかるデータ生成装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかるデータ生成装置の好適な実施形態を詳細に説明する。
以下では、画像を入力データとして推論を行うニューラルネットワークを学習する学習装置を例に説明する。より具体的には、入力された画像(2次元画像)を、数字の0~9のいずれかに分類する10クラスの画像分類問題を例に説明する。適用可能な処理はこれに限られるものではなく、その他の推論処理(認識処理、分類処理、回帰処理を含む)にも適用できる。例えば、1クラスの分類処理(異常検出など)などの10クラス以外の分類処理にも適用できる。また、3次元画像を用いた推論、音声データからの推論対象(特定の話者など)の推論、および、テキストデータを用いた推論などにも適用できる。
本実施形態は、ニューラルネットワークの推論(認識)の寄与度に基づいた正則化を導入する。この正則化により、入力画像(入力データの一例)の推定精度が向上する。また、本実施形態では、生成器などの学習は不要である。入力画像は、ニューラルネットワークに入力される画像を意味する。入力画像は、例えば、初期値となる画像、および、初期画像に基づき更新され、推定された画像を含む。以下では、初期値となる画像を初期画像といい、推定された画像を推定画像という場合がある。
図1は、本実施形態にかかるデータ生成装置100を示すブロック図である。データ生成装置100は、記憶部121と、取得部101と、推論部102と、ロス算出部103と、注目度画像算出部104と、ロス算出部105と、更新部106と、出力制御部107と、を備える。
記憶部121は、データ生成装置100による各種処理に用いる各種データを記憶する。例えば記憶部121は、学習済みのニューラルネットワークを定めるパラメータ、初期画像、および、推定画像を記憶する。ニューラルネットワークを定めるパラメータは、例えば重み係数およびバイアスである。
記憶部121は、フラッシュメモリ、メモリカード、RAM(Random Access Memory)、HDD(Hard Disk Drive)、および、光ディスクなどの一般的に利用されているあらゆる記憶媒体により構成することができる。
取得部101は、データ生成装置100による各種処理で用いる各種情報を取得する。例えば取得部101は、初期画像、および、推論の正解を示す対象ラベルを取得する。取得部101が初期画像および対象ラベルを取得する方法はどのような方法であってもよい。取得部101は、例えば、記憶部121に記憶された初期画像および対象ラベルを読み出すことにより取得してもよいし、データ生成装置100の外部のサーバ装置などから初期画像および対象ラベルを受信することにより取得してもよい。
推論部102は、入力画像(初期画像、および、推定画像)に対するニューラルネットワークによる推論を実行する。例えば推論部102は、入力画像をニューラルネットワークに入力し、ニューラルネットワークから出力される推論結果を得る。
ロス算出部103は、入力画像の更新に用いるロスを算出する。ロスは、損失または誤差などとも呼ばれる。例えばロス算出部103は、推論部102による推論結果と、対象ラベルと、が一致する度合い(尤度)が大きいほど値が小さくなるロス(以下、ロスAともいう)を算出する。
注目度画像算出部104は、入力画像をニューラルネットワークに入力したときの入力画像の推論に寄与した領域を示す注目度画像(注目度データの一例)を生成する。注目度画像は、領域(画素など)ごとの推論時に注目(着眼)した度合い(注目度、寄与度)を示す画像(データ)と解釈することができる。注目度画像は、顕著性マップ(saliency map)などと呼ばれる場合がある。注目度画像の生成方法の詳細は後述する。
ロス算出部105は、入力画像の更新に用いるロスを算出する。例えばロス算出部105は、入力画像に含まれる複数の画素(要素)の推論結果に対する寄与度と、対象ラベルとに基づくロス(以下、ロスBともいう)を算出する。
なお、ロス算出部103およびロス算出部105は、分離されている必要はなく、1つの構成部(ロス算出部)がロスAおよびロスBの両方を算出するように構成してもよい。
更新部106は、ロスAおよびロスBに基づいて入力画像を更新し、新たな入力画像(推定画像)を生成する。例えば更新部106は、ロスAおよびロスBの両方を考慮したロス(ロスAおよびロスBの加重和など)がより小さくなるように、誤差逆伝搬法により入力画像を更新する。更新方法は誤差逆伝播法に限られるものではなく、どのような方法であってもよい。
出力制御部107は、データ生成装置100からの各種情報の出力を制御する。例えば出力制御部107は、更新部106により更新(生成)された推定画像を出力する。出力制御部107による情報の出力方法は、どのような方法であってもよい。例えば、出力制御部107は、ディスプレイなどの表示装置に情報を表示する方法、プリンタなどの出力装置を用いて情報を出力(印刷)する方法、および、サーバ装置などの外部の装置にネットワークを介して情報を送信する方法などを用いることができる。
上記各部(取得部101、推論部102、ロス算出部103、注目度画像算出部104、ロス算出部105、更新部106、出力制御部107)は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
またデータ生成装置100は、物理的に1つの装置によって構成されてもよいし、物理的に複数の装置によって構成されてもよい。例えばデータ生成装置100は、クラウド環境上で構築されてもよい。
次に、このように構成された本実施形態にかかるデータ生成装置100による推定画像の推定処理について説明する。図2は、本実施形態における推定処理の一例を示すフローチャートである。
まず、取得部101は、初期画像およびラベルを取得する(ステップS101)。以下では、入力画像をx、ラベルをtと表す。
図3は、初期画像の一例を示す図である。初期画像は、例えば横幅W、縦幅Hの画素集合であり、W×H次元のベクトルとする。図3に示すように、初期画像301は、x(u,v)と表される。uは水平方向の画素位置を表し、vは垂直方向の画素位置を表す。
ラベルtは、入力画像による推論の正解に該当する要素が1となり、それ以外の要素が0となる10次元ベクトルである。図3のように、正解が「9」である初期画像xの場合は、ラベルtは、(0,0,0,0,0,0,0,0,0,1)のように表される。以下ではラベルtのうち、正解を示す要素を対象ラベルといい、それ以外の要素を非対象ラベルという場合がある。
初期画像は、どのような画像であってもよく、目的等に応じて異なる画像を初期画像として用いることができる。例えば、以下のような画像を初期画像とすることができる。
・ニューラルネットワークの学習時に用いた訓練データのうち、対象ラベルに該当する訓練データの平均に相当する画像
・予め定められた実画像
・対象ラベルおよび非対象ラベルを含む複数のラベルに該当する訓練データの平均に相当する画像
・画素値がすべて0の画像(ゼロ画像)
・画素値を乱数により定めた画像(乱数画像)
図2では、初期画像そのものを外部から受け取る例が示されているが、取得部101が、初期画像を生成するための情報を受け取り、その情報を用いて初期画像を生成してもよい。例えば取得部101は、乱数の平均および分散などのパラメータを受け取り、受け取ったパラメータを用いて初期画像を生成してもよい。
取得部101は、取得した初期画像を、推定画像の初期値として記憶部121に設定(記憶)する(ステップS102)。以下では、推定画像を推定画像xと表す場合がある。
次に、推論部102は、推定画像xをニューラルネットワークに入力し、この入力に対するニューラルネットワークの推論結果である出力yを取得する(ステップS103)。出力yは、以下の(1)式により表される。
y=f(w、x) ・・・(1)
fは、重み係数集合wを保持するニューラルネットワークの関数である。例えば関数fは、畳み込み層、全結合層、正規化層、および、プーリング層などの複数の層の処理を繰り返し、ラベルtと同じ次元数の10次元ベクトルを出力する。なお、関数fの出力ベクトルは、ソフトマックス処理後の値であって、すべて要素が非負の値であり、かつ、要素の総和が1に正規化されているものとする。
次に、ロス算出部103は、ラベルと、推論結果(出力y)とに基づいて、出力yと対象ラベルとが一致する度合いが大きいほど小さくなるようなロスAを算出する(ステップS104)。例えばロス算出部103は、以下の(2)式によりロスA(L)を算出する。
=tln(y) ・・・(2)
次に注目度画像算出部104は、ニューラルネットワークの中間層データ(中間画像)およびパラメータ(重み係数)などに基づいて注目度画像を生成する(ステップS105)。注目度画像sは、例えば以下の(3)式により生成される。
s=g(w、x) ・・・(3)
gは、ニューラルネットワークの重み係数集合w、および、推定画像xに基づいて注目度画像を出力する関数である。注目度画像は、例えば非特許文献3に示されるクラス・アクティベーション・マッピング(Class Activation Mapping)などを用いることができる。クラス・アクティベーション・マッピングを用いる場合は、推定画像xを推論したときのニューラルネットワークの中間画像を、対象ラベルに関連する重み係数集合wの値で線形合成する関数が、関数gとして使用して生成できる。中間画像は、ニューラルネットワークの中間層の出力に相当する画像である。
図4は、注目度画像の一例を示す図である。図4は、正解が「9」である入力画像401に対する推論結果をもとに算出される注目度画像402の例を示す。注目度画像402の上部の数値(0~9)は、注目度画像402の10個の要素それぞれに対応する推論結果を表す。注目度画像402は、推論の寄与度に応じた画素値を有する画像である。図4では、ハッチングの種類の違いにより画素値(寄与度)の違いを表しているが、例えば非特許文献3と同様に、色により画素値(寄与度)を表すように構成してもよい。
図4の例では、「9」に対応する注目度画像の画素411、および、「4」に対応する注目度画像の一部の画素412が、寄与度が大きい画素となっている。
図4に示す注目度画像は一例であり、その他のどのような注目度画像を用いてもよい。多くの注目度画像の算出方法は、図4の例と同様に、出力yのそれぞれの要素ごとに寄与度を算出することが可能である。算出方法によって注目度画像の縦幅と横幅は異なるが、本実施形態では推定画像xと同じ縦幅および横幅で注目度画像を算出することとする。すなわち、本実施形態では、注目度画像sは、(W×H×C)次元ベクトルとなる。Cは、分類するクラスの個数に相当する。本実施形態ではC=10である。
以上のように、注目度画像は、入力画像をニューラルネットワークに入力したときの入力画像の推論に寄与した領域を示す画像である。推論に寄与した領域は、例えば、その領域の値が変わることによる推論結果への影響が大きい領域、出力のうち活性がある部分からニューラルネットワークの経路を逆にたどって得られる領域、などを含む。
図2に戻り、ロス算出部105は、ラベルと注目度画像sとに基づいて、注目度画像sに基づいた正則化項であるロスBを算出する(ステップS106)。例えばロス算出部105は、以下の(4)式のように、対象ラベルに対する注目度画像sの画素値の総和をロスB(L)として算出する。
=ΣΣs(u、v、c) ・・・(4)
ここで、cは、ラベルtのうち対象ラベルに相当する要素を示す値である。s(u、v、c)は、水平方向の画素位置u、垂直方向の画素位置v、対象ラベルcに対応する注目度画像の画素値を表す。(4)式のロスBは、対象ラベルと一致する推論結果に対する寄与度が大きいほど小さい値となるロスであると解釈することができる。(4)式の代わりに、非対象ラベルと一致する推論結果(対象ラベルと一致しない推論結果)に対する寄与度が小さいほど小さい値となるロスをロスBとしてもよい。
なお、(4)式に示すような注目度画像sの画素値の総和に相当する値を算出できれば、ステップS105で注目度画像を生成する必要はない。
次に、更新部106は、ロスLおよびロスLに基づいて、誤差逆伝搬法などの方法により、推定画像xの値を更新し、新たな推定画像を生成する(ステップS107)。
次に、更新部106は、更新が終了したか否かを判定する(ステップS108)。更新部106は、例えば、ロス(ロスLおよびロスLの加重和など)の絶対値、ロスの減少幅、および、推定画像の更新回数(ステップS103からステップS107までの処理の回数)などにより、更新の終了を判定する。更新を継続する場合は(ステップS108:No)、ステップS103に戻り、処理が繰り返される。更新が終了したと判定された場合(ステップS108:Yes)、推定処理を終了する。この後、例えば出力制御部107が、推定された推定画像を出力してもよい。
以上のように、本実施形態では、ニューラルネットワークの出力を最大にする入力データ(入力画像)を推定するときに、ニューラルネットワークの出力に対する寄与度を表す注目度画像に基づく正則化項を導入する。これにより、推定画像の推定精度を向上させること可能となる。
本実施形態のように、学習済みのニューラルネットワークの出力がより大きくなる入力データを推定することで、ニューラルネットワークが何を学んだかを解釈したり理解したりすることが可能となる。その結果、ニューラルネットワークによる推定の根拠を説明すること(透明性を示すこと)、および、訓練データの偏りに気づくことなどが可能となる。すなわち、推定した入力データにより、ニューラルネットワークのデバッグが可能となる。
また、入力と出力との関係性を暗にニューラルネットワークで近似し、そのネットワークの出力を大きくする入力を推定することもできる。すなわち、出力を大きくする新しい入力データ(入力パターン)を発見するために、本実施形態の手法を適用することができる。
(変形例1)
推定処理は、他クラスに分類する分類処理だけでなく、例えば回帰処理であってもよい。例えば、設計図の画像を入力して、特性(効率、耐久性など)を出力するニューラルネットワークを対象としてもよい。この場合、ロス算出部103は、例えば、特性が大きくなるほど小さくなるロスAを、以下の(5)式に従い算出する。
=exp(-y) ・・・(5)
ロスAは、ニューラルネットワークの出力(特性など)をより大きくするほど小さくなるロスに限られない。例えば、出力を特定の値(対象ラベルに相当)に近づけるなどの観点でロスAが設計されてもよい。特定の値を0として、出力が0に近づくほどロスAが小さくなるよう設計されてもよい。
回帰処理の場合、対象ラベルが用いられない場合がある。このような場合、ロス算出部105は、対象ラベルを用いずに注目度画像sに基づいた正則化項であるロスBを算出する。例えばロス算出部105は、以下の(6)式のように、注目度画像sの画素値の総和をロスB(L)として算出する。s(u、v)は、水平方向の画素位置u、垂直方向の画素位置vに対応する注目度画像の画素値を表す。
=ΣΣs(u、v) ・・・(6)
上記のように、入力データは画像に限られない。例えば、温度、時間などの加工品の製造時のパラメータ(テキストデータなど)を入力して、特性を出力するニューラルネットワークを対象としてもよい。この場合、より良い特性が出力されるパラメータを推定するために、本実施形態の手法を適用できる。
また、音声データが入力データとされてもよい。例えば、音声データを入力して、音声認識結果を出力するニューラルネットワークを対象としてもよい。このようなニューラルネットワークを対象とした場合、音声認識に寄与するタイミング(時間)をコントロールしながら、認識の精度(出力)をより大きくする入力を推定することが可能となる。
(変形例2)
ロス算出部105は、上記(4)式以外に、以下の値をロスBとして算出してもよい。
(LB1)注目度画像の画素値の最大値
(LB2)注目度画像と初期画像との誤差
(LB3)注目度画像の所定の分布との誤差
LB2の場合、初期画像は、乱数画像およびゼロ画像などではなく、自然で意味のある画像であることがより有効である。例えば、推定画像を推定する時点で最も性能がよい入力画像(設計図の画像など)を初期画像とする。これにより、推論に寄与する要素の位置を固定したまま、ニューラルネットワークの出力をより大きくする入力データ(入力画像など)を推定できるようになる。
LB3の所定の分布は、例えば、注目する位置に大きい値が設定された分布などである。例えば、右上の領域に飛行機が含まれるという条件でニューラルネットワークの出力が大きくなるような推定画像を推定する場合、右上の領域の画素値が大きい画像を、所定の分布として用いることができる。これにより、推論に寄与するパターンの出現位置をコントロールした上で、ニューラルネットワークの出力をより大きくする入力データ(入力画像など)を推定できるようになる。
LB2およびLB3で用いる誤差は、どのような方法で算出されてもよいが、例えば正規化相互相関、および、平均二乗誤差などを用いることができる。
次に、本実施形態にかかるデータ生成装置のハードウェア構成について図5を用いて説明する。図5は、本実施形態にかかるデータ生成装置のハードウェア構成例を示す説明図である。
本実施形態にかかるデータ生成装置は、CPU51などの制御装置と、ROM(Read Only Memory)52やRAM53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
本実施形態にかかるデータ生成装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
本実施形態にかかるデータ生成装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、本実施形態にかかるデータ生成装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態にかかるデータ生成装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施形態にかかるデータ生成装置で実行されるプログラムは、コンピュータを上述したデータ生成装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 データ生成装置
101 取得部
102 推論部
103、105 ロス算出部
104 注目度画像算出部
106 更新部
107 出力制御部
121 記憶部

Claims (8)

  1. 入力データをニューラルネットワークに入力し、前記ニューラルネットワークの推論結果を得る推論部と、
    前記推論結果と推論の正解を示す対象ラベルとが一致する度合いが大きいほど値が小さくなる第1ロス、および、前記入力データに含まれる複数の要素の前記推論結果に対する寄与度と前記対象ラベルとに基づく第2ロスを算出するロス算出部と、
    前記第1ロスおよび前記第2ロスに基づいて前記入力データを更新する更新部と、
    を備えるデータ生成装置。
  2. 前記第2ロスは、前記対象ラベルと一致する推論結果に対する前記寄与度が大きいほど小さい値である、
    請求項1に記載のデータ生成装置。
  3. 前記第2ロスは、前記対象ラベルと一致しない推論結果に対する前記寄与度が小さいほど小さい値である、
    請求項1に記載のデータ生成装置。
  4. 複数の前記要素ごとの寄与度を示す注目度データを生成する生成部をさらに備え、
    前記第2ロスは、前記注目度データと予め定められたデータとの誤差が小さいほど小さい値である、
    請求項1に記載のデータ生成装置。
  5. 前記予め定められたデータは、前記推論結果の初期値である、
    請求項4に記載のデータ生成装置。
  6. 入力データをニューラルネットワークに入力し、前記ニューラルネットワークの推論結果を得る推論部と、
    前記推論結果の値が大きいほど、または、推論結果が特定の値に近いほど値が小さくなる第1ロス、および、前記入力データに含まれる複数の要素の前記推論結果に対する寄与度に基づく第2ロスを算出するロス算出部と、
    前記第1ロスおよび前記第2ロスに基づいて前記入力データを更新する更新部と、
    を備えるデータ生成装置。
  7. 入力データをニューラルネットワークに入力し、前記ニューラルネットワークの推論結果を得る推論ステップと、
    前記推論結果と推論の正解を示す対象ラベルとが一致する度合いが大きいほど値が小さくなる第1ロス、および、前記入力データに含まれる複数の要素の前記推論結果に対する寄与度と前記対象ラベルとに基づく第2ロスを算出するロス算出ステップと、
    前記第1ロスおよび前記第2ロスに基づいて前記入力データを更新する更新ステップと、
    を含むデータ生成方法。
  8. コンピュータを、
    入力データをニューラルネットワークに入力し、前記ニューラルネットワークの推論結果を得る推論部と、
    前記推論結果と推論の正解を示す対象ラベルとが一致する度合いが大きいほど値が小さくなる第1ロス、および、前記入力データに含まれる複数の要素の前記推論結果に対する寄与度と前記対象ラベルとに基づく第2ロスを算出するロス算出部と、
    前記第1ロスおよび前記第2ロスに基づいて前記入力データを更新する更新部と、
    として機能させるためのプログラム。
JP2019081831A 2019-04-23 2019-04-23 データ生成装置、データ生成方法およびプログラム Active JP7055769B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019081831A JP7055769B2 (ja) 2019-04-23 2019-04-23 データ生成装置、データ生成方法およびプログラム
US16/798,543 US11301723B2 (en) 2019-04-23 2020-02-24 Data generation device, data generation method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019081831A JP7055769B2 (ja) 2019-04-23 2019-04-23 データ生成装置、データ生成方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020181240A JP2020181240A (ja) 2020-11-05
JP7055769B2 true JP7055769B2 (ja) 2022-04-18

Family

ID=72917266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019081831A Active JP7055769B2 (ja) 2019-04-23 2019-04-23 データ生成装置、データ生成方法およびプログラム

Country Status (2)

Country Link
US (1) US11301723B2 (ja)
JP (1) JP7055769B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117548A (ja) * 2020-01-22 2021-08-10 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US11468294B2 (en) * 2020-02-21 2022-10-11 Adobe Inc. Projecting images to a generative model based on gradient-free latent vector determination
WO2022185432A1 (ja) * 2021-03-03 2022-09-09 Heroz株式会社 画像認識学習システム、画像認識学習方法、画像認識学習プログラム、画像認識機械学習器、および画像認識システム
CN114780707B (zh) * 2022-06-21 2022-11-22 浙江浙里信征信有限公司 基于多跳推理联合优化的多跳问题回答方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143354A (ja) 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 学習装置、学習方法、およびプログラム
JP2017059090A (ja) 2015-09-18 2017-03-23 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2018206199A (ja) 2017-06-07 2018-12-27 Kddi株式会社 管理装置、管理方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064692A (ja) * 1992-06-23 1994-01-14 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワークの学習方式
JP6773707B2 (ja) * 2018-03-20 2020-10-21 株式会社東芝 信号処理装置、信号処理方法およびプログラム
JP7086878B2 (ja) 2019-02-20 2022-06-20 株式会社東芝 学習装置、学習方法、プログラムおよび認識装置
JP7106486B2 (ja) * 2019-04-22 2022-07-26 株式会社東芝 学習装置、学習方法、プログラムおよび情報処理システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143354A (ja) 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 学習装置、学習方法、およびプログラム
JP2017059090A (ja) 2015-09-18 2017-03-23 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2018206199A (ja) 2017-06-07 2018-12-27 Kddi株式会社 管理装置、管理方法、及びプログラム

Also Published As

Publication number Publication date
US11301723B2 (en) 2022-04-12
US20200342266A1 (en) 2020-10-29
JP2020181240A (ja) 2020-11-05

Similar Documents

Publication Publication Date Title
JP7055769B2 (ja) データ生成装置、データ生成方法およびプログラム
US11544831B2 (en) Utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image
JP6441980B2 (ja) 教師画像を生成する方法、コンピュータおよびプログラム
CN113039563A (zh) 学习生成用于训练神经网络的合成数据集
US20210019572A1 (en) Training a generative model and a discriminative model
US10614347B2 (en) Identifying parameter image adjustments using image variation and sequential processing
KR20170140214A (ko) 신경망을 위한 훈련 기준으로서의 필터 특이성
US10762391B2 (en) Learning device, learning method, and storage medium
EP3745309A1 (en) Training a generative adversarial network
JP7086878B2 (ja) 学習装置、学習方法、プログラムおよび認識装置
JP2017211939A (ja) 生成装置、生成方法、及び生成プログラム
JP6946255B2 (ja) 学習装置、推定装置、学習方法およびプログラム
US10832036B2 (en) Meta-learning for facial recognition
JP7207846B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN114925748A (zh) 模型训练及模态信息的预测方法、相关装置、设备、介质
US11640530B2 (en) Learning device, learning method, computer program product, and recognition device
CN115362478A (zh) 用于标记图像之间的空间关系的强化学习模型
JP2020135879A (ja) 画像処理装置、方法及び記憶媒体
JP2021051589A5 (ja)
US20230281981A1 (en) Methods, devices, and computer readable media for training a keypoint estimation network using cgan-based data augmentation
JP6622150B2 (ja) 情報処理装置および情報処理方法
JP7395705B2 (ja) 推定装置、推定方法及びプログラム
EP4235588A1 (en) Novel view generation method, training method, computer program, readable medium and system
JP2018022332A (ja) 判定装置、判定方法、及び判定プログラム
US20190156182A1 (en) Data inference apparatus, data inference method and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220406

R151 Written notification of patent or utility model registration

Ref document number: 7055769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151