JP2022076203A - データ生成プログラム、データ生成方法および情報処理装置 - Google Patents

データ生成プログラム、データ生成方法および情報処理装置 Download PDF

Info

Publication number
JP2022076203A
JP2022076203A JP2020186509A JP2020186509A JP2022076203A JP 2022076203 A JP2022076203 A JP 2022076203A JP 2020186509 A JP2020186509 A JP 2020186509A JP 2020186509 A JP2020186509 A JP 2020186509A JP 2022076203 A JP2022076203 A JP 2022076203A
Authority
JP
Japan
Prior art keywords
data
loss
model
identification
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020186509A
Other languages
English (en)
Inventor
孝 河東
Takashi Kato
健人 上村
Taketo Uemura
優 安富
Masaru Yasutomi
友裕 早瀬
Tomohiro Hayase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020186509A priority Critical patent/JP2022076203A/ja
Priority to US17/473,509 priority patent/US20220147764A1/en
Priority to EP21196278.2A priority patent/EP3996001A1/en
Publication of JP2022076203A publication Critical patent/JP2022076203A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Abstract

【課題】モデルの精度劣化の原因を特定することを課題とする。【解決手段】情報処理装置は、第1ドメインに対応する第1データセットと第2ドメインに対応する第2データセットとを用いて訓練され、かつ、識別モデルによる識別の損失をパラメータに含むデータ生成モデルを取得する。情報処理装置は、第1ドメインに対応する第1データを識別モデルに入力して第1の識別の損失を取得するとともに、第2ドメインに対応する第2データを識別モデルに入力して第2の識別の損失を取得する。情報処理装置は、データ生成モデルを用いて、第2の識別の損失を第1の識別の損失に近づけたデータを生成し、生成されたデータを出力する。【選択図】図1

Description

本発明は、データ生成プログラム、データ生成方法および情報処理装置に関する。
深層学習などの機械学習により学習されたモデルは、訓練時と異なる性質のデータが入力されるドメインシフトなどにより判断の間違いが発生し、精度が劣化することがある。近年では、モデルが間違った出力したときに、なぜ間違ったかを分析することが行われている。例えば、モデルが間違えたデータを提示する技術や、発生したドメインシフトを可視化する技術が知られている。
特開2017-4509号公報
しかしながら、上記技術では、モデルの精度劣化の原因を特定することが難しい。例えば、間違ったデータの提示では、間違った原因を特定できず、ドメインシフトの提示では、精度劣化と関係がある原因まで特定することができない。
一つの側面では、モデルの精度劣化の原因を特定することができるデータ生成プログラム、データ生成方法および情報処理装置を提供することを目的とする。
第1の案では、データ生成プログラムは、コンピュータに、第1ドメインに対応する第1データセットと第2ドメインに対応する第2データセットとを用いて訓練され、かつ、識別モデルによる識別の損失をパラメータに含むデータ生成モデルを取得する処理を実行させる。データ生成プログラムは、コンピュータに、前記第1ドメインに対応する第1データを前記識別モデルに入力して第1の前記識別の損失を取得するとともに、前記第2ドメインに対応する第2データを前記識別モデルに入力して第2の前記識別の損失を取得する処理を実行させる。データ生成プログラムは、コンピュータに、前記データ生成モデルを用いて、前記第2の識別の損失を前記第1の識別の損失に近づけたデータを生成し、生成された前記データを出力する処理を実行させる。
一実施形態によれば、モデルの精度劣化の原因を特定することができる。
図1は、実施例1にかかる情報処理装置を説明する図である。 図2は、参考技術の問題点を説明する図である。 図3は、参考技術の問題点を説明する図である。 図4は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。 図5は、生成モデルの訓練を説明する図である。 図6は、可視化対象データの選択を説明する図である。 図7は、特徴量と損失の抽出を説明する図である。 図8は、特徴量と損失の補間を説明する図である。 図9は、補間データの生成を説明する図である。 図10は、出力データを説明する図である。 図11は、出力データの提示例を説明する図である。 図12は、処理の流れを示すフローチャートである。 図13は、生成モデルとして用いるGANの訓練を説明する図である。 図14は、スタイル変換器の訓練を説明する図である。 図15は、スタイル変換器を用いた可視化対象データの生成を説明する図である。 図16は、ハードウェア構成例を説明する図である。
以下に、本願の開示するデータ生成プログラム、データ生成方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[情報処理装置の説明]
図1は、実施例1にかかる情報処理装置10を説明する図である。近年、機械学習により学習されたモデルに対して、判断根拠が知りたいという要望が存在する。モデルが間違える要因の一つには、訓練時と異なる性質のデータが入力されるドメインシフトが知られており、このドメインシフトによりモデルが劣化する。図1に示す情報処理装置10は、上記要望に応えるために、モデルが間違えたデータに対してその原因を示唆する情報を出力することで、モデルの精度劣化の原因を特定するコンピュータ装置の一例である。
まず、モデルの精度劣化の手法として行われている参考技術の問題点について説明する。図2と図3は、参考技術の問題点を説明する図である。参考技術では、モデルが間違えたデータの提示を実行する。図2の(a)に示すように、参考技術では、ドメインシフト前の特徴量の分布における正誤判定の決定平面に対して、間違えたデータの特徴量を特定し、その特徴量に対応する入力データ(間違ったデータ)を提示する。また、図2の(b)に示すように、参考技術では、ドメインシフト後の特徴量の分布における正誤判定の決定平面に対して、ドメインシフト後により新たに間違えたデータの特徴量を特定し、その特徴量に対応する入力データ(間違ったデータ)を提示する。
このように、間違ったデータだけを提示する参考技術では、間違った原因を特定することができないので、モデルの再学習などの対策を実行することができない。
また、図3に示すように、間違った原因がドメインシフトである場合に、発生したドメインシフトを可視化する参考技術も知られている。しかし、ドメインシフトの発生を提示するだけでは、入力データである画像の色の変化に原因があるのか、入力データである画像の傾きに原因があるのかを特定することができず、モデルの再学習などの対策を検討することが難しい。
そこで、実施例1にかかる情報処理装置10は、ドメインシフト前後のデータを含むデータを、性能分析の対象である分類モデルの損失を条件として生成する生成モデルを用いて、ドメインシフト前後の対応付いた2つのデータを補間することで、分類モデルの性能を悪化させるまたは悪化させないデータの変化をユーザに示唆する。
例えば、図1に示すように、情報処理装置10は、分類モデルによる分類精度が高いドメインシフト前の第1ドメインの第1データセットと、分類モデルによる分類精度が低いドメインシフト後の第2ドメインの第2データセットとを訓練データxsとして、訓練データxsの特徴量Zと訓練データxsに対する分類モデルの損失Lを条件として生成モデルを生成する。すなわち、第1データセットと第2データセットは、データの性質(分布)が異なるデータセットである。
その後、情報処理装置10は、第1ドメインに属する第1データの特徴量および第1データに対する分類モデルの損失との組合せ1、第2ドメインに属する第2データの特徴量および第2データに対する分類モデルの損失との組合せ2を取得する。そして、情報処理装置10は、組合せ1から組合せ2の間にある特徴量と損失との組み合わせを線形補間する。
そして、情報処理装置10は、補間した各特徴量を生成モデルに入力して、各特徴量に対応する各データを生成する。その後、情報処理装置10は、分類モデルによる分類が成功する第1データ、分類が失敗する第2データ、第1データから第2データへの遷移の途中に位置する生成データをユーザに出力する。この結果、情報処理装置10は、分類モデルの精度劣化の原因を特定する情報をユーザに提示することができる。
[機能構成]
図4は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図4に示すように、情報処理装置10は、通信部11、表示部12、記憶部13、制御部20を有する。
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどにより実現される。例えば、通信部11は、管理者端末から、訓練データ、適用先データ、各種指示などを受信する。また、通信部11は、管理者端末に、分析結果などを送信する。
表示部12は、各種情報を表示する処理部であり、例えばディスプレイやタッチパネルなどにより実現される。例えば、表示部12は、分析結果などを表示する。
記憶部13は、各種データや制御部20が実行するプログラムなどを記憶する処理部であり、例えばメモリやハードディスクなどにより実現される。この記憶部13は、第1データセット14、第2データセット15、分類モデル16、生成モデル17を記憶する。
第1データセット14は、分類モデル16の訓練(機械学習)に利用されたデータセットである。例えば、第1データセット14に記憶される各データには、正解情報であるラベルが付与されている。また、第1データセット14は、分類モデル16による分類精度が高精度である第1ドメインに属する複数のデータを有する。すなわち、第1データセット14内の各データは、ドメインシフト前のデータに該当する。
第2データセット15は、訓練済みの分類モデル16による分類対象のデータセットである。例えば、第2データセット15は、分類モデル16による分類精度が低精度である第2ドメインに属する複数のデータを有する。すなわち、第2データセット15内の各データは、ドメインシフト後のデータに該当する。
分類モデル16は、第1データセット14を用いた訓練(機械学習)により生成される、ニューラルネットワーク(以下では、NNと記載する場合がある)を用いたモデルの一例である。例えば、分類モデル16は、画像データが入力された場合に、当該画像データに写っているか文字を分類する。なお、分類モデル16は、訓練により生成されたモデルそのものであってもよく、訓練により生成されたNNのパラメータであってもよい。
生成モデル17は、第1データセット14と第2データセット15とを用いた訓練により生成される、NNを用いたモデルの一例である。例えば、生成モデル17は、自己符号化器(オートエンコーダ)などであり、入力データから特徴量を抽出して再構成データを生成する。なお、生成モデル17は、訓練により生成されたモデルそのものであってもよく、訓練により生成されたNNのパラメータであってもよい。
制御部20は、情報処理装置10全体を司る処理部であり、例えばプロセッサなどにより実現される。この制御部20は、分類モデル訓練部21、生成モデル訓練部22、データ選択部23、抽出部24、補間部25、生成部26、表示制御部27を有する。なお、分類モデル訓練部21、生成モデル訓練部22、データ選択部23、抽出部24、補間部25、生成部26、表示制御部27は、プロセッサが有する電子回路やプロセッサが実行するプロセスなどにより実現される。
分類モデル訓練部21は、第1データセット14を用いた訓練により分類モデル16を生成する処理部である。例えば、分類モデル訓練部21は、第1データセット14に含まれる各データを分類モデル16に入力し、分類モデル16の出力とラベルとが一致するように(誤差が最小化するように)、分類モデル16の訓練を実行する。
生成モデル訓練部22は、第1データセット14と第2データセット15とを用いた訓練により生成モデル17を生成する処理部である。具体的には、生成モデル訓練部22は、第1ドメインに対応する第1データセットと第2ドメインに対応する第2データセットとを用いた訓練によりされ、分類モデルによる分類の損失をパラメータに含む生成モデル17を生成する。
例えば、生成モデル17にオートエンコーダを用いた例で説明する。図5は、生成モデル17の訓練を説明する図である。図5に示すように、生成モデル訓練部22は、第1データセット14または第2データセット15から訓練データxを取得し、分類モデル16に入力して分類モデル16の損失Lを取得する。この損失Lは、分類モデル16が正しく分類できるほど小さな値となり、分類モデル16が間違った分類を行うほど大きな値となる。
続いて、生成モデル訓練部22は、訓練データxを生成モデル17のエンコーダに入力して、特徴量である潜在変数Z1とZ2とを取得する。そして、生成モデル訓練部22は、訓練データxの特徴量(潜在変数Z1、Z2)と分類モデル16から取得した損失Lとを生成モデル17のデコーダに入力し、再構成データx´を取得する。その後、生成モデル訓練部22は、訓練データxと再構成データx´とが一致するように(誤差が最小化するように)、生成モデル17の訓練を実行する。
すなわち、生成モデル訓練部22は、分析対象となる分類モデル16の損失を条件としてデータ生成を行う生成モデル17を生成する。つまり、生成モデル訓練部22は、分類モデル16の損失Lに依存しない残りの特徴、言い換えると分類モデル16の性能に影響を与えない特徴を潜在変数Z1とZ2に誘導するように、生成モデル17の訓練を実行する。
データ選択部23は、可視化対象のデータを選択する処理部である。具体的には、データ選択部23は、ドメイン1に属する第1データセット14から任意のデータを選択し、ドメイン2に属する第2データセット15から任意のデータを選択し、抽出部24に出力する。
図6は、可視化対象データの選択を説明する図である。図6に示すように、データ選択部23は、第1データセット14内の各データのうち、分類モデル16の損失が最小である第1データや分類モデル16の損失が閾値以下である任意の第1データを選択する。同様に、データ選択部23は、第2データセット15内の各データのうち、分類モデル16の損失が最大である第2データや分類モデル16の損失が閾値以上である任意の第2データを選択する。
つまり、データ選択部23は、可視化対象データとして、分類モデル16による分類が成功した第1データと、分類モデル16による分類が失敗した第2データとを選択する。
抽出部24は、可視化対象データの特徴量や、可視化対象データに対する分類モデルの損失を抽出する処理部である。具体的には、抽出部24は、可視化対象である第1データと第2データのそれぞれを分類モデル16に入力して、それぞれの損失を抽出する。また、抽出部24は、可視化対象である第1データと第2データのそれぞれを生成モデル17のエンコーダに入力して、それぞれの特徴量を抽出する。そして、抽出部24は、抽出した情報を補間部25に出力する。
図7は、特徴量と損失の抽出を説明する図である。図7の例では、第1データは、文字「A」の画像データであり、第2データは、第1データの文字よりも太く、異なる色の線で書かれた文字「A」の画像データである。図7に示すように、抽出部24は、第1データを分類モデル16に入力して損失L(0.1)を抽出し、第1データを生成モデル17のエンコーダに入力して特徴量(Z1=2.7、Z2=0.3)を抽出する。同様に、抽出部24は、第2データを分類モデル16に入力して損失L(0.9)を抽出し、第2データを生成モデル17のエンコーダに入力して特徴量(Z1=1.1、Z2=3.1)を抽出する。
補間部25は、第1データに対応する損失から第2データに対応する損失までの間の各損失を補間し、第1データの特徴量から第2データの特徴量までの間の各特徴量を補間する処理部である。そして、補間部25は、補間した結果を生成部26に出力する。
図8は、特徴量と損失の補間を説明する図である。図8に示すように、補間部25は、第1データの特徴量(Z1=2.7、Z2=0.3)と第2データの特徴量(Z1=1.1、Z2=3.1)とを2点として、線形補間を実行する。この結果、補間部25は、2点間の近似値として、特徴量(Z1=2.3、Z2=1.0)、特徴量(Z1=1.9、Z2=1.7)、特徴量(Z1=1.5、Z2=2.4)を算出する。
同様に、補間部25は、第1データの損失L(0.1)と第2データの損失L(0.9)とを2点として、線形補間を実行する。この結果、補間部25は、2点間の近似値として、損失L(0.3)、損失L(0.5)、損失L(0.7)を算出する。なお、線形補間の手法は、公知の様々な手法を採用することができる。ここでは、特徴量と損失とを同じ数だけ補間することもできる。なお、多次元の特徴量と1次元の損失とを1つの組と考え、これらの次元を有する空間上で補間することもできる。
生成部26は、補間された特徴量等を用いて、補間データ(生成データ)を生成する処理部である。具体的には、生成部26は、補間された各特徴量と各損失とを組み合わせた複数の組合せを生成し、各組合せと生成モデル17とを用いて、第1データから第2データまでの間を補間する複数の補間データを生成する。
図9は、補間データの生成を説明する図である。図9に示すように、生成部26は、補間された各特徴量および各損失と、第1データの特徴量および損失と、第2データの特徴量および損失とについて、各特徴量と各損失と組み合わせた各組合せを生成する。例えば、生成部26は、第1データの特徴量(Z1=2.7、Z2=0.3)に対して、損失L(0.1)、損失L(0.3)、損失L(0.5)、損失L(0.7)、損失L(0.9)それぞれを組み合わせた5個の組合せを生成する。同様に、生成部26は、補間された特徴量(Z1=2.3、Z2=1.0)に対して、損失L(0.1)、損失L(0.3)、損失L(0.5)、損失L(0.7)、損失L(0.9)それぞれを組み合わせた5個の組合せを生成する。
このようにして、生成部26は、5個の特徴量と5個の損失とをそれぞれ組み合わせた25個の組合せを生成する。そして、生成部26は、25個の組合せそれぞれについて、生成モデル17のデコーダを用いて、補間データを生成する。例えば、生成部26は、「特徴量(Z1=2.3、Z2=1.0),損失L(0.1)」に対して、それぞれを生成モデル17のデコーダに入力して再構成データx´を取得し、再構成データx´を補間データとして採用する。つまり、生成部26は、「特徴量(Z1=2.3、Z2=1.0),損失L(0.1)」が抽出できるデータを推定する。なお、第1データの「特徴量(Z1=2.7、Z2=0.3),損失L(0.1)」の組合せと第2データ「特徴量(Z1=1.1、Z2=3.1),損失L(0.9)」の組合せについては、実データが存在するので、生成対象から除外される。
表示制御部27は、生成部26により生成された各種データを表示部12に表示出力する処理部である。具体的には、表示制御部27は、第1データ、第2データ、補間データを出力する。このとき、表示制御部27は、第1データと第2データとの間に各補間データを表示することで、分類の成功例から失敗例までを段階的に出力することもできる。
図10は、出力データを説明する図である。図10には、表示制御部27が分類の成功例から失敗例までを段階的に表示するために生成する出力データの例を示している。図10に示すように、出力データは、横軸を特徴量、縦軸を損失とするマトリックスであり、該当する箇所に第1データ、第2データ、補間データ(生成データ)が表示される。横軸の特徴量の変化は、分類モデル16の性能以外のデータの特徴量(潜在変数)の変化であり、精度劣化に無関係なデータ変化を示している。縦軸の損失の変化は、損失等の分類モデル16の性能を示す指標であり、精度変化の要因となったデータ変化である。
図10の例では、左上に実データかつ分類が成功したる第1データが表示され、右下に実データかつ分類が失敗した第2データが表示され、これらの間に補間データが表示される。したがって、ユーザは、文字の色は分類モデル16の性能に影響を与えず、文字の太さが分類モデル16の性能に影響があることを認識できる。
ここで、人間が解釈できる形式の特徴量の場合は、具体的な形式で表示することもできる。図11は、出力データの提示例を説明する図である。図11に示すように、表示制御部27は、図10と同じ表形式であるものの、横軸を色合い、縦軸を分類モデル16の性能と具体的に記載することで、ドメインシフトを可視化して、ユーザの認識を補助することができる。
[処理の流れ]
図12は、処理の流れを示すフローチャートである。ここでは、各モデルの訓練を実行した後に補間を実行する例を説明するが、これに限定されるものではなく、別々のフローで実行することもできる。
図12に示すように、分類モデル訓練部21は、処理開始が指示されると(S101:Yes)、第1データセット14を用いて分類モデル16の訓練を実行する(S102)。続いて、生成モデル訓練部22は、第1データセット14および第2データセット15と訓練済みの分類モデル16とを用いて、生成モデル17の訓練を実行する(S103)。
そして、データ選択部23は、各データセットから2つの可視化対象データを選択し(S104)、抽出部24は、各可視化対象データの特徴量と損失を抽出する(S105)。その後、補間部25は、可視化対象データ間の特徴量と損失とを補間し(S106)、補間した情報を用いて補間データを生成する(S107)。そして、表示制御部27は、生成結果を出力する(S108)。
[効果]
上述したように、情報処理装置10は、対象の分類モデル16がドメイン1のデータでは高精度だったが、ドメイン2のデータでは精度が低い場合に、原因を可視化し、分類モデル16の精度劣化の原因を特定することができる。この結果、情報処理装置10は、分類モデル16の性能劣化の原因の分析と対策に有用な情報をユーザに提示することができる。
例えば、ユーザは、適用対象データの色合いが訓練データに比べて色合いが濃い場合は、分類モデル16を適用し、適用対象データの文字の太さが訓練データに比べて太い場合は、分類モデル16を適用しないと判断することもできる。また、ユーザは、訓練データよりも文字が太い適用対象データに分類モデル16を適用する場合、文字が太い訓練データを用いて分類モデル16の再訓練(再学習)した後に適用することもできる。
ところで、実施例1で説明した分類モデル16や生成モデル17などの機械学習モデルとして、様々なモデルを採用することができる。そこで、実施例2では、他の機械学習モデルの適用例について説明する。
[GAN(Generative Adversarial Network)の適用]
図13を用いて、生成モデル17にGANを適用した例を説明する。図13は、生成モデル17として用いるGANの訓練を説明する図である。
図13に示すようには、エンコーダは、入力データ(訓練データ)xから潜在変数(z1´、z2´)を生成する。生成器は、入力データxの潜在変数(z1、z2)と分類モデル16の損失Lとから入力データx´を生成する。識別器は、損失Lを条件として入力と潜在変数の組が実データか生成されたデータかを識別できるように、生成モデル訓練部22により訓練される。例えば、識別器は、「入力データx、潜在変数(z1´、z2´)」が実データか否かを識別し、「入力データx´、潜在変数(z1、z2)」が実データか否かを識別できるように訓練される。
このように、損失を条件としデータに対応付いた潜在変数からデータを生成するように訓練するとともに、データから潜在変数への逆変換も訓練された機械学習モデルを生成モデル17として用いることができるので、汎用性を向上できる。なお、生成モデル17には、オートエンコーダ、VAE(Variational AutoEncoder)、GAN等を使用することができる。
[スタイル変換器の適用]
可視化対象データを生成するスタイル変換器を使用することもできる。図14は、スタイル変換器の訓練を説明する図である。図14では、サイクルGANを利用してドメイン2からドメイン1へのスタイル変換器を訓練する。図14に示すように、スタイル変換器は、「エンコーダA、デコーダA」、「エンコーダB、デコーダB」、識別器を有する。
このような構成において、スタイル変換器は、ドメイン2の実データ、ドメイン1の疑似データ、ドメイン2の再構成データを順に生成し、ドメイン2の実データとドメイン2の再構成データとの誤差が小さくなるように、生成モデル訓練部22により訓練される。
具体的には、スタイル変換器は、ドメイン2のデータセット2の入力データx2をエンコーダAに入力し、デコーダAを介して変換データx2´を生成する。続いて、スタイル変換器は、変換データx2´をエンコーダBに入力し、デコーダBを介して再構成データx2´´を生成する。そして、スタイル変換器は、入力データx2と再構成データx2´´との誤差が小さくなるように訓練される。また、識別器は、ドメイン1のデータセット1のデータx1と、変換データx2´とを入力として、変換データx2´がドメイン1の実データか否かを識別できるように訓練される(R/F:Real or Failure)。
このように訓練されたスタイル変換器は、可視化対象データの生成に利用することができる。図15は、スタイル変換器を用いた可視化対象データの生成を説明する図である。図15に示すように、データ選択部23は、ドメイン2からデータx2を選択する(図15の(1)参照)。続いて、データ選択部23は、データx2をエンコーダAに入力し、デコーダAを介して変換データx2´を生成し、変換データx2´をドメイン1のデータとして選択する(図15の(2)参照)。
このように、スタイル変換器を用いることで、分類モデル16や生成モデル17の訓練時とは異なる環境で訓練データが存在しない場合であっても、各ドメインの可視化対象データを生成することができる。したがって、分類モデル16の適用環境に依存することなく、ドメインシフトの分析を実行することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[データや数値等]
上記実施例で用いたデータ例、数値例、閾値、表示例、各モデルのNN層の数、特徴空間の次元数等は、あくまで一例であり、任意に変更することができる。また、訓練データとして画像データを用いた画像分類以外にも、音声や時系列データの分析などにも用いることができる。
[分類モデル]
上記実施例では、情報処理装置10が分類モデル16を生成する例を説明したが、これに限定されるものではなく、情報処理装置10の分類モデル訓練部21が他の装置で生成された分類モデル16を取得する構成を採用することもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、分類モデル16は、識別モデルの一例であり、分類モデル訓練部21は、第1取得部の一例であり、データ選択部23と抽出部24は、第2取得部の一例である。補間部25と生成部26は、生成部の一例であり、表示制御部27は、出力部の一例である。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図16は、ハードウェア構成例を説明する図である。図16に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図16に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図4に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図4に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図4等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、分類モデル訓練部21、生成モデル訓練部22、データ選択部23、抽出部24、補間部25、生成部26、表示制御部27等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、分類モデル訓練部21、生成モデル訓練部22、データ選択部23、抽出部24、補間部25、生成部26、表示制御部27等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで分析方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 情報処理装置
11 通信部
12 表示部
13 記憶部
14 第1データセット
15 第2データセット
16 分類モデル
17 生成モデル
20 制御部
21 分類モデル訓練部
22 生成モデル訓練部
23 データ選択部
24 抽出部
25 補間部
26 生成部
27 表示制御部

Claims (8)

  1. コンピュータに、
    第1ドメインに対応する第1データセットと第2ドメインに対応する第2データセットとを用いて訓練され、かつ、識別モデルによる識別の損失をパラメータに含むデータ生成モデルを取得し、
    前記第1ドメインに対応する第1データを前記識別モデルに入力して第1の前記識別の損失を取得するとともに、前記第2ドメインに対応する第2データを前記識別モデルに入力して第2の前記識別の損失を取得し、
    前記データ生成モデルを用いて、前記第2の識別の損失を前記第1の識別の損失に近づけたデータを生成し、
    生成された前記データを出力する、
    処理を実行させることを特徴とするデータ生成プログラム。
  2. 前記第1の識別の損失から前記第2の識別の損失の間の各損失を線形補間により補間する処理を前記コンピュータに実行させ、
    前記生成する処理は、補間された前記各損失に対応する各データを、前記データ生成モデルを用いて生成し、
    前記出力する処理は、前記第1データと、補間された前記各損失に対応する前記各データと、前記第2データとを出力することを特徴とする請求項1に記載のデータ生成プログラム。
  3. 前記データ生成モデルは、入力データから特徴量を生成し、前記特徴量から前記入力データに対応する再構成データを生成する自己符号化器であり、
    前記取得する処理は、前記第1データに対応する前記第1の識別の損失を取得するとともに、前記第1データを前記データ生成モデルに入力して第1特徴量を取得し、前記第2データに対応する前記第2の識別の損失を取得するとともに、前記第2データを前記データ生成モデルに入力して第2特徴量を取得し、
    前記補間する処理は、前記第1の識別の損失と前記第1特徴量の組から、前記第2の識別の損失と前記第2特徴量の組の間に該当する損失と特徴量の各組を、線形補間により補間し、
    前記生成する処理は、補間された前記各組の各特徴量を前記データ生成モデルに入力して、前記データ生成モデルにより生成される各再構成データを取得し、
    前記出力する処理は、前記第1データから前記第2データの間を前記各再構成データで補間する段階的な表示形式で出力することを特徴とする請求項2に記載のデータ生成プログラム。
  4. 前記識別モデルの訓練に用いられた前記第1データセットに含まれる各データと前記データを前記識別モデルに入力したときの各識別の損失とを用いた訓練、および、訓練後の前記識別モデルによる識別対象である前記第2データセットに含まれる各データと前記データを前記識別モデルに入力したときの各識別の損失とを用いた訓練により、前記データ生成モデルを生成する、
    処理を前記コンピュータに実行させることを特徴とする請求項1から3のいずれか一つに記載のデータ生成プログラム。
  5. 前記第1データセットに含まれる各データのうち、前記識別モデルによる前記識別の損失が閾値未満であるデータを前記第1データとして選択し、
    前記第2データセットに含まれる各データのうち、前記識別モデルによる前記識別の損失が閾値以上であるデータを前記第2データとして選択する、
    処理を前記コンピュータに実行させることを特徴とする請求項1から4のいずれか一つに記載のデータ生成プログラム。
  6. 前記第1データセットに含まれる各データと、前記第2データセットに含まれる各データとを用いた訓練により、前記第2データセットに含まれるデータを前記第1データセットに属するデータに変換するスタイル変換器を生成し、
    前記第2データセットに含まれる各データから前記第2データを選択し、
    前記第2データを前記スタイル変換器に入力して前記第1データを生成する、
    処理を前記コンピュータに実行させることを特徴とする請求項1から4のいずれか一つに記載のデータ生成プログラム。
  7. コンピュータが、
    第1ドメインに対応する第1データセットと第2ドメインに対応する第2データセットとを用いて訓練され、かつ、識別モデルによる識別の損失をパラメータに含むデータ生成モデルを取得し、
    前記第1ドメインに対応する第1データを前記識別モデルに入力して第1の前記識別の損失を取得するとともに、前記第2ドメインに対応する第2データを前記識別モデルに入力して第2の前記識別の損失を取得し、
    前記データ生成モデルを用いて、前記第2の識別の損失を前記第1の識別の損失に近づけたデータを生成し、
    生成された前記データを出力する、
    処理を実行することを特徴とするデータ生成方法。
  8. 第1ドメインに対応する第1データセットと第2ドメインに対応する第2データセットとを用いて訓練され、かつ、識別モデルによる識別の損失をパラメータに含むデータ生成モデルを取得する第1取得部と、
    前記第1ドメインに対応する第1データを前記識別モデルに入力して第1の前記識別の損失を取得するとともに、前記第2ドメインに対応する第2データを前記識別モデルに入力して第2の前記識別の損失を取得する第2取得部と、
    前記データ生成モデルを用いて、前記第2の識別の損失を前記第1の識別の損失に近づけたデータを生成する生成部と、
    生成された前記データを出力する出力部、
    を有することを特徴とする情報処理装置。
JP2020186509A 2020-11-09 2020-11-09 データ生成プログラム、データ生成方法および情報処理装置 Pending JP2022076203A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020186509A JP2022076203A (ja) 2020-11-09 2020-11-09 データ生成プログラム、データ生成方法および情報処理装置
US17/473,509 US20220147764A1 (en) 2020-11-09 2021-09-13 Storage medium, data generation method, and information processing device
EP21196278.2A EP3996001A1 (en) 2020-11-09 2021-09-13 Data generation program, data generation method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020186509A JP2022076203A (ja) 2020-11-09 2020-11-09 データ生成プログラム、データ生成方法および情報処理装置

Publications (1)

Publication Number Publication Date
JP2022076203A true JP2022076203A (ja) 2022-05-19

Family

ID=77739005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020186509A Pending JP2022076203A (ja) 2020-11-09 2020-11-09 データ生成プログラム、データ生成方法および情報処理装置

Country Status (3)

Country Link
US (1) US20220147764A1 (ja)
EP (1) EP3996001A1 (ja)
JP (1) JP2022076203A (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160358099A1 (en) 2015-06-04 2016-12-08 The Boeing Company Advanced analytical infrastructure for machine learning

Also Published As

Publication number Publication date
US20220147764A1 (en) 2022-05-12
EP3996001A1 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
US7650272B2 (en) Evaluation of Bayesian network models for decision support
JP6870346B2 (ja) データ分析システム、データ分析方法およびプログラム
US11468664B2 (en) Machine learning to predict cognitive image composition
KR102042168B1 (ko) 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치
US20200397346A1 (en) Annotation method, annotation device, storage medium, and identification system
CN111221981B (zh) 知识图谱嵌入模型的训练方法、装置和计算机存储介质
CN112990302B (zh) 基于文本生成图像的模型训练方法、设备和图像生成方法
CN110136153A (zh) 一种图像处理方法、设备及存储介质
Cortese et al. Flexible survival regression modelling
JP2020060970A (ja) コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム
JP2019105871A (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
US10884841B2 (en) Information processing device, information processing method, and recording medium
CN111310912A (zh) 机器学习系统、域变换装置、及机器学习方法
WO2022179822A1 (en) Generation of realistic data for training of artificial neural networks
JP2022076203A (ja) データ生成プログラム、データ生成方法および情報処理装置
JP5032374B2 (ja) 情報処理装置及び方法
CN107949852A (zh) 字符识别装置、字符识别方法及程序
JP2013003854A (ja) テストデータ生成プログラム、テストデータ生成方法、テストデータ生成装置
CN110058991A (zh) 一种应用软件的自动测试方法和系统
EP3965016A1 (en) Storage medium, data presentation method, and information processing device
JP6350048B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20230009999A1 (en) Computer-readable recording medium storing evaluation program, evaluation method, and information processing device
EP3869418A1 (en) Learning program, learning method, and learning device
JP7452695B2 (ja) 生成プログラム、生成方法および情報処理装置
WO2021140604A1 (ja) 教師データの作成システム及び教師データの作成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230707