JP2020115257A - 学習方法、学習プログラムおよび学習装置 - Google Patents

学習方法、学習プログラムおよび学習装置 Download PDF

Info

Publication number
JP2020115257A
JP2020115257A JP2019006134A JP2019006134A JP2020115257A JP 2020115257 A JP2020115257 A JP 2020115257A JP 2019006134 A JP2019006134 A JP 2019006134A JP 2019006134 A JP2019006134 A JP 2019006134A JP 2020115257 A JP2020115257 A JP 2020115257A
Authority
JP
Japan
Prior art keywords
learning
teacher data
feature amount
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019006134A
Other languages
English (en)
Other versions
JP7279368B2 (ja
Inventor
孝 河東
Takashi Kato
孝 河東
健人 上村
Taketo Uemura
健人 上村
優 安富
Masaru Yasutomi
優 安富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019006134A priority Critical patent/JP7279368B2/ja
Priority to CN202010026938.6A priority patent/CN111445021B/zh
Priority to EP20151397.5A priority patent/EP3683734A1/en
Priority to US16/741,839 priority patent/US11676030B2/en
Publication of JP2020115257A publication Critical patent/JP2020115257A/ja
Application granted granted Critical
Publication of JP7279368B2 publication Critical patent/JP7279368B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】次の学習に引き継いで使用する情報に不適切な情報が残ることを抑止すること。【解決手段】学習装置は、元教師データに含まれる非保存対象情報を基にして、元教師データをデータ拡張した複数の拡張教師データを生成する。学習装置は、複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成する。学習装置は、複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、学習モデルのパラメータを学習する。【選択図】図1

Description

本発明は、学習方法等に関する。
深層学習モデルを学習する場合、訓練データ(学習データ)の量は性能に大きく寄与する要因であり、訓練データの量は多いほど好ましい。訓練データが不足し、訓練データにないタイプの適用データを、訓練データで学習した深層学習モデルに適用すると、適切な出力結果を得られず、失敗する可能性が高くなる。
また、顧客データを用いるビジネスの場では、契約や情報漏洩のリスクに鑑みると、ある顧客データをいつまでも保持したり、別の顧客のタスクなどに使いまわしたりすることが難しいため、訓練データが不足する場合がある。
訓練データが不足する場合、データ拡張(data augmentation)を行うことが一般的である。データ拡張は、オリジナルの訓練データに対して、ノイズを付加、平行移動、欠損等の加工を行うものであり、訓練データの範囲を適用データの範囲に広げることができる。
ここで、オリジナルの訓練データを、深層学習モデルに入力することで得られる中間特徴量を保持することで、オリジナルの訓練データを保持することなく、新規に深層学習モデルを学習する際に使用可能なデータ量を増加させる従来技術がある。
図12は、従来技術を説明するための図である。図12において、深層学習モデル10は、第1NN(Neural Network)10aと、第2NN10bとを有する。第1NN10aは、訓練データが入力された場合、中間特徴量を算出するNNである。第2NN10bは、中間特徴量が入力された場合、出力ラベルを算出するNNである。第1NN10aおよび第2NN10bのパラメータは、データベース10Pに格納された顧客Pの複数の訓練データを用いて学習済みとする。学習が終了すると、データベース10Pの情報は、顧客Pに返却される(または、破棄される)。
たとえば、訓練データxP1を、第1NN10aに入力すると、中間特徴量zP1が算出される。中間特徴量zP1を、第2NN10bに入力すると、出力ラベルyP1’が算出される。従来技術では、データベース10Pの情報を返却する前に、訓練データxP1から算出される、中間特徴量zP1をデータベース13に保存する。従来技術は、データベース10Pに格納された他の訓練データから算出される中間特徴量も、データベース13に保存する。
続いて、従来技術は、顧客Qの複数の訓練データを保存したデータベース11Qと、データベース13とを用いて、新規の深層学習モデル11を学習(逐次学習)する。深層学習モデル11は、第1NN11aと、第2NN11bとを有する。従来技術は、第1NN11aのパラメータとして、第1NN10aの学習済みのパラメータを設定する。従来技術は、第2NN11bのパラメータとして、第2NN10bの学習済みのパラメータを設定する。
たとえば、データベース11Qの訓練データxQ1を、第1NN11aに入力すると、中間特徴量zQ1が算出される。中間特徴量zQ1を、第2NN11bに入力すると、出力ラベルyQ1’が算出される。従来技術は、出力ラベルyQ1’が正解ラベル(図示略)に近づくように、第2NN11bのパラメータを学習する。
また、データベース13の中間特徴量zP1を、第2NN11bに入力すると、出力ラベルyP1’が算出される。従来技術は、出力ラベルyP1’が正解ラベル(図示略)に近づくように、第2NN11bのパラメータを学習する。
上記のように、従来技術では、第2NN11bのパラメータを学習する場合、データベース11Qの訓練データから算出される中間特徴量に加えて、データベース13の中間特徴量を用いて、学習を行う。このため、データベース10Pを顧客Pに返却(破棄)しても、新規の深層学習モデルの学習時に使用可能なデータ量を増加させることができる。
オリジナルの訓練データから生成される中間特徴量には、訓練データに含まれる本来の目的とは無関係な残したくない情報が含まれてしまう場合がある。たとえば、本来の目的とは無関係な残したくない情報には、個人情報が含まれ、情報漏洩のリスクに鑑みて、かかる個人情報を削除することが求められる。
個人情報には、顔写真、ナンバープレート、ユーザが閲覧中の画面等、様々なのもが該当するため、コンピュータが自動的に判定を行って、複数の中間特徴量から個人情報を削除することは難しい。また、ユーザが、削除対象となる個人情報を定義したガイドラインを参照して、複数の中間特徴量から個人情報を削除することも考えられる。しかし、中間特徴量のデータ量が多い場合、ユーザが複数の中間特徴量を一つ一つ確認することは、ユーザに係る負担が大きい。
一方、中間特徴量をデータベース13に保存しないで、学習を行うと、訓練データが不足する場合があり、深層学習モデルの学習精度が劣化してしまう。
1つの側面では、本発明は、次の学習に引き継いで使用する情報に不適切な情報が残ることを抑止することができる学習方法、学習プログラムおよび学習装置を提供することを目的とする。
第1の案では、コンピュータが以下の処理を実行する。コンピュータは、元教師データに含まれる非保存対象情報を基にして、元教師データをデータ拡張した複数の拡張教師データを生成する。コンピュータは、複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成する。コンピュータは、複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、学習モデルのパラメータを学習する。
次の学習に引き継いで使用する情報に不適切な情報が残ることを抑止することができる。
図1は、本実施例に係る学習装置の処理を説明するための図である。 図2は、本実施例に係る拡張部の処理を説明するための図である。 図3は、本実施例に係る学習装置の構成を示す機能ブロック図である。 図4は、本実施例に係る学習データベースのデータ構造の一例を示す図である。 図5は、本実施例に係る拡張訓練データテーブルのデータ構造の一例を示す図である。 図6は、本実施例に係るパラメータテーブルのデータ構造の一例を示す図である。 図7は、本実施例に係る参照特徴量データベースのデータ構造の一例を示す図である。 図8は、本実施例に係る学習部の処理を説明するための図である。 図9は、本実施例に係る学習装置の処理手順を示すフローチャートである。 図10は、本実施例に係る学習装置の効果を説明するための図である。 図11は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図12は、従来技術を説明するための図である。
以下に、本願の開示する学習方法、学習プログラムおよび学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る学習装置の処理を説明するための図である。図1に示すように、学習装置は、拡張部150bを有する。拡張部150bは、オリジナルの訓練データx1をデータ拡張することで、訓練データx1.1,x1.2,x1.3を生成する。学習装置は、深層学習モデル50に、訓練データx1.1〜x1.3を入力する。
深層学習モデル50は、第1NN50aと第2NN50bとを有する。第1NN50aは、訓練データが入力された場合、中間特徴量を算出するNNである。第2NN50bは、中間特徴量が入力された場合、出力ラベルを算出するNNである。
たとえば、学習装置は、訓練データx1.1,x1.2,x1.3を第1NN50aに入力し、中間特徴量z1.1,z1.2,z1.3を算出する。学習装置は、中間特徴量z1.1,z1.2,z1.3を第2NN50bに入力し、出力ラベルy1.1,y1.2,y1.3を算出する。
学習装置は、出力ラベルy1.1と、訓練データx1の正解ラベルy1との誤差を算出する。学習装置は、出力ラベルy1.2と、正解ラベルy1との誤差を算出する。学習装置は、出力ラベルy1.3と、正解ラベルy1との誤差を算出する。学習装置は、誤差逆伝播法を用いて、誤差が小さくなるように、第1NN50aのパラメータおよび第2NN50bのパラメータを学習する。
また、学習装置は、中間特徴量z1.1と、訓練データx1の参照特徴量z1との類似度を算出する。学習装置は、中間特徴量z1.2と、参照特徴量z1との類似度を算出する。学習装置は、中間特徴量z1.3と、参照特徴量z1との類似度を算出する。学習装置は、誤差逆伝播法を用いて、類似度が大きくなるように、第1NN50aのパラメータおよび参照特徴量z1を学習する。
図2は、本実施例に係る拡張部の処理を説明するための図である。拡張部150bは、オリジナルの訓練データに含まれる非保存対象情報を基にして、データ拡張を行い、複数の訓練データを生成する。非保存対象情報は、個人を特定可能な情報である。図2では、非保存対象情報として、車の「ナンバープレート」を用いて説明を行う。なお、非保存対象情報は、ナンバープレートに限定されるものではなく、顔画像、端末画面等であってもよい。
図2に示す例では、オリジナルの訓練データx1に、非保存対象情報20が含まれている。拡張部150bは、非保存対象情報20を基にして、複数のダミー情報を生成する。拡張部150bは、ダミー情報を、訓練データx1に追加することで、複数の訓練データx1.1,x1.2,x1.3を生成する。図2に示す各ダミー情報は、非保存対象情報20のナンバープレートの数字の一部または全部を他の数字に置き換えた情報となる。
たとえば、拡張部150bは、訓練データx1に、ダミー情報20aを追加(データ拡張)することで、訓練データx1.1を生成する。拡張部150bは、訓練データx1に、ダミー情報20bを追加(データ拡張)することで、訓練データx1.2を生成する。拡張部150bは、訓練データx1に、ダミー情報20cを追加(データ拡張)することで、訓練データx1.3を生成する。
図2で説明した拡張部150bの処理によりデータ拡張した訓練データx1.1〜x1.3を、深層学習モデル50に入力すると、図1で説明したように、中間特徴量z1.1〜z1.3が、参照特徴量z1に類似するような学習が行われる。そうすると、データ拡張したダミー情報および非保存対象情報を打ち消すような学習が行われるため、非保存対象情報を含まない参照特徴量z1が学習される。学習された参照特徴量z1の一例を、図2に示す。かかる参照特徴量z1には、非保存対象情報20が含まれない。
上記のように、学習装置は、非保存対象情報に類似するダミー情報をオリジナルの訓練データに追加するデータ拡張を行って、複数の訓練データを生成する。学習装置は、複数の訓練データの中間特徴量が参照特徴量と類似し、かつ、出力ラベルが正解ラベルに近づくように、深層学習モデルのパラメータおよび参照特徴量を学習する。学習される参照特徴量には、非保存対象情報が含まれない。これによって、参照特徴量を次の逐次学習に引き継いで使用する場合に、不適切な情報が残ることを抑止することができる。
次に、本実施例に係る学習装置の構成の一例について説明する。図3は、本実施例に係る学習装置の構成を示す機能ブロック図である。図3に示すように、この学習装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、ネットワーク等を介して外部装置(図示略)とデータ通信を実行する処理部である。通信部110は、通信装置に対応する。たとえば、通信部110は、後述する学習データベース141の情報を、各顧客の外部装置等から受信する。後述する制御部150は、通信部110を介して、外部装置とデータをやり取りする。
入力部120は、各種の情報を学習装置100に入力するための入力装置である。たとえば、入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される各種の情報を表示する表示装置である。たとえば、表示部130は、液晶ディスプレイ、タッチパネル等に対応する。
記憶部140は、学習データベース141と、拡張訓練データテーブル142と、パラメータテーブル143と、参照特徴量データベース144とを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
学習データベース141は、顧客から通知される訓練データの情報を保存する。図4は、本実施例に係る学習データベースのデータ構造の一例を示す図である。図4に示すように、この学習データベース141は、データ番号と、訓練データと、正解ラベルと、非保存対象種別とを有する。データ番号は、オリジナルの訓練データを一意に識別する番号である。たとえば、訓練データ「x1」に対応する正解ラベルは「y1」であり、訓練データ「x1」のデータ番号は「p001」である。非保存対象種別は、非保存対象情報となる個人情報の種別を示すものである。
たとえば、訓練データに含まれる非保存対象情報が車両のナンバープレートの情報である場合には、非保存対象種別は「ナンバープレート」となる。訓練データに含まれる非保存対象情報が、個人の顔画像の情報である場合には、非保存対象種別は「顔画像」となる。訓練データに含まれる非保存対象情報が、個人のパソコン、スマートフォン等の端末画面の情報である場合には、非保存対象種別は「端末画面」となる。
拡張訓練データテーブル142は、オリジナルの訓練データを元にデータ拡張された訓練データを保持するテーブルである。図5は、本実施例に係る拡張訓練データテーブルのデータ構造の一例を示す図である。図5に示すように、この拡張訓練データテーブル142は、データ番号と、データ拡張された訓練データと、正解ラベルとを対応付ける。データ番号は、データ拡張の元となるオリジナルの訓練データを一意に識別する番号である。データ拡張された訓練データに対応する正解ラベルは、データ番号に対応するオリジナルの訓練データに対応付けられた正解ラベルとなる。
パラメータテーブル143は、第1NN50aのパラメータ、第2NN50bのパラメータを保存するテーブルである。図6は、本実施例に係るパラメータテーブルのデータ構造の一例を示す図である。図6に示すように、パラメータテーブル143は、識別情報と、パラメータとを対応付ける。識別情報は、各NNを識別する情報である。パラメータは、各NNに設定されるパラメータである。NNは複数の層を有し、各層には複数のノードが含まれ、各ノードがエッジで結ばれる構造となっている。各層は、活性化関数と呼ばれる関数とバイアス値とを持ち、エッジは、重みを持つ。デコーダもNNと同様にして、複数の層を有し、各層には複数のノードが含まれ、各ノードがエッジで結ばれる構造となっている。本実施例では、NNに設定されるバイアス値、重み等をまとめて「パラメータ」と表記する。
参照特徴量データベース144は、オリジナルの各訓練データに対してそれぞれ設定される参照特徴量を保存するデータベースである。図7は、本実施例に係る参照特徴量データベースのデータ構造の一例を示す図である。図7に示すように、参照特徴量データベース144は、データ番号と、参照特徴量と、正解ラベルとを対応付ける。データ番号は、オリジナルの訓練データを一意に識別する番号である。参照特徴量の初期値は予め設定されているものとする。正解ラベルは、データ番号に対応するオリジナルの訓練データの正解ラベルとなる。
図3の説明に戻る。制御部150は、取得部150aと、拡張部150bと、特徴量生成部150cと、学習部150dとを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
取得部150aは、各顧客の外部装置等から、学習データベース141の情報を取得する処理部である。取得部150aは、取得した学習データベース141の情報を、学習データベース141に格納する。
拡張部150bは、学習データベース141に保存されたオリジナルの訓練データに対してデータ拡張(data augmentation)を行うことで、複数の訓練データを生成する処理部である。
拡張部150bは、学習データベース141からオリジナルの訓練データを取得する場合、訓練データに対応付けられた非保存対象種別を参照し、非保存対象種別に対応する複数のダミー情報を生成する。拡張部150bは、訓練データにダミー情報を追加する処理を行うことで、複数の訓練データを生成する。
拡張部150bは、非保存対象種別が「ナンバープレート」である場合、ナンバープレートの雛形データ(図示略)を取得し、雛形データに数字をランダムに設定することで、複数のダミー情報を生成する。たとえば、雛形データは、記憶部140に予め保存されているものとする。または、拡張部150bは、訓練データと、ナンバープレートの形状を定義したテンプレートとのマッチングを行い、訓練データからナンバープレートを検出する。拡張部150bは、検出したナンバープレートの数字の一部または全部を他の数字に置き換えることで、ダミー情報を生成してもよい。
拡張部150bは、非保存対象種別が「顔画像」である場合、顔画像テーブル(図示略)を取得し、顔画像テーブル(図示略)に設定された複数の顔画像をダミー情報として利用する。たとえば、顔画像テーブルは、記憶部140に予め保存されているものとする。または、拡張部150bは、訓練データと、顔の特徴を定義したテンプレートとのマッチングを行い、訓練データから顔画像を検出してもよい。拡張部150bは、検出した顔画像の一部または全部を他の顔画像に置き換えて、ダミー情報を生成してもよい。拡張部150bは、他の顔画像を、顔画像テーブルから取得してもよい。
拡張部150bは、非保存対象種別が「端末画面」である場合、画面テーブル(図示略)を取得し、画面テーブル(図示略)に設定された複数の端末画面をダミー情報として利用する。たとえば、画面テーブルは、記憶部140に予め保存されているものとする。または、拡張部150bは、訓練データと、端末画面の特徴を定義したテンプレートとのマッチングを行い、訓練データから端末画面を検出してもよい。拡張部150bは、検出した端末画面の一部または全部を他の端末画面に置き換えて、ダミー情報を生成してもよい。拡張部150bは、他の端末画面を、画面テーブルから取得してもよい。
拡張部150bは、オリジナルの訓練データのデータ番号と、データ拡張した訓練データと、オリジナルの訓練データに対応する正解ラベルとを対応付けて、拡張訓練データテーブル142に保存する。拡張部150bは、学習データベース141に保存される各訓練データに対して、上記処理を繰り返し実行する。
特徴量生成部150cは、データ拡張された複数の訓練データを、第1NN50aに入力し、訓練データ毎に、中間特徴量を生成する処理部である。以下において、特徴量生成部150cの処理の一例について説明する。
特徴量生成部150cは、第1NN50aを実行し、パラメータテーブル143に格納されたパラメータθ1を第1NN50aのパラメータとして設定する。特徴量生成部150cは、拡張訓練データテーブル142から、データ番号と、データ番号に紐付く複数の訓練データを取得し、取得した複数の訓練データを、順に第1NN50aに入力する。特徴量生成部150cは、第1NN50aに設定されたパラメータθ1を用いて、複数の訓練データの中間特徴量をそれぞれ算出する。
特徴量生成部150cは、参照特徴量を参照特徴量データベース144から取得し、訓練データに対応する中間特徴量と、参照特徴量との2乗誤差を算出する。中間特徴量と比較される参照特徴量は、データ拡張の元となるオリジナルの訓練データに対応する参照特徴量である。図1を用いて説明すると、中間特徴量z1.1〜z1.3と比較される参照特徴量は、訓練データx1に対応する参照特徴量z1となる。特徴量生成部150cは、中間特徴量と、データ番号と、2乗誤差の情報とを、学習部150dに出力する。
特徴量生成部150cは、拡張訓練データテーブル140bから、データ拡張された訓練データを取得して、中間特徴量を算出する処理、2乗誤差の情報を算出する処理、中間特徴量と、データ番号と、2乗誤差の情報とを、学習部150dに出力する処理を繰り返し実行する。
学習部150dは、第1NN50aおよび第2NN50bのパラメータを学習する処理部である。以下において、学習部150dの処理を説明する。学習部150dは、第1NN50aを実行し、パラメータテーブル143に格納されたパラメータθ1を第1NN50aのパラメータとして設定する。また、学習部150dは、第2NN50bを実行し、パラメータテーブル143に格納されたパラメータθ2を第2NN50bのパラメータとして設定する。
学習部150dは、特徴量生成部150cから取得する中間特徴量を、第2NN50bに入力する。学習部150dは、第2NNに設定されたパラメータθ2を用いて、出力ラベルを算出する。
図8は、本実施例に係る学習部の処理を説明するための図である。たとえば、学習部150dは、中間特徴量z1.1を第2NN50bに入力し、出力ラベルy1.1を算出する。学習部150dは、誤差逆伝搬法に基づいて、出力ラベルy1.1と、正解ラベルy1とが近づくように、第1NNのパラメータθ1および第2NNのパラメータθ2を学習する。また、学習部150dは、中間特徴量z1.1と、参照特徴量z1との2乗誤差が小さくなるように、第1NNのパラメータθ1および参照特徴量z1を学習する。学習部150dは、特徴量生成部250cから、中間特徴量と、データ番号と、2乗誤差の情報とを取得する度に、上記処理を繰り返し実行する。
学習部150dは、学習したパラメータθ1、θ2によって、パラメータテーブル143のパラメータθ1、θ2を更新する。また、学習部150dは、学習した参照特徴量によって、参照特徴量テーブル140dの参照特徴量を更新する。更新対象の参照特徴量は、特徴量生成部150cから取得するデータ番号に対応付けられた参照特徴量となる。
すなわち、学習部150dは、出力ラベルと正解ラベルとの誤差を下げつつ、また、中間特徴量と参照特徴量との類似度が上がるように、第1NNおよび第2NNのパラメータθ1、θ2、参照特徴量を学習する。中間特徴量と参照特徴量との2乗誤差が小さくなるほど、中間特徴量と参照特徴量との類似度が上がることを意味する。
次に、本実施例に係る学習装置100の処理手順の一例について説明する。図9は、本実施例に係る学習装置の処理手順を示すフローチャートである。図9に示すように、学習装置100の拡張部150bは、学習データベース141から、訓練データを取得する(ステップS101)。
拡張部150bは、訓練データに対応する非保存対象種別を特定する(ステップS102)。拡張部150bは、非保存対象種別に応じたダミー情報を、訓練データに加えてデータ拡張を行う(ステップS103)。
学習装置100の特徴量生成部150cは、第1NN50aに訓練データを入力して、中間特徴量を生成する(ステップS104)。学習装置100の学習部150dは、中間特徴量を第2NN50bに入力し、第2NN50bから出力される出力ラベルと正解ラベルとの誤差が小さくなるように、パラメータθ1,θ2を学習する(ステップS105)。
特徴量生成部150cは、中間特徴量と参照特徴量との2乗誤差(類似度)を算出する(ステップS106)。学習部150dは、中間特徴量と参照特徴量との類似度が上がるように、パラメータθ1、参照特徴量を学習する(ステップS107)。
学習装置100は、学習を終了しない場合には(ステップS108,No)、ステップS101に移行する。一方、学習装置100は、学習を終了する場合には(ステップS108,Yes)、学習したパラメータθ1、θ2を、パラメータテーブル143に格納する(ステップS109)。学習装置100は、学習した参照特徴量を、参照特徴量テーブル240dに格納する(ステップS110)。
なお、学習装置100は、パラメータテーブル143に格納された学習済みのパラメータθ1、θ2を、表示部130に表示してもよいし、パラメータθ1、θ2を用いて、各種の判定を行う判定装置に、パラメータθ1、θ2の情報を通知してもよい。
学習装置100は、学習データベース141に新たな顧客の訓練データの情報が格納された場合には、学習データベース141の新たな訓練データと正解ラベルとを基にして、第2NNのパラメータθ2を学習する。また、学習装置100は、参照特徴量データベース144に保存された参照特徴量と正解ラベルとを基にして、第2NNのパラメータθ2を学習する。
次に、本実施例に係る学習装置100の効果について説明する。図10は、本実施例に係る学習装置の効果を説明するための図である。学習装置100は、非保存対象情報に類似するダミー情報をオリジナルの訓練データに追加するデータ拡張を行って、複数の訓練データを生成する。学習装置は、複数の訓練データの中間特徴量が参照特徴量と類似し、かつ、出力ラベルが正解ラベルに近づくように、深層学習モデルのパラメータおよび参照特徴量を学習する。この学習により、データ拡張の効果を打ち消すような学習が行われ、学習の進行に応じて、非保存対象情報が、参照特徴量から減少する。これによって、参照特徴量を次の逐次学習に引き継いで使用する場合に、不適切な情報が残ることを抑止することができる。
学習装置100は、個人を特定可能な非保存対象情報を基にしたダミー情報を生成し、ダミー情報をオリジナルの訓練データに追加してデータ拡張を行うため、ダミー情報の効果を打ち消すような学習を容易に実行することができる。また、情報漏洩リスクを低減することができる。
学習装置100は、参照特徴量データベース144に含まれる参照特徴量と、正解ラベルとの組を用いて、逐次学習を繰り返し実行する。参照特徴量には、非保存対象情報が含まれないように学習されているため、逐次学習を繰り返し行っても、参照特徴量に、各顧客の非保存対象情報が残ることを抑止することができる。
次に、本実施例に示した学習装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図11は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図11に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置305とを有する。コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301〜307は、バス308に接続される。
ハードディスク装置307は、取得プログラム307a、拡張プログラム307b、特徴量生成プログラム307c、学習プログラム307dを有する。CPU301は、取得プログラム307a、拡張プログラム307b、特徴量生成プログラム307c、学習プログラム307dを読み出してRAM306に展開する。
取得プログラム307aは、取得プロセス306aとして機能する。拡張プログラム307bは、拡張プロセス306bとして機能する。特徴量生成プログラム307cは、特徴量生成プロセス306cとして機能する。学習プログラム307dは、学習プロセス306dとして機能する。
取得プロセス306aの処理は、取得部150aの処理に対応する。拡張プロセス306bの処理は、拡張部150bの処理に対応する。特徴量生成プロセス306cの処理は、特徴量生成部150cの処理に対応する。学習プロセス306dの処理は、学習部150dの処理に対応する。
なお、各プログラム307a〜307dについては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a〜307dを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータが実行する学習方法であって、
元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する
処理を実行することを特徴とする学習方法。
(付記2)前記拡張教師データを生成する処理は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする付記1に記載の学習方法。
(付記3)前記非保存対象情報は、個人を特定可能な情報であり、前記拡張教師データを生成する処理は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする付記2に記載の学習方法。
(付記4)学習した参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする付記1、2または3に記載の学習方法。
(付記5)コンピュータに、
元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する
処理を実行させることを特徴とする学習プログラム。
(付記6)前記拡張教師データを生成する処理は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする付記5に記載の学習プログラム。
(付記7)前記非保存対象情報は、個人を特定可能な情報であり、前記拡張教師データを生成する処理は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする付記6に記載の学習プログラム。
(付記8)学習した参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする付記5、6または7に記載の学習プログラム。
(付記9)元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成する拡張部と、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成する特徴量生成部と、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する学習部と
を有することを特徴とする学習装置。
(付記10)前記拡張部は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする付記9に記載の学習装置。
(付記11)前記非保存対象情報は、個人を特定可能な情報であり、前記拡張部は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする付記10に記載の学習装置。
(付記12)前記学習部は、学習した参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする付記9、10または11に記載の学習装置。
100 学習装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 学習データベース
142 拡張訓練データテーブル
143 パラメータテーブル
144 参照特徴量データベース
150 制御部
150a 取得部
150b 拡張部
150c 特徴量生成部
150d 学習部

Claims (6)

  1. コンピュータが実行する学習方法であって、
    元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
    前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
    前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する
    処理を実行することを特徴とする学習方法。
  2. 前記拡張教師データを生成する処理は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする請求項1に記載の学習方法。
  3. 前記非保存対象情報は、個人を特定可能な情報であり、前記拡張教師データを生成する処理は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする請求項2に記載の学習方法。
  4. 学習した参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする請求項1、2または3に記載の学習方法。
  5. コンピュータに、
    元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
    前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
    前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する
    処理を実行させることを特徴とする学習プログラム。
  6. 元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成する拡張部と、
    前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成する特徴量生成部と、
    前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する学習部と
    を有することを特徴とする学習装置。
JP2019006134A 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置 Active JP7279368B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019006134A JP7279368B2 (ja) 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置
CN202010026938.6A CN111445021B (zh) 2019-01-17 2020-01-10 学习方法、学习设备和计算机可读记录介质
EP20151397.5A EP3683734A1 (en) 2019-01-17 2020-01-13 Learning method, learning program, and learning apparatus
US16/741,839 US11676030B2 (en) 2019-01-17 2020-01-14 Learning method, learning apparatus, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019006134A JP7279368B2 (ja) 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置

Publications (2)

Publication Number Publication Date
JP2020115257A true JP2020115257A (ja) 2020-07-30
JP7279368B2 JP7279368B2 (ja) 2023-05-23

Family

ID=69159641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019006134A Active JP7279368B2 (ja) 2019-01-17 2019-01-17 学習方法、学習プログラムおよび学習装置

Country Status (4)

Country Link
US (1) US11676030B2 (ja)
EP (1) EP3683734A1 (ja)
JP (1) JP7279368B2 (ja)
CN (1) CN111445021B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7163786B2 (ja) 2019-01-17 2022-11-01 富士通株式会社 学習方法、学習プログラムおよび学習装置
EP3789924A1 (en) * 2019-09-09 2021-03-10 Robert Bosch GmbH Stochastic data augmentation for machine learning
CN113239205B (zh) * 2021-06-10 2023-09-01 阳光保险集团股份有限公司 数据标注方法、装置、电子设备及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018028A (ja) * 2005-07-05 2007-01-25 Takeshi Kamei 情報保護システム、情報保護サーバ、情報保護方法、情報保護プログラム
WO2015155896A1 (ja) * 2014-04-11 2015-10-15 株式会社 日立製作所 サポートベクトルマシン学習システムおよびサポートベクトルマシン学習方法
JP2016031746A (ja) * 2014-07-30 2016-03-07 キヤノン株式会社 情報処理装置、情報処理方法
JP2017174298A (ja) * 2016-03-25 2017-09-28 株式会社デンソーアイティーラボラトリ ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法
US20180211164A1 (en) * 2017-01-23 2018-07-26 Fotonation Limited Method of training a neural network
WO2018167900A1 (ja) * 2017-03-16 2018-09-20 日本電気株式会社 ニューラルネットワーク学習装置、方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9418331B2 (en) * 2013-10-28 2016-08-16 Qualcomm Incorporated Methods and apparatus for tagging classes using supervised learning
US11144889B2 (en) * 2016-04-06 2021-10-12 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
US10915808B2 (en) * 2016-07-05 2021-02-09 International Business Machines Corporation Neural network for chemical compounds
US10331974B2 (en) * 2016-11-08 2019-06-25 Nec Corporation Action recognition system with landmark localization on objects in images using convolutional neural networks
US10074038B2 (en) * 2016-11-23 2018-09-11 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
US10943148B2 (en) * 2016-12-02 2021-03-09 Apple Inc. Inspection neural network for assessing neural network reliability
US10255681B2 (en) * 2017-03-02 2019-04-09 Adobe Inc. Image matting using deep learning
CN107169504B (zh) * 2017-03-30 2019-06-18 湖北工业大学 一种基于扩展非线性核残差网络的手写字符识别方法
US10825167B2 (en) * 2017-04-28 2020-11-03 Siemens Healthcare Gmbh Rapid assessment and outcome analysis for medical patients
JP6897335B2 (ja) * 2017-05-31 2021-06-30 富士通株式会社 学習プログラム、学習方法および物体検知装置
US11120337B2 (en) * 2017-10-20 2021-09-14 Huawei Technologies Co., Ltd. Self-training method and system for semi-supervised learning with generative adversarial networks
US11250329B2 (en) 2017-10-26 2022-02-15 Nvidia Corporation Progressive modification of generative adversarial neural networks
US11263525B2 (en) 2017-10-26 2022-03-01 Nvidia Corporation Progressive modification of neural networks
JP7006401B2 (ja) * 2018-03-13 2022-01-24 富士通株式会社 学習プログラム、学習方法および学習装置
JP7124404B2 (ja) * 2018-04-12 2022-08-24 富士通株式会社 機械学習プログラム、機械学習方法および機械学習装置
US11170761B2 (en) * 2018-12-04 2021-11-09 Sorenson Ip Holdings, Llc Training of speech recognition systems
US10388272B1 (en) * 2018-12-04 2019-08-20 Sorenson Ip Holdings, Llc Training speech recognition systems using word sequences
JP7180393B2 (ja) * 2019-01-11 2022-11-30 富士通株式会社 学習プログラム、学習装置及び学習方法
JP7163786B2 (ja) 2019-01-17 2022-11-01 富士通株式会社 学習方法、学習プログラムおよび学習装置
US11615102B2 (en) * 2019-10-18 2023-03-28 Splunk Inc. Swappable online machine learning algorithms implemented in a data intake and query system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018028A (ja) * 2005-07-05 2007-01-25 Takeshi Kamei 情報保護システム、情報保護サーバ、情報保護方法、情報保護プログラム
WO2015155896A1 (ja) * 2014-04-11 2015-10-15 株式会社 日立製作所 サポートベクトルマシン学習システムおよびサポートベクトルマシン学習方法
JP2016031746A (ja) * 2014-07-30 2016-03-07 キヤノン株式会社 情報処理装置、情報処理方法
JP2017174298A (ja) * 2016-03-25 2017-09-28 株式会社デンソーアイティーラボラトリ ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法
US20180211164A1 (en) * 2017-01-23 2018-07-26 Fotonation Limited Method of training a neural network
WO2018167900A1 (ja) * 2017-03-16 2018-09-20 日本電気株式会社 ニューラルネットワーク学習装置、方法、およびプログラム

Also Published As

Publication number Publication date
US11676030B2 (en) 2023-06-13
CN111445021B (zh) 2024-03-22
US20200234139A1 (en) 2020-07-23
CN111445021A (zh) 2020-07-24
JP7279368B2 (ja) 2023-05-23
EP3683734A1 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
JP2020115257A (ja) 学習方法、学習プログラムおよび学習装置
JP7163786B2 (ja) 学習方法、学習プログラムおよび学習装置
CN106471525A (zh) 增强神经网络以生成附加输出
TW202111613A (zh) 評估材料機械性質的機器學習技術
CN111221981B (zh) 知识图谱嵌入模型的训练方法、装置和计算机存储介质
JP6314741B2 (ja) Guiに基づいたアプリケーションの決定性有限状態マシンモデルの抽出方法
US9652360B2 (en) Crawling for extracting a model of a GUI-based application
Singh et al. A balanced sequential design strategy for global surrogate modeling
CN115292728A (zh) 一种基于生成对抗网络的图像数据隐私保护方法
JP2019028484A (ja) 属性識別装置、属性識別モデル学習装置、方法、及びプログラム
de Croon et al. Comparing active vision models
JP4607943B2 (ja) セキュリティレベル評価装置およびセキュリティレベル評価プログラム
JP2022072149A (ja) 機械学習プログラム、装置、及び方法
JP2020115256A (ja) 学習方法、学習プログラムおよび学習装置
JPWO2012032747A1 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP2021144659A (ja) 計算機、計算方法及びプログラム
Lafferty et al. Practical DTCO through design/patterning exploration
US7853903B1 (en) Method and mechanism for performing simulation off resolution proof
EP3683735A1 (en) Learning method, learning program, and learning device
Lisboa et al. Toolday—a process-centered domain analysis tool
Mathieson et al. Information Generation in the Design Process
JP2004265011A (ja) 評価方法、評価装置および評価プログラム
JP2022032482A (ja) 部品名称予測プログラム、生成プログラム、部品名称予測方法、生成方法および情報処理装置
Eletti et al. A General Estimation Framework for Multi-State Markov Processes with Flexible Specification of the Transition Intensities
KR20240024586A (ko) 인공지능 기반의 파라미터 예측 모델의 생성을 통해, 도형 이미지에 대응되는 캐드 프로그램용 파라미터를 예측할 수 있는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7279368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150