JP2018106216A - 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム - Google Patents

学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム Download PDF

Info

Publication number
JP2018106216A
JP2018106216A JP2016248859A JP2016248859A JP2018106216A JP 2018106216 A JP2018106216 A JP 2018106216A JP 2016248859 A JP2016248859 A JP 2016248859A JP 2016248859 A JP2016248859 A JP 2016248859A JP 2018106216 A JP2018106216 A JP 2018106216A
Authority
JP
Japan
Prior art keywords
data
learning
development
attribute
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016248859A
Other languages
English (en)
Other versions
JP6567488B2 (ja
Inventor
歩相名 神山
Hosona Kamiyama
歩相名 神山
厚志 安藤
Atsushi Ando
厚志 安藤
哲 小橋川
Satoru Kobashigawa
哲 小橋川
山口 義和
Yoshikazu Yamaguchi
義和 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016248859A priority Critical patent/JP6567488B2/ja
Publication of JP2018106216A publication Critical patent/JP2018106216A/ja
Application granted granted Critical
Publication of JP6567488B2 publication Critical patent/JP6567488B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習データの属性の偏りを抑圧する学習データ生成装置等を提供する。
【解決手段】学習データ生成装置は、学習データは当該学習データの属性を示すラベルと当該学習データの特徴量とを含むものとし、K個の学習データに基づき、各属性に属する学習データの個数を数える第一データ個数計数部と、K'>Kとし、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データをK個の学習データに追加し、K'個の学習データを生成する第一データ調整部と含み、第一データ調整部は、K'個の学習データにおいてラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにする。
【選択図】図1

Description

本発明は、対象データの特徴量から対象データの属性を推定するモデルを学習する技術に関する。
音声や画像等の属性を高精度に分類する識別モデルとして、深層学習モデルがある。深層学習モデルは、音声や画像の特徴量を入力すると、各識別する属性ごとの事後確率を出力し、最も高い事後確率の属性をその特徴量の属性として判定する。
深層学習モデルは、識別誤りを極小化するように逐次パラメータを更新して学習を行う。このとき、予め用意した学習データまたは開発データを用いて、深層学習モデルの識別精度が飽和した際に、学習を終了する(非特許文献1参照)。なお、学習データは深層モデルを生成する際に利用するデータであり、開発データはモデルの正解率を調べる際に利用するデータである。何れのデータも属性を示すラベル(正解)と特徴量とを含む。
G. Hinton, S. Osindero and Yee-Whye The, "A fast learning algorithm for deep belief nets", Neural Computation, vol. 18, pp. 1527-1544, 2006.
しかしながら、飽和しているか否かを判断する際の識別精度は深層学習モデル全体の識別精度であり、属性毎の識別精度ではない。そのため、学習データまたは開発データのデータ量が少ない属性は十分な識別精度が得られないまま、学習が終了する場合が存在する。
本発明は、学習データの属性の偏りを抑圧する学習データ生成装置、または、開発データの属性の偏りを抑圧する開発データ生成装置、それらのデータを利用してモデルを学習するモデル学習装置、それらの方法及びプログラムを提供することを目的とする。
上記の課題を解決するために、本発明の一態様によれば、学習データ生成装置は、学習データは当該学習データの属性を示すラベルと当該学習データの特徴量とを含むものとし、K個の学習データに基づき、各属性に属する学習データの個数を数える第一データ個数計数部と、K'>Kとし、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データをK個の学習データに追加し、K'個の学習データを生成する第一データ調整部と含み、第一データ調整部は、K'個の学習データにおいてラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにする。
上記の課題を解決するために、本発明の他の態様によれば、開発データ生成装置は、開発データは当該開発データの属性を示すラベルと当該開発データの特徴量とを含むものとし、J個の開発データに基づき、各属性に属する開発データの個数を数える第二データ個数計数部と、J'>Jとし、最大の個数Qの開発データが属する属性を示すラベルlS,max以外のラベルlS,p'を含む開発データを複製し、1つ以上の複製した開発データをJ個の開発データに追加し、J'個の開発データを生成する第二データ調整部と含み、第二データ調整部はJ'個の開発データにおいてラベルlS,p'を含む開発データの個数が追加後においてQ以下となるようにする。
上記の課題を解決するために、本発明の他の態様によれば、モデル学習装置は、学習データは当該学習データの属性を示すラベルと当該学習データの特徴量とを含むものとし、K個の学習データに基づき、各属性に属する学習データの個数を数える第一データ個数計数部と、K'>Kとし、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データをK個の学習データに追加し、K'個の学習データを生成する第一データ調整部と含み、第一データ調整部は、K'個の学習データにおいてラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにし、開発データは当該開発データの属性を示すラベルと当該開発データの特徴量とを含むものとし、J個の開発データに基づき、各属性に属する開発データの個数を数える第二データ個数計数部と、J'>Jとし、最大の個数Qの開発データが属する属性を示すラベルlS,max以外のラベルlS,p'を含む開発データを複製し、1つ以上の複製した開発データをJ個の開発データに追加し、J'個の開発データを生成する第二データ調整部と含み、第二データ調整部はJ'個の開発データにおいてラベルlS,p'を含む開発データの個数が追加後においてQ以下となるようにし、K'個の学習データを用いて、対象データの特徴量から対象データの属性を示すラベルを推定するモデルである第三学習モデルλ'3を学習する第三学習部を含み、第三学習部は、J'個の開発データに含まれる特徴量を第三学習モデルλ'3の入力とし、J'個の開発データの属性を示すラベルをそれぞれ推定し、J'個の推定結果とJ'個の開発データに含まれるJ'個のラベルとに基づき、第三学習モデルλ'3の正解率を求め、正解率が飽和するまで、第三学習モデルλ'3の学習を繰り返す。
上記の課題を解決するために、本発明の他の態様によれば、学習データ生成方法は、学習データは当該学習データの属性を示すラベルと当該学習データの特徴量とを含むものとし、第一データ個数計数部が、K個の学習データに基づき、各属性に属する学習データの個数を数える第一データ個数計数ステップと、K'>Kとし、第一データ調整部が、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データをK個の学習データに追加し、K'個の学習データを生成する第一データ調整ステップと含み、第一データ調整ステップにおいてK'個の学習データにおいてラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにする。
上記の課題を解決するために、本発明の他の態様によれば、開発データ生成方法は、開発データは当該開発データの属性を示すラベルと当該開発データの特徴量とを含むものとし、第二データ個数計数部が、J個の開発データに基づき、各属性に属する開発データの個数を数える第二データ個数計数ステップと、J'>Jとし、第二データ調整部が、最大の個数Qの開発データが属する属性を示すラベルlS,max以外のラベルlS,p'を含む開発データを複製し、1つ以上の複製した開発データをJ個の開発データに追加し、J'個の開発データを生成する第二データ調整ステップと含み、第二データ調整ステップにおいてJ'個の開発データにおいてラベルlS,p'を含む開発データの個数が追加後においてQ以下となるようにする。
本発明によれば、学習データまたは開発データの属性の偏りを抑圧することができ、それらのデータを利用して学習されたモデルの識別精度を向上させることができるという効果を奏する。
第一実施形態に係るモデル学習装置の機能ブロック図。 第一実施形態に係るモデル学習装置の処理フローの例を示す図。 学習データのデータ構造例を示す図。 学習データを複製し、追加する例を示す図。 第二実施形態に係るモデル学習装置の機能ブロック図。 第二実施形態に係るモデル学習装置の処理フローの例を示す図。 第三実施形態に係るモデル学習装置の機能ブロック図。 第四実施形態に係るモデル学習装置の機能ブロック図。 第四実施形態に係るモデル学習装置の処理フローの例を示す図。 第五実施形態に係るモデル学習装置の機能ブロック図。 第五実施形態に係るモデル学習装置の処理フローの例を示す図。
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。
<第一実施形態>
図1は第一実施形態に係るモデル学習装置100の機能ブロック図を、図2はその処理フローを示す。
このモデル学習装置100は、CPUと、RAMと、以下の処理を実行するためのプログラムを記録したROMを備えたコンピュータで構成され、機能的には次に示すように構成されている。モデル学習装置100は、学習データ生成部110と学習部120とを含み、学習の結果得られるモデルλを出力する。なお、モデルλは、対象データの特徴量から対象データの属性を示すラベルを推定するモデル(以下、「識別モデル」ともいう)である。なお、λは識別モデル自体であってもよいし、識別モデル内で用いられるパラメータであってもよい。
学習データ生成部110は、学習データ記憶部111と、データ個数計数部112と、データ調整部113と、調整後学習データ記憶部114とを含む。
<学習データ記憶部111>
学習データ記憶部111には、モデルλの学習前に予めK個の学習データが記憶されているものとする。なお、学習データは、学習データの識別子kと、学習データkの属性を示すラベルlL(k)と、学習データkの特徴量cL(k)とを含む(図3参照)。ただし、学習データk∈{1,2,…,K}であり、lL(k)∈{1,2,…,M}であり、cL(k)=(cL(k,1),cL(k,2),…,cL(k,x),…,cL(k,Ck))である。Mはラベルが示す属性の総数(種類数)であり、Ckは学習データkに含まれるフレームの総数であり、cL(k,x)(x=1,2,…,Ck)はx番目のフレームの特徴量である。
例えば、学習データが音声データの場合には、特徴量としてMFCC(メル周波数ケプストラム係数)等が考えられる。学習データが画像データの場合には、特徴量としてSIFT(Scale-Invariant Feature Transform)特徴量等が考えられる。音声データや画像データの特徴量はこれらの特徴量に限らず、属性を識別する際に利用できるものであればどのようなものであってもよい。また、識別の対象となるデータも音声データや画像データに限らず、特徴量によって属性毎に識別できるものであればどのようなものであってもよい。そして、特徴量は対象データの属性を識別する際に利用できるものであればどのようなものであってもよい。
<データ個数計数部112>
データ個数計数部112は、K個の学習データ{k,lL(k),cL(k)}を学習データ記憶部111から取り出し、これらのデータに基づき、各属性m∈{1,2,…,M}に属する学習データの個数を数え(S112)、各属性mに属する学習データの個数n(m)を出力する。例えば、以下のアルゴリズムにより、各属性mに属する学習データの個数n(m)を求める。
1. n(m)←0とする。ただし、m=,1,・・・,Mである。この処理により、カウンタの初期化する。
2. 全てのk(k=1,2,…,K)について、n(lL(k))←n(lL(k))+1とする。この処理により、学習データkの属する属性を示すラベルlL(k)の個数n(lL(k))をインクリメントし、K個の学習データkに対して同様の処理を行い、各属性mに属する学習データの個数n(m)を数える。
<データ調整部113>
データ調整部113は、K個の学習データ{k,lL(k),cL(k)}を学習データ記憶部111から取り出し、各属性mに属する学習データの個数n(m)を受け取る。データ調整部113は、M個の個数n(m)の中で最も大きい個数Nを検出する。そして、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データをK個の学習データに追加し、K'個の学習データを生成する(S113)。ただし、K'>Kとし、maxは1,2,…,Mの何れかであって最大の個数Nの学習データが属する属性を示すラベル番号の何れかであり、m'はmax以外のラベル番号1,2,…,Mである。また、学習データを複製する際には、ラベルlL(k)と特徴量cL(k)のみを複製し、識別子は、既存の学習データと重複しないように新たに付与する。追加後の学習データの識別子をk'とし、k'=1,2,…,K'とする。なお、属性の偏りを抑圧するため、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'に属する学習データを複製し、追加する。また、ラベルlL,m'を含む学習データの個数がNを超えると、新たな偏りの原因となるため、データ調整部113は、K'個の学習データにおいてラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにする。最大の個数Nの学習データが属する属性が二つ以上存在する場合には、それ以外の属性に属する学習データを複製し、追加すればよい。
例えば、すべての属性でデータの個数が揃うように(N個となるように)学習データを複製し、追加する。例えば、以下のアルゴリズムにより、学習データを複製し、追加する(図4参照)。
1. k∈{1,2,…,K}について、k'←k、lL(k')←lL(k)、cL(k')←cL(k)とし、調整後学習データ記憶部114に格納する。この処理により、学習データ{k,lL(k),cL(k)}(k∈{1,2,…,K})をk'=1,2,…,Kにおける学習データ{k',lL(k'),cL(k')}としてそのまま調整後学習データ記憶部114に格納する。
2. N←maxmn(m)とする。ただし、maxm n(m)は、n(1),n(2),…,n(M)の中で最大値を返す関数である。この処理により、M個の個数n(m)の中で最も大きい個数Nを検出する。
3.i←K+1とする。この処理により、複製先の学習データの番号(識別子)を示す変数iを初期化する。
4.全てのm=1,2,…,Mについて、以下操作を行い、k'=K+1,K+2,…,K'における学習データ{k',lL(k'),cL(k')}を複製する。なお、図4のループ端子の上端内の変数、数値は、(変数=初期値,終値,増分値)を示す。
(ア)j←N-n(m)とする。この処理により、属性mに属する学習データの個数と最大の個数Nとの差分を求める。
(イ)h←1とする。この処理により、複製元の学習データを示す変数hを初期化する。
(ウ)j=0の場合、終了する。
(エ)h>Kの場合、h←1とする。この処理により、複製元の学習データを全て複製した場合、複製元の学習データを示す変数hを初期化する。
(オ)lL(h)=mの場合、lL(i)←lL(h)、cL(i)←cL(h)、j←j-1、i←i+1とする。上述の(ウ)の処理と合わせて、属性mに属する学習データの個数と最大の個数Nとの差分に相当する個数の複製を生成する。
(カ)h←h+1として、(ウ)に戻る。
5. 最終的な学習データの個数をK'←iとする。
この処理によりk'=K+1,K+2,…,K'における学習データ{k',lL(k'),cL(k')}を生成し、生成した学習データを調整後学習データ記憶部114に格納する。
<調整後学習データ記憶部114>
調整後学習データ記憶部114には、K'個の学習データ{k',lL(k'),cL(k')}が格納される。
<学習部120>
学習部120は、K'個の学習データ{k',lL(k'),cL(k')}を調整後学習データ記憶部114から取り出し、K'個の学習データ{k',lL(k'),cL(k')}を用いて、対象データの特徴量から対象データの属性を示すラベルを推定するモデルλを学習し(S120)、本装置の出力値として出力する。例えば、lL(k)=arg m max p(m|λ,cL(k))となる、モデルλを学習する。p(m|λ,cL(k))は特徴量cL(k)が属性m(m=1,2,….M)に属する事後確率であり、arg m max p(m|λ,cL(k))は事後確率p(m|λ,cL(k)が最も大きいときのmを返す関数である。このようにして、複製した学習データも含めて、全学習データk'=1,2,…,K'の全特徴量cL(k')及びラベルlL(k')を利用して学習する。なお、モデルλの学習方法は既存のいかなる学習方法を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
<効果>
以上の構成により、学習データの属性の偏りを抑圧することができ、学習データを利用して学習されたモデルλの識別精度を向上させることができる。
<変形例>
本実施形態では、すべての属性でデータの個数が揃うように(N個となるように)学習データを複製し、追加しているが、必ずしもデータの個数をN個に揃える必要はない。最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'に属する学習データを複製し、追加することで、属性の偏りを抑圧することができる。ただし、すべての属性でデータの個数を揃えることで偏りが最小となり、モデルλの識別精度が最も良くなる可能性がある。
また、本実施形態では、複製元の学習データを示す変数hを複製する度にインクリメントすることで、複製元の学習データが偏らないようにしているが、複製元のデータの中からランダムに選択する構成としてもよい。このような構成によっても偏りを抑制することができる。例えば、乱数を発生させ、その乱数を複製元の学習データの個数で割り、剰余に対応する番号の学習データを複製し、追加してもよい。
本実施形態では、1つの学習データkに1つ以上のフレームの特徴量cL(k)=(cL(k,1),cL(k,2),…,cL(k,x),…,cL(k,Ck))が含まれ、1つの学習データkに対して1つのラベルlL(k)が付与されているものとして処理を行っているが、ラベルを付与する際の単位は適宜変更してよい。例えば、1つの音声データの中に複数の人物の発話が含まれる場合には、1つの音声データを発話毎に分割し、分割した音声データ毎にラベルを付与してもよい。また、フレーム単位でラベルlL(k,x)を付与してもよい。
学習データ生成部110をモデル学習装置100とは、別装置とし、学習データ生成装置として構成してもよい。その場合、学習データ生成装置はK'個の学習データ{k',lL(k'),cL(k')}を出力し、学習部120を備えるモデル学習装置100は、K'個の学習データ{k',lL(k'),cL(k')}を用いてモデルλを学習する。
<第二実施形態のポイント>
第一実施形態と異なる部分を中心に説明する。本実施形態では学習データを調整するのではなく、開発データを調整する。なお、開発データは、学習モデルの過学習を防ぐためのデータであり、図3と同様に学習データと同じ構造を持つ。学習モデルのパラメータを更新後に、開発データに対して識別を行い、開発データの識別率が飽和(収束)している場合に、学習を終了する。開発データにおいて、属性に偏りがあると、開発データが多い属性に依存して、学習が終了してしまうため、第二実施形態では、開発データの個数を調整している。
学習データと開発データの調整の効果の違いは次のとおりになる。学習データの調整は、学習のパラメータ更新時に偏っている識別結果を元にパラメータ更新値を決めるため、識別精度向上と学習速度向上の両方に効果があるが、学習時のパラメータが適切ではなく過学習を起こしてしまうと、かえって識別精度が下がる可能性がある。開発データの調整は、学習を停止する基準となるため、学習速度には効果がないが識別精度向上に効果があり、過学習を防ぐことができる。
<第二実施形態に係るモデル学習装置>
図5は第二実施形態に係るモデル学習装置200の機能ブロック図を、図6はその処理フローを示す。
モデル学習装置200は、開発データ生成部230と、学習部220とを含み、学習の結果得られるモデルλを出力する。
<開発データ生成部230>
開発データ生成部230は、開発データ記憶部211と、データ個数計数部212と、データ調整部213と、調整後開発データ記憶部214とを含む。なお、開発データ記憶部211、データ個数計数部212、データ調整部213及び調整後開発データ記憶部214は、それぞれ学習データ記憶部111、データ個数計数部112、データ調整部113及び調整後学習データ記憶部114と同様の構成であり、同様の処理(S212,S213)を行う。K個の学習データ{k,lL(k),cL(k)}及びK'個の調整後学習データ{k',lL(k'),cL(k')}に代えて、J個の開発データ{j,lS(j),cS(j)}及びJ'個の調整後学習データ{j',lS(j'),cS(j')}を用いる点が異なる。また、J'>Jとする。その他、データの個数等は、学習データと開発データとで異なるが、処理内容は同様である。
<学習部220>
学習部220は、K個の学習データ{k,lL(k),cL(k)}を学習データ記憶部111から取り出し、K個の学習データ{k,lL(k),cL(k)}を用いて、対象データの特徴量から対象データの属性を示すラベルを推定するモデルである第三学習モデルλ'3を学習する(S220)。この学習方法は学習部120と同様である。
次に、学習部220は、J'個の開発データ{j',lS(j'),cS(j')}を受け取り、特徴量cS(j')を第三学習モデルλ'3の入力とし、J'個の開発データの特徴量cS(j')に対する属性を示すラベルをそれぞれ推定する(S221)。
J'個の推定結果とJ'個のラベルlS(j')とに基づき、第三学習モデルλ'3の正解率(例えば、推定結果の属性とラベルlS(j')が示す属性とが一致しているデータの個数をJ'で割った値)を求め、正解率が飽和するまで(S222)、第三学習モデルλ'3の学習を繰り返す。例えば、飽和しているか否かの判断は、繰り返し前後の正解率の差が所定の閾値よりも小さいか否かで判断し、差が所定の閾値よりも小さい場合に飽和していると判断し、飽和時の第三学習モデルλ'3を本装置の出力値(モデルλ)として出力する。飽和しているか否かの判断方法として、他の方法を用いてもよい。例えば、所定の回数学習を繰り返したときに飽和したと判断してもよい。
<効果>
このような構成とすることで、開発データの属性の偏りを抑圧することができ、開発データを利用して学習されたモデルλの識別精度を向上させることができる。なお、本実施形態と第一実施形態の変形例を組合せてもよい。
<変形例>
開発データ生成部230をモデル学習装置200とは、別装置とし、開発データ生成装置として構成してもよい。その場合、開発データ生成装置はJ'個の開発データ{j',lS(j'),cS(j')}を出力し、学習部220を備えるモデル学習装置200は、J'個の開発データ{j',lS(j'),cS(j')}を用いてモデルλを学習する。
<第三実施形態>
第二実施形態と異なる部分を中心に説明する。
図7は、第三実施形態に係るモデル学習装置300の機能ブロック図を示す。
モデル学習装置300は、学習データ生成部110と開発データ生成部230と学習部320とを含む。
学習部320は、K個の学習データ{k,lL(k),cL(k)}に代えて、第一実施形態の学習データ生成部110で生成したK'個の学習データ{k',lL(k'),cL(k')}を用いる。
学習部320は、K'個の学習データ{k',lL(k'),cL(k')}を調整後学習データ記憶部114から取り出し、K'個の学習データ{k',lL(k'),cL(k')}を用いて、モデルλを学習する。この学習方法は学習部220と同様である。
このような構成により、第一実施形態及び第二実施形態と同様の効果を得ることができる。
<第四実施形態>
第一実施形態と異なる部分を中心に説明する。
本実施形態では、複製する学習データを限定する、または、複製する学習データに優先順位を設ける。例えば、識別誤りをし易い学習データを複製して学習データの偏りを調整する。識別誤りが高い学習データを複製することで、識別率の向上を図る。
図8は第四実施形態に係るモデル学習装置400の機能ブロック図を、図9はその処理フローを示す。
モデル学習装置400は、学習データ生成部410と学習部120とを含み、学習の結果得られるモデルλを出力する。
学習データ生成部410は、学習データ記憶部111と、データ個数計数部112と、データ調整部413と、調整後学習データ記憶部114と、学習部415と、事後確率算出部416とを含む。
<学習部415>
学習部415は、学習データ記憶部111からK個の学習データ{k,lL(k),cL(k)}を取り出し、これらの値を用いて、対象データの特徴量から対象データの属性を示すラベルを推定するモデルである第一学習モデルλ'1を学習し(S415)、事後確率算出部416に出力する。なお、第一学習モデルλ'1の学習方法は既存のいかなる学習方法を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
<事後確率算出部416>
事後確率算出部416は、第一学習モデルλ'1を受け取り、第一学習モデルλ'1を用いて、学習データの特徴量cL(k)が各属性mに属する事後確率である第一事後確率q(k, m)(=p(m|λ'1,cL(k)))を算出し(S416)、データ調整部413に出力する。
<データ調整部413>
データ調整部413は、K個の学習データ{k,lL(k),cL(k)}を学習データ記憶部111から取り出し、各属性mに属する学習データの個数n(m)及びK個の第一事後確率q(k, m)を受け取る。データ調整部413は、M個の個数n(m)の中で最も大きい個数Nを検出する。そして、最大の個数Nの学習データが属するラベルlL,max以外のラベルlL,m'が示す属性に属する学習データを複製し、1つ以上の複製した学習データをK個の学習データに追加し、K'個の学習データを生成する(S413)。データ調整部413は、K'個の学習データにおいてラベルlL,m'が示す属性に属する学習データの個数が追加後においてN以下となるようにする。なお、本実施形態では、
(i)識別誤りを起こしている学習データ(最も高い事後確率の属性と学習データのラベルが示す属性とが一致しない学習データ)
(ii)正解データ(最も高い事後確率の属性と学習データのラベルが示す属性とが一致する学習データ)であって、最も高い事後確率と二番目に高い事後確率との差が小さい学習データ
(iii)各属性の特徴量の重心に近い学習データ
の何れかを優先して複製する。さらに、(i)〜(iii)を組合せてもよく、例えば、まず、識別誤りを起こしている学習データを複製し、次に、正解データであって、最も高い事後確率と二番目に高い事後確率との差が小さい学習データを優先して複製してもよい。(i),(ii)の場合、識別誤りを起こしている学習データや識別誤りを起こし易い学習データ(属性の境界線近傍の学習データ)を複製することで、同様の識別誤りが生じる可能性を下げる。しかしながら、上述の(i)や(ii)の学習データを複製しすぎると、属性の特徴量の重心がずれ、新たな識別誤りの原因となり得る。そこで、(iii)では、属性の重心近傍の学習データを複製することで、このような過適合生じる可能性を下げる。学習データの構成や識別モデルの識別精度に応じて適宜(i)〜(iii)を組合せればよい。以下、4つの処理例を示す。
(4つの処理例に共通する処理)
1. k∈{1,2,…,K}について、k'←k、lL(k')←lL(k)、cL(k')←cL(k)とし、調整後学習データ記憶部114に格納する。この処理により、k'=1,2,…,Kにおける学習データ{k',lL(k'),cL(k')}をそのまま調整後学習データ記憶部114に格納する。
2. N←maxmn(m)とする。ただし、maxm n(m)は、n(1),n(2),…,n(M)の中で最大値を返す関数である。この処理により、M個の個数n(m)の中で最も大きい個数Nを検出する。
3.i←K+1とする。この処理により、複製先の学習データを示す変数iを初期化する。
(i)識別誤りを起こしている学習データの処理例を優先して複製する場合の処理例
4.全てのm=1,…,Mについて、下記操作を行い、k'=K+1,K+2,…,K'における学習データ{k',lL(k'),cL(k')}を複製する。
(ア)j←N-n(m)とする。
(イ)h←1とする。
(ウ)j=0の場合、終了する。
(エ)h>Kの場合、h←1とする。
(オ)lL(h)=mかつlL(h)≠argmmax q(h,m)の場合、lL(i)←lL(h)、cL(i)←cL(h)、j←j-1、i←i+1とする。
(カ)h←h+1として、(ウ)に戻る。
5.最終的なデータの個数をK’←iとする。
(ii)正解データであって、最も高い事後確率と二番目に高い事後確率との差が小さい学習データを優先して複製する場合の処理例
4.k'=1,…,Kについて、下記操作を行う
(ア)正解の事後確率が全ての属性m(m=1,…,M)の中で最も高い場合(最も高い事後確率の属性と学習データのラベルが示す属性とが一致する、つまり、lL(k')=argmmax q(k',m)の場合)、二番目に高い属性をm’として、rL(k')←q(k',lL(k'))-q(k',m')とする。ただし、argmmax q(k',m)は、q(k',m)が最も高いときのmを返す関数である。
(イ)正解の事後確率が全ての属性m(m=1,…,M)の中で最も高くない場合(最も高い事後確率の属性と学習データのラベルが示す属性とが一致しない、つまりlL(k')≠argmmax q(k',m)の場合)、rL(k')←∞とする。
5.rL(k')をk'=1,…,Kにおいて昇順で並び替え、そのs番目に小さいrLをr(f(s))とする。ただし、f(s)は、rL(k')を昇順で並び替えたときにs番目のrL(k')に対応する学習データの番号k'を返す関数である。
6.全てのm=1,…,Mについて、下記操作を行い、k'=K+1,K+2,…,K'における学習データ{k',lL(k'),cL(k')}を複製する。
(ア)j←N-n(m)とする。
(イ)h←1とする。
(ウ)j=0の場合、終了する。
(エ)h>Kの場合、h←1とする。
(オ)lL(f(h))=mの場合、lL(i)←lL(f(h))、cL(i)←cL(f(h))、j←j-1、i←i+1とする。
(カ)h←h+1とする。
(キ)r(f(h))=∞の場合、h←1とする。
(ク)(ウ)に戻る。
7.最終的なデータの個数をK’←iとする。
(iii)各属性の特徴量の重心に近い学習データを優先して複製する場合の処理例
4.K個の学習データ{k',lL(k'),cL(k')}(k'=1,…,K)を用いて、各属性mの特徴量の重心を求める。学習データ{k',lL(k'),cL(k')}毎に、その学習データが属する属性mの特徴量の重心との距離dL(k')を計算する。例えば、ユークリッド距離等を用いることができ、cL(k')=(cL(k',1),cL(k',2),…,cL(k',x),…,cL(k',Ck))の各cL(k',x)と特徴量の重心とのユークリッド距離を求め、Ck個のユークリッド距離の平均を、特徴量cL(k')と重心との距離dL(k')として用いる。
5.dL(k')をk'=1,…,Kにおいて昇順で並び替え、そのs番目に小さいdLをd(f(s))とする。ただし、f(s)は、dL(k')を昇順で並び替えたときにs番目のdL(k')に対応する学習データの番号k'を返す関数である。
6.全てのm=1,…,Mについて、下記操作を行い、k'=K+1,K+2,…,K'における学習データ{k',lL(k'),cL(k')}を複製する。
(ア)j←N-n(m)とする。
(イ)h←1とする。
(ウ)j=0の場合、終了する。
(エ)h>Kの場合、h←1とする。
(オ)lL(f(h))=mの場合、lL(i)←lL(f(h))、cL(i)←cL(f(h))、j←j-1、i←i+1とする。
(カ)h←h+1とし、(ウ)に戻る。
7.最終的なデータの個数をK’←iとする。
(iv)まず、識別誤りを起こしている学習データを複製し、次に、正解データであって、最も高い事後確率と二番目に高い事後確率との差が小さい学習データを優先して複製する場合の処理例
4.k'=1,…,Kについて、下記操作を行う
(ア)正解の事後確率が全ての属性m(m=1,…,M)の中で最も高い場合(最も高い事後確率の属性と学習データのラベルが示す属性とが一致する、つまり、lL(k')=argmmax q(k',m)の場合)、二番目に高い属性をm’として、rL(k')←q(k',lL(k'))-q(k',m')とする。ただし、argmmax q(k',m)は、q(k',m)が最も高いときのmを返す関数である。
(イ)正解の事後確率が全ての属性m(m=1,…,M)の中で最も高くない場合(最も高い事後確率の属性と学習データのラベルが示す属性とが一致しない、つまりlL(k')≠argmmax q(k',m)の場合)、rL(k')← - ∞とする。
5.rL(k')をk'=1,…,Kにおいて昇順で並び替え、そのs番目に小さいrLをr(f(s))とする。
6.全てのm=1,…,Mについて、下記操作を行い、k'=K+1,K+2,…,K'における学習データ{k',lL(k'),cL(k')}を複製する。
(ア)j←N-n(m)とする。
(イ)h←1とする。
(ウ)j=0の場合、終了する。
(エ)h>Kの場合、h←1とする。
(オ)lL(f(h))=mの場合、lL(i)←lL(f(h))、cL(i)←cL(f(h))、j←j-1、i←i+1とする。
(カ)h←h+1とし、(ウ)に戻る。
この処理によりk'=K+1,K+2,…,K'における学習データ{k',lL(k'),cL(k')}を生成し、生成した学習データを調整後学習データ記憶部114に格納する。
<効果>
このような構成とすることで、第一実施形態と同様の効果を得ることができる。さらに、上述の(i),(ii),(iv)の複製方法の場合には、識別誤りが高い学習データを複製することで、識別率向上を図ることができる。また、上述の(iii)の場合には、過適合生じる可能性を下げ、結果として識別率向上を図ることができる。
<第五実施形態のポイント>
第四実施形態と異なる部分を中心に説明する。本実施形態では学習データを調整するのではなく、開発データを調整する。
<第五実施形態に係るモデル学習装置>
図10は第五実施形態に係るモデル学習装置500の機能ブロック図を、図11はその処理フローを示す。
モデル学習装置500は、開発データ生成部530と、学習部220とを含み、学習の結果得られるモデルλを出力する。学習部220の構成、処理内容は第二実施形態の学習部220と同様である。
<開発データ生成部230>
開発データ生成部230は、開発データ記憶部211と、データ個数計数部212と、データ調整部513と、調整後開発データ記憶部214と、学習部515と、事後確率算出部516とを含む。なお、データ調整部513、学習部515及び事後確率算出部516は、それぞれデータ調整部413、学習部415及び事後確率算出部416と同様の構成であり、同様の処理(S513,S515,S516)を行う。K個の学習データ{k,lS(k),cS(k)}及びK'個の調整後学習データ{k',lS(k'),cS(k')}に代えて、J個の開発データ{j,lS(j),cS(j)}及びJ'個の調整後学習データ{j',lS(j'),cS(j')}を用いる点が異なる。データの個数等は、学習データと開発データとで異なるが、処理内容は同様である。
<効果>
このような構成とすることで、第二実施形態と同様の効果を得ることができる。第四実施形態の(i),(ii),(iv)の複製方法の場合には、識別誤りが高い開発データを複製することで、識別率向上を図ることができる。また、上述の(iii)の場合には、過適合生じる可能性を下げ、結果として識別率向上を図ることができる。なお、本実施形態と他の実施形態及びその変形例を組合せてもよい。
<第六実施形態>
第五実施形態と異なる部分を中心に説明する。
図7は、第六実施形態に係るモデル学習装置600の機能ブロック図を示す。
モデル学習装置600は、学習データ生成部410と開発データ生成部530と学習部320とを含む。学習部320は、第三実施形態の学習部320と同様の構成であり、同様の処理を行う。
このような構成により、第三実施形態〜第五実施形態と同様の効果を得ることができる。
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (8)

  1. 学習データは当該学習データの属性を示すラベルと当該学習データの特徴量とを含むものとし、K個の学習データに基づき、各属性に属する学習データの個数を数える第一データ個数計数部と、
    K'>Kとし、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データを前記K個の学習データに追加し、K'個の学習データを生成する第一データ調整部と含み、前記第一データ調整部は、K'個の学習データにおいて前記ラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにする、
    学習データ生成装置。
  2. 請求項1の学習データ生成装置であって、
    前記K個の学習データを用いて、対象データの特徴量から対象データの属性を示すラベルを推定するモデルである第一学習モデルλ'1を学習する第一学習部と、
    前記第一学習モデルλ'1を用いて、学習データが各属性に属する事後確率である第一事後確率を算出する第一事後確率算出部とを含み、
    前記第一データ調整部は、
    (i)最も高い事後確率の属性と学習データのラベルが示す属性とが一致しない学習データ
    (ii)最も高い事後確率の属性と学習データのラベルが示す属性とが一致する学習データであって、最も高い事後確率と二番目に高い事後確率との差が小さい学習データ
    (iii)各属性の特徴量の重心に近い学習データ
    の少なくとも何れかを優先して複製する、
    学習データ生成装置。
  3. 開発データは当該開発データの属性を示すラベルと当該開発データの特徴量とを含むものとし、J個の開発データに基づき、各属性に属する開発データの個数を数える第二データ個数計数部と、
    J'>Jとし、最大の個数Qの開発データが属する属性を示すラベルlS,max以外のラベルlS,p'を含む開発データを複製し、1つ以上の複製した開発データを前記J個の開発データに追加し、J'個の開発データを生成する第二データ調整部と含み、前記第二データ調整部はJ'個の開発データにおいてラベルlS,p'を含む開発データの個数が追加後においてQ以下となるようにする、
    開発データ生成装置。
  4. 請求項3の開発データ生成装置であって、
    前記J個の開発データを用いて、対象データの特徴量から対象データの属性を示すラベルを推定するモデルである第二学習モデルλ'2を学習する第二学習部と、
    前記第二学習モデルλ'2を用いて、開発データが各属性に属する事後確率である第二事後確率を算出する第二事後確率算出部とを含み、
    前記第二データ調整部は、
    (i)最も高い事後確率の属性と開発データのラベルが示す属性とが一致しない開発データ
    (ii)最も高い事後確率の属性と開発データのラベルが示す属性とが一致する開発データであって、最も高い事後確率と二番目に高い事後確率との差が小さい開発データ
    (iii)各属性の特徴量の重心に近い開発データ
    の少なくとも何れかを優先して複製する、
    開発データ生成装置。
  5. 学習データは当該学習データの属性を示すラベルと当該学習データの特徴量とを含むものとし、K個の学習データに基づき、各属性に属する学習データの個数を数える第一データ個数計数部と、
    K'>Kとし、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データを前記K個の学習データに追加し、K'個の学習データを生成する第一データ調整部と含み、前記第一データ調整部は、K'個の学習データにおいて前記ラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにし、
    開発データは当該開発データの属性を示すラベルと当該開発データの特徴量とを含むものとし、J個の開発データに基づき、各属性に属する開発データの個数を数える第二データ個数計数部と、
    J'>Jとし、最大の個数Qの開発データが属する属性を示すラベルlS,max以外のラベルlS,p'を含む開発データを複製し、1つ以上の複製した開発データを前記J個の開発データに追加し、J'個の開発データを生成する第二データ調整部と含み、前記第二データ調整部はJ'個の開発データにおいてラベルlS,p'を含む開発データの個数が追加後においてQ以下となるようにし、
    前記K'個の学習データを用いて、対象データの特徴量から対象データの属性を示すラベルを推定するモデルである第三学習モデルλ'3を学習する第三学習部を含み、前記第三学習部は、前記J'個の開発データに含まれる特徴量を前記第三学習モデルλ'3の入力とし、前記J'個の開発データの属性を示すラベルをそれぞれ推定し、J'個の推定結果と前記J'個の開発データに含まれるJ'個のラベルとに基づき、前記第三学習モデルλ'3の正解率を求め、前記正解率が飽和するまで、前記第三学習モデルλ'3の学習を繰り返す、
    モデル学習装置。
  6. 学習データは当該学習データの属性を示すラベルと当該学習データの特徴量とを含むものとし、第一データ個数計数部が、K個の学習データに基づき、各属性に属する学習データの個数を数える第一データ個数計数ステップと、
    K'>Kとし、第一データ調整部が、最大の個数Nの学習データが属する属性を示すラベルlL,max以外のラベルlL,m'を含む学習データを複製し、1つ以上の複製した学習データを前記K個の学習データに追加し、K'個の学習データを生成する第一データ調整ステップと含み、前記第一データ調整ステップにおいてK'個の学習データにおいて前記ラベルlL,m'を含む学習データの個数が追加後においてN以下となるようにする、
    学習データ生成方法。
  7. 開発データは当該開発データの属性を示すラベルと当該開発データの特徴量とを含むものとし、第二データ個数計数部が、J個の開発データに基づき、各属性に属する開発データの個数を数える第二データ個数計数ステップと、
    J'>Jとし、第二データ調整部が、最大の個数Qの開発データが属する属性を示すラベルlS,max以外のラベルlS,p'を含む開発データを複製し、1つ以上の複製した開発データを前記J個の開発データに追加し、J'個の開発データを生成する第二データ調整ステップと含み、前記第二データ調整ステップにおいてJ'個の開発データにおいてラベルlS,p'を含む開発データの個数が追加後においてQ以下となるようにする、
    開発データ生成方法。
  8. 請求項1もしくは請求項2の学習データ生成装置、または、請求項3もしくは請求項4の開発データ生成装置、または、請求項5のモデル学習装置としてコンピュータを機能させるためのプログラム。
JP2016248859A 2016-12-22 2016-12-22 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム Active JP6567488B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016248859A JP6567488B2 (ja) 2016-12-22 2016-12-22 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016248859A JP6567488B2 (ja) 2016-12-22 2016-12-22 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018106216A true JP2018106216A (ja) 2018-07-05
JP6567488B2 JP6567488B2 (ja) 2019-08-28

Family

ID=62787138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016248859A Active JP6567488B2 (ja) 2016-12-22 2016-12-22 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6567488B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102035796B1 (ko) * 2018-07-26 2019-10-24 주식회사 딥핑소스 데이터를 비식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
JP2020068028A (ja) * 2018-10-26 2020-04-30 株式会社ストラドビジョン 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
KR20200049273A (ko) * 2018-10-31 2020-05-08 주식회사 메디치소프트 머신러닝을 위한 학습데이터 세트의 구성 방법 및 장치
KR20200063904A (ko) * 2018-11-28 2020-06-05 서울대학교산학협력단 다중 간선 라벨 그래프의 정점들 간 관련도를 측정하는 방법 및 장치
US10789551B2 (en) 2018-08-10 2020-09-29 Deeping Source Inc. Method for training and testing data embedding network to generate marked data by integrating original data with mark data, and training device and testing device using the same
WO2021080103A1 (en) * 2019-10-24 2021-04-29 Deeping Source Inc. Method for learning and testing user learning network to be used for recognizing obfuscated data created by concealing original data to protect personal information and learning device and testing device using the same
JP2021086144A (ja) * 2019-11-25 2021-06-03 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声対話の方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体
JP2021149924A (ja) * 2020-03-18 2021-09-27 マルハニチロ株式会社 計数システム
JP2021533499A (ja) * 2018-09-03 2021-12-02 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. 不均衡標本データの前処理方法、装置及びコンピュータ機器
JP2022551832A (ja) * 2019-10-24 2022-12-14 ディーピング ソース インコーポレイテッド. プライバシーのためにデータをコンシーリング処理することができる変造ネットワークに対応される適応ネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置{method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy、and training device and testing device using the same}
WO2023188790A1 (ja) * 2022-03-29 2023-10-05 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08217344A (ja) * 1995-02-10 1996-08-27 Fujitec Co Ltd 呼び割り当て用ニューラルネットの学習方法
JP2010204966A (ja) * 2009-03-03 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> サンプリング装置、サンプリング方法、サンプリングプログラム、クラス判別装置およびクラス判別システム。
JP2011059810A (ja) * 2009-09-07 2011-03-24 Nippon Soken Inc 画像認識システム
JP2012208710A (ja) * 2011-03-29 2012-10-25 Panasonic Corp 属性推定装置
JP2013161298A (ja) * 2012-02-06 2013-08-19 Nippon Steel & Sumitomo Metal 分類器作成装置、分類器作成方法、及びコンピュータプログラム
JP2015090559A (ja) * 2013-11-05 2015-05-11 キヤノン株式会社 データ処理方法及び装置、データ識別方法及び装置、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08217344A (ja) * 1995-02-10 1996-08-27 Fujitec Co Ltd 呼び割り当て用ニューラルネットの学習方法
JP2010204966A (ja) * 2009-03-03 2010-09-16 Nippon Telegr & Teleph Corp <Ntt> サンプリング装置、サンプリング方法、サンプリングプログラム、クラス判別装置およびクラス判別システム。
JP2011059810A (ja) * 2009-09-07 2011-03-24 Nippon Soken Inc 画像認識システム
JP2012208710A (ja) * 2011-03-29 2012-10-25 Panasonic Corp 属性推定装置
JP2013161298A (ja) * 2012-02-06 2013-08-19 Nippon Steel & Sumitomo Metal 分類器作成装置、分類器作成方法、及びコンピュータプログラム
JP2015090559A (ja) * 2013-11-05 2015-05-11 キヤノン株式会社 データ処理方法及び装置、データ識別方法及び装置、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤田一弥、高原歩, 実装ディープラーニング, vol. 第1版, JPN6019017306, 30 November 2016 (2016-11-30), pages 72 - 73, ISSN: 0004034499 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10896246B2 (en) 2018-07-26 2021-01-19 Deeping Source Inc. Method for concealing data and data obfuscation device using the same
CN111373403A (zh) * 2018-07-26 2020-07-03 深度来源公司 一种用于隐藏原始数据以保护个人信息的混淆网络的学习方法和测试方法,以及其学习装置和测试装置
US10747854B2 (en) 2018-07-26 2020-08-18 Deeping Source Inc. Method for concealing data and data obfuscation device using the same
WO2020022703A1 (en) * 2018-07-26 2020-01-30 Deeping Source Inc. Method for concealing data and data obfuscation device using the same
JP7040712B2 (ja) 2018-07-26 2022-03-23 ディーピング ソース インコーポレイテッド. 個人情報保護のために原本データをコンシーリング処理する変調ネットワークを学習する方法及びテストする方法、そして、これを利用した学習装置及びテスト装置
CN111373403B (zh) * 2018-07-26 2024-04-23 深度来源公司 一种用于隐藏原始数据以保护个人信息的混淆网络的学习方法和测试方法,以及其学习装置和测试装置
KR102035796B1 (ko) * 2018-07-26 2019-10-24 주식회사 딥핑소스 데이터를 비식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
JP2021512442A (ja) * 2018-07-26 2021-05-13 ディーピング ソース インコーポレイテッド. 個人情報保護のために原本データをコンシーリング処理する変調ネットワークを学習する方法及びテストする方法、そして、これを利用した学習装置及びテスト装置
WO2020022704A1 (en) * 2018-07-26 2020-01-30 Deeping Source Inc. Method for training and testing obfuscation network capable of processing data to be concealed for privacy, and training device and testing device using the same
WO2020022619A1 (ko) * 2018-07-26 2020-01-30 주식회사 딥핑소스 데이터를 비식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US10789551B2 (en) 2018-08-10 2020-09-29 Deeping Source Inc. Method for training and testing data embedding network to generate marked data by integrating original data with mark data, and training device and testing device using the same
JP7058797B2 (ja) 2018-09-03 2022-04-22 平安科技(深▲せん▼)有限公司 不均衡標本データの前処理方法、装置及びコンピュータ機器
JP2021533499A (ja) * 2018-09-03 2021-12-02 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. 不均衡標本データの前処理方法、装置及びコンピュータ機器
US11941087B2 (en) 2018-09-03 2024-03-26 Ping An Technology (Shenzhen) Co., Ltd. Unbalanced sample data preprocessing method and device, and computer device
JP2020068028A (ja) * 2018-10-26 2020-04-30 株式会社ストラドビジョン 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
KR20200049273A (ko) * 2018-10-31 2020-05-08 주식회사 메디치소프트 머신러닝을 위한 학습데이터 세트의 구성 방법 및 장치
KR102147097B1 (ko) * 2018-10-31 2020-08-24 주식회사 메디치소프트 머신러닝을 위한 학습데이터 세트의 구성 방법 및 장치
KR20200063904A (ko) * 2018-11-28 2020-06-05 서울대학교산학협력단 다중 간선 라벨 그래프의 정점들 간 관련도를 측정하는 방법 및 장치
KR102177940B1 (ko) 2018-11-28 2020-11-12 서울대학교산학협력단 다중 간선 라벨 그래프의 정점들 간 관련도를 측정하는 방법 및 장치
JP2022551832A (ja) * 2019-10-24 2022-12-14 ディーピング ソース インコーポレイテッド. プライバシーのためにデータをコンシーリング処理することができる変造ネットワークに対応される適応ネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置{method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy、and training device and testing device using the same}
JP7362165B2 (ja) 2019-10-24 2023-10-17 ディーピング ソース インコーポレイテッド. プライバシーのためにデータをコンシーリング処理することができる変造ネットワークに対応される適応ネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置{method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy、and training device and testing device using the same}
WO2021080103A1 (en) * 2019-10-24 2021-04-29 Deeping Source Inc. Method for learning and testing user learning network to be used for recognizing obfuscated data created by concealing original data to protect personal information and learning device and testing device using the same
US11250854B2 (en) 2019-11-25 2022-02-15 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for voice interaction, device and computer-readable storage medium
JP2021086144A (ja) * 2019-11-25 2021-06-03 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 音声対話の方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体
JP7208951B2 (ja) 2019-11-25 2023-01-19 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声対話の方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体
JP2021149924A (ja) * 2020-03-18 2021-09-27 マルハニチロ株式会社 計数システム
WO2023188790A1 (ja) * 2022-03-29 2023-10-05 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム

Also Published As

Publication number Publication date
JP6567488B2 (ja) 2019-08-28

Similar Documents

Publication Publication Date Title
JP6567488B2 (ja) 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム
US11620529B2 (en) Method of continual-learning of data sets and apparatus thereof
US11081105B2 (en) Model learning device, method and recording medium for learning neural network model
JP2022500726A (ja) タスク指向型対話のためのグローバル−ローカルメモリポインタネットワーク
JP7266674B2 (ja) 画像分類モデルの訓練方法、画像処理方法及び装置
WO2021174723A1 (zh) 训练样本扩充方法、装置、电子设备及存储介质
TW201626293A (zh) 由知識圖譜偏置的資料分類
US11380301B2 (en) Learning apparatus, speech recognition rank estimating apparatus, methods thereof, and program
WO2020227419A1 (en) Record matching model using deep learning for improved scalability and adaptability
JP6195542B2 (ja) 学習装置、学習方法及び学習プログラム
JP6712644B2 (ja) 音響モデル学習装置、その方法、及びプログラム
US11113609B2 (en) Machine-learning system and method for identifying same person in genealogical databases
WO2016167779A1 (en) Speech recognition device and rescoring device
JP2019159823A (ja) 学習プログラム、学習方法および学習装置
CN107590139A (zh) 一种基于循环矩阵翻译的知识图谱表示学习方法
JP6230987B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
Lee et al. POMDP-based Let's Go system for spoken dialog challenge
JPWO2019235283A1 (ja) モデル学習装置、方法及びプログラム
JP6244297B2 (ja) 音響スコア算出装置、その方法及びプログラム
WO2021147405A1 (zh) 客服语句质检方法及相关设备
JP2015011535A (ja) モデル学習方法、モデル学習プログラム及びモデル学習装置
WO2019194128A1 (ja) モデル学習装置、モデル学習方法、プログラム
JP6839001B2 (ja) モデル学習装置、情報判定装置およびそれらのプログラム
JP2020126141A (ja) 音響モデル学習装置、音響モデル学習方法、プログラム
CN114970732A (zh) 分类模型的后验校准方法、装置、计算机设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190731

R150 Certificate of patent or registration of utility model

Ref document number: 6567488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150