JP6859577B2 - 学習方法、学習プログラム、学習装置及び学習システム - Google Patents

学習方法、学習プログラム、学習装置及び学習システム Download PDF

Info

Publication number
JP6859577B2
JP6859577B2 JP2019532833A JP2019532833A JP6859577B2 JP 6859577 B2 JP6859577 B2 JP 6859577B2 JP 2019532833 A JP2019532833 A JP 2019532833A JP 2019532833 A JP2019532833 A JP 2019532833A JP 6859577 B2 JP6859577 B2 JP 6859577B2
Authority
JP
Japan
Prior art keywords
data
learning
classification model
classification
predetermined ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019532833A
Other languages
English (en)
Other versions
JPWO2019022136A1 (ja
Inventor
達也 原田
達也 原田
佑司 床爪
佑司 床爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Publication of JPWO2019022136A1 publication Critical patent/JPWO2019022136A1/ja
Application granted granted Critical
Publication of JP6859577B2 publication Critical patent/JP6859577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、学習方法、学習プログラム、学習装置及び学習システムに関する。
近年、多層のニューラルネットワーク等のモデルを用いて、画像認識や音声認識、自然言語処理を行う研究が進展している。例えば、画像を入力として、その画像が犬の画像であるのか、猫の画像であるのかといった分類結果を出力する分類モデルが知られている。分類モデルは、分類が定められた複数の学習用データを入力して、正しい分類を再現するように分類モデルのパラメータを更新していくことで学習されることがある。
ニューラルネットワークの学習方法の一例として、下記特許文献1には、画像を分類するための分類器の学習方法であって、第1ニューラルネットワークで構成される粗クラス分類器に、それぞれの詳細クラスを示すラベルが付与された複数の画像を、複数の詳細クラスを包含する複数の粗クラスに分類させて、当該複数の粗クラス毎の共通の特徴である第1特徴を学習させる第1ステップと、第1ニューラルネットワークと比較して最終層のみが異なる第2ニューラルネットワークで構成される詳細クラス分類器に、複数の画像を詳細クラスに分類させて、当該詳細クラス毎の共通の特徴である第2特徴を学習させる第2ステップと、を含む学習方法が記載されている。
特開2017−84320号公報
複数の学習用データを正しく分類するように分類モデルの学習が行われると、その学習用データに関する分類モデルによる分類の正確度は確保されるようになる。しかしながら、同じ分類に属すべきデータを分類モデルに入力した場合に、特徴空間において分類モデルの出力がどの程度ばらつくかについては、必ずしも明らかでないことがある。
同じ分類に属すべきデータを分類モデルに入力した場合に、特徴空間において分類モデルの出力がばらつく場合、すなわち出力の精度が低い場合、新たなデータを分類モデルに入力した際に、分類を誤ることが多くなる。一方、同じ分類に属すべきデータを分類モデルに入力した場合に、特徴空間において分類モデルの出力がばらつかない場合、すなわち出力の精度が高い場合、新たなデータを分類モデルに入力した際に、分類を誤ることが少なくなる。
また、いわゆる深層学習に代表されるようなパラメータ数の多い複雑な分類モデルを、その出力が高精度となるように学習させるためには、大量の学習用データを必要とすることがある。しかしながら、学習用データは必ずしも大量に用意できないこともあり、その結果、分類モデルの出力の精度を十分に高められず、分類の正答率を十分に高められないことがある。
そこで、本発明は、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させる学習方法、学習プログラム、学習装置及び学習システムを提供する。
本発明の一態様に係る学習方法は、少なくとも1つのハードウェアプロセッサと、少なくとも1つのメモリとを備えるコンピュータによって、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成することと、1又は複数の合成データを分類モデルに入力することと、分類モデルの出力によって、合成データに含まれる複数の学習用データの分類が所定の比率で再現されるように、分類モデルのパラメータを更新することと、を実行する。
この態様によれば、合成データに含まれる複数の学習用データの分類の比率を再現するように分類モデルを学習させることで、学習用データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
上記態様において、合成データを生成することを実行する前に、所定の比率を決定することをさらに含んでもよい。
この態様によれば、学習用データを合成する比率を可変とすることで、同じ学習用データを用いる場合であっても、異なる内容の合成データを生成できるようになり、分類モデルの学習に用いるデータの多様性を増すことができる。
上記態様において、所定の比率を決定することは、所定の数値範囲から1つの数値をランダムに選択することと、選択された数値に基づいて所定の比率を決定することとを含んでもよい。
この態様によれば、学習用データを合成する比率をランダムに選択することで、学習用データの数が限られている場合であっても、多様な合成データを生成することができ、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
上記態様において、所定の比率を決定することは、合成データを生成することを実行する度に行われてもよい。
この態様によれば、学習用データを合成する比率の決定を、合成データを生成する度に行うことで、学習の反復回数が多い場合であっても、反復を行う度に異なる内容の合成データについて学習を行うことができ、分類モデルを多様なデータで学習させることができる。
上記態様において、合成データを生成することを実行する前に、初期データセットのうちから複数の学習用データを選択することをさらに含んでもよい。
この態様によれば、初期データセットのうちから複数の学習用データを選択して合成データとすることで、初期データセットの組合せの数だけ合成データの合成元となるデータを増やすことができ、分類モデルを多様なデータで学習させることができる。
上記態様において、複数の学習用データを選択することは、初期データセットのうちからランダムにデータを選択することを含んでもよい。
この態様によれば、初期データセットのうちからランダムに複数の学習用データを選択することで、学習用データの数が限られている場合であっても、多様な合成データを生成することができ、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
上記態様において、合成データを生成することを実行する前に、複数の学習用データを変換し、複数の変換データを生成することをさらに含んでもよい。
この態様によれば、複数の学習用データを整形したり、複数の学習用データに対してデータオーグメンテーションを行ったりすることで複数の変換データを得て、それらを所定の比率で合成して合成データを生成することで、分類モデルをさらに多様なデータで学習させることができる。
上記態様において、複数の学習用データは、複数の音データであり、合成データを生成することは、複数の音データを所定の比率で重ね合わせて、1つの合成音データを生成することを含んでもよい。
この態様によれば、重ね合わされた複数の音データの分類の比率を再現するように分類モデルを学習させることで、音データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
上記態様において、複数の学習用データは、複数の画像データであり、合成データを生成することは、複数の画像データのピクセル毎に、ピクセル値を所定の比率で加算して、1つの合成画像データを生成することを含んでもよい。
この態様によれば、重ね合わされた複数の画像データの分類の比率を再現するように分類モデルを学習させることで、画像データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
上記態様において、複数の学習用データは、複数のテキストデータであり、合成データを生成することは、複数のテキストデータを複数のベクトルデータに変換することと、複数のベクトルデータを、所定の比率で加算して、1つの合成ベクトルデータを生成することとを含んでもよい。
この態様によれば、重ね合わされた複数のテキストデータの分類の比率を再現するように分類モデルを学習させることで、テキストデータの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
本発明の他の態様に係る学習方法は、少なくとも1つのハードウェアプロセッサと、少なくとも1つのメモリとを備えるコンピュータによって、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを分類モデルに入力し、分類モデルの複数の中間出力を取得することと、複数の中間出力を所定の比率で合成し、1つの合成データを生成することと、1又は複数の合成データを、分類モデルのうち中間出力を出力した構成の後段に入力することと、分類モデルの出力によって、合成データに含まれる複数の学習用データの分類が所定の比率で再現されるように、分類モデルのパラメータを更新することと、を実行する。
この態様によれば、分類モデルの中間出力を得て、それらを所定の比率で合成して合成データを生成し、分類モデルのうち中間出力を出力した構成の後段に合成データを入力し、合成データに含まれる複数の学習用データの分類の比率を再現するように分類モデルを学習させることで、学習用データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
本発明の他の態様に係る学習プログラムは、少なくとも1つのハードウェアプロセッサと、少なくとも1つのメモリとを備えるコンピュータに、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成することと、1又は複数の合成データを分類モデルに入力することと、分類モデルの出力によって、合成データに含まれる複数の学習用データの分類が所定の比率で再現されるように、分類モデルのパラメータを更新することと、を実行させる。
この態様によれば、合成データに含まれる複数の学習用データの分類の比率を再現するように分類モデルを学習させることで、学習用データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
本発明の他の態様に係る学習装置は、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成する生成部と、1又は複数の合成データを分類モデルに入力する投入部と、分類モデルの出力によって、合成データに含まれる複数の学習用データの分類が所定の比率で再現されるように、分類モデルのパラメータを更新する更新部と、を備える。
この態様によれば、合成データに含まれる複数の学習用データの分類の比率を再現するように分類モデルを学習させることで、学習用データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
本発明の他の態様に係る学習システムは、それぞれ分類が定められた初期データセットを記憶するデータベースと、入力されたデータの分類を出力する分類モデルと、初期データセットのうちから選択された複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成する生成部、1又は複数の合成データを分類モデルに入力する投入部及び分類モデルの出力によって、合成データに含まれる複数の学習用データの分類が所定の比率で再現されるように、分類モデルのパラメータを更新する更新部を有する学習装置と、を備える。
この態様によれば、合成データに含まれる複数の学習用データの分類の比率を再現するように分類モデルを学習させることで、学習用データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させることができる。
本発明によれば、分類モデルによる分類の正答率をより高めるように、分類モデルを学習させる学習方法、学習プログラム、学習装置及び学習システムを提供することができる。
本発明の一実施形態に係る学習システムのネットワーク構成図である。 本実施形態に係る学習装置の物理的な構成を示す図である。 本実施形態に係る学習装置の機能ブロック図である。 本実施形態に係る学習方法によって、分類モデルに音データの分類を学習させる場合の概念図である。 本実施形態に係る学習方法によって、分類モデルに音データの分類を学習させる場合のフローチャートである。 本実施形態に係る学習方法によって分類モデルに音データの分類を学習させた場合と、従来の学習方法によって分類モデルに音データの分類を学習させた場合とに関する分類性能を示す図である。 本実施形態に係る学習方法によって、分類モデルに画像データの分類を学習させる場合の概念図である。 本実施形態に係る学習方法によって、分類モデルに画像データの分類を学習させる第1処理のフローチャートである。 本実施形態に係る学習方法によって、分類モデルに画像データの分類を学習させる第2処理のフローチャートである。 本実施形態に係る学習方法によって分類モデルに画像データの分類を学習させた場合と、従来の学習方法によって分類モデルに画像データの分類を学習させた場合とに関する分類性能を示す図である。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本発明の一実施形態に係る学習システム100のネットワーク構成図である。学習システム100は、それぞれ分類が定められた初期データセットを記憶するデータベースDBと、入力されたデータの分類を出力する分類モデル20と、データベースDBに記憶された初期データセットを用いて、分類モデル20によってデータが正しく分類されるように、分類モデル20を学習させる学習装置10と、を含む。学習システム100は、通信ネットワークNに接続され、ユーザ端末30からの指示に基づいて、データベースDBに記憶された初期データセットの追加や編集を行ったり、分類モデル20の学習を行ったりしてよい。ここで、通信ネットワークNは、有線又は無線の通信網であり、例えばインターネットやLAN(Local Area Network)であってよい。本実施形態に係る学習システム100は、いわゆるクラウドコンピューティングの形で全部又は一部の構成要素がリモートコンピュータによって構成されてよいが、全部又は一部の構成要素がローカルコンピュータによって構成されてもよい。
分類モデル20は、入力データを複数のクラスに分類するモデルであり、例えばニューラルネットワークを用いたモデルであったり、サポートベクタマシンを用いたモデルであったりしてよく、任意のモデルであってよい。分類モデル20は、入力データの種類によって異なるモデルであってよい。分類モデル20に入力される入力データは、音データ、画像データ及びテキストデータ等であってよい。
学習装置10は、データベースDBに記憶された初期データセットを用いて、分類モデル20によってデータが正しく分類されるように、未だ学習がされていない分類モデル20を本実施形態に係る学習方法で学習させてもよいし、通常の学習方法で学習された分類モデル20を、本実施形態に係る学習方法で学習させてもよい。
図2は、本実施形態に係る学習装置10の物理的な構成を示す図である。学習装置10は、ハードウェアプロセッサに相当するCPU(Central Processing Unit)10aと、メモリに相当するRAM(Random Access Memory)10bと、メモリに相当するROM(Read Only Memory)10cと、通信部10dと、入力部10eと、表示部10fとを有する。これら各構成は、バスを介して相互にデータ送受信可能に接続される。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、分類モデル20を学習させるプログラム(学習プログラム)を実行する演算装置である。CPU10aは、入力部10eや通信部10dから種々の入力データを受け取り、入力データの演算結果を表示部10fに表示したり、RAM10bやROM10cに格納したりする。
RAM10bは、データの書き換えが可能な記憶部であり、例えば半導体記憶素子で構成される。RAM10bは、CPU10aが実行するアプリケーション等のプログラムやデータを記憶する。
ROM10cは、データの読み出しのみが可能な記憶部であり、例えば半導体記憶素子で構成される。ROM10cは、例えばファームウェア等のプログラムやデータを記憶する。
通信部10dは、学習装置10を通信ネットワークNに接続する通信インタフェースである。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボードやマウス、タッチパネルで構成される。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えばLCD(Liquid Crystal Display)により構成される。
学習プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークNを介して提供されてもよい。学習装置10では、CPU10aが学習プログラムを実行することにより、次図を用いて説明する様々な機能が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、学習装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。また、学習装置10は、GPU(Graphics Processing Unit)やFPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等の演算回路を備えてもよい。
図3は、本実施形態に係る学習装置10の機能ブロック図である。学習装置10は、学習用データ選択部11、生成部12、比率決定部13、投入部14及び更新部15を備える。
学習用データ選択部11は、データベースDBに記憶された初期データセットのうちから、複数の学習用データを選択する。学習用データ選択部11は、データベースDBに記憶された初期データセットのうちからランダムにデータを選択してよい。学習用データ選択部11は、初期データセットのうちから、例えば、ランダムに2つのデータを選択してよいが、ランダムに3つ以上のデータを選択してもよい。学習用データ選択部11は、一様分布やガウス分布等によって乱数を生成し、当該乱数に基づいて、データベースDBに記憶された初期データセットのうちからランダムにデータを選択してよい。
初期データセットのうちから複数の学習用データを選択して合成データとすることで、初期データセットの組合せの数だけ合成データの合成元となるデータを増やすことができ、分類モデルを多様なデータで学習させることができる。
また、初期データセットのうちからランダムに複数の学習用データを選択することで、学習用データの数が限られている場合であっても、多様な合成データを生成することができ、分類モデルの出力の精度をより高めるように分類モデルを学習させることができ、分類モデルによる分類の正答率をより高めるように分類モデルを学習させることができる。
生成部12は、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成する。生成部12は、合成データを生成することを実行する前に、複数の学習用データを変換し、複数の変換データを生成して、複数の変換データを所定の比率で合成し、1つの合成データを生成してもよい。ここで、学習用データが音データの場合、変換データは、音データをランダムに切り取ることで生成したり、音データの音圧レベルやピッチ、速度等をランダムに変更したりすることで生成してよい。また、学習用データが画像データの場合、変換データは、画像データをランダムに切り取ることで生成したり、画像データをランダムに拡大縮小したり、回転したり、アスペクト比の変更を行ったり、RGB値を変更したりすることで生成してよい。このように、複数の学習用データを整形したり、複数の学習用データに対してデータオーグメンテーションを行ったりすることで複数の変換データを得て、それらを所定の比率で合成して合成データを生成することで、分類モデルをさらに多様なデータで学習させることができる。
また、生成部12は、合成データを生成することを実行する前に、複数の学習用データ又は複数の学習用データを変換した複数の変換データを分類モデル20に入力し、分類モデル20の複数の中間出力を取得して、複数の中間出力を所定の比率で合成し、1つの合成データを生成してもよい。
複数の学習用データが複数の音データである場合、生成部12は、複数の音データを所定の比率で重ね合わせて、1つの合成音データを生成する。ここで、複数の音データは、サンプル毎に、所定の比率で重ね合わせることとしてよい。また、複数の学習用データが複数の画像データである場合、生成部12は、複数の画像データのピクセル毎に、ピクセル値を所定の比率で加算して、1つの合成画像データを生成する。さらに、複数の学習用データが複数のテキストデータである場合、生成部12は、複数のテキストデータを複数のベクトルデータに変換して、複数のベクトルデータを所定の比率で加算して、1つの合成ベクトルデータを生成する。なお、複数の音データを所定の比率で重ね合わせて、1つの合成音データを生成することは、デジタルデータとしての音データを重ね合わせることで行ってよいが、アナログデータとしての音データを重ね合わせることで行ってもよい。すなわち、複数の音データを所定の比率の音量で同時に再生し、録音することで、1つの合成音データを生成することとしてもよい。また、複数の画像データのピクセル毎に、ピクセル値を所定の比率で加算して、1つの合成画像データを生成することは、デジタルデータとしての画像データを加算することで行ってよいが、アナログデータとしての画像データを加算することで行ってもよい。すなわち、複数の画像データを所定の比率の光量で表示し、光学系によって重ね合わせて撮影することで、1つの合成画像データを生成することとしてもよい。
比率決定部13は、生成部12が合成データを生成する際に用いる所定の比率を決定する。比率決定部13は、所定の数値範囲から1つの数値をランダムに選択して、選択された数値に基づいて所定の比率を決定してよい。比率決定部13は、例えば、0から1の数値範囲から1つの数値をランダムに選択して、選択した数値を所定の比率としてもよい。ここで、比率決定部13は、一様分布やガウス分布等によって、所定の数値範囲から1つの数値をランダムに生成してもよい。また、比率決定部13は、所定の数値範囲から1つの数値をランダムに選択して、選択された数値の関数によって所定の比率を決定してもよい。比率決定部13は、生成部12によって合成データを生成する度に、所定の比率を決定してもよい。比率決定部13は、学習用データ選択部11によって初期データセットのうちから複数の学習用データが選択される度に、それら複数の学習用データを合成する際に用いる所定の比率を決定してもよい。
学習用データを合成する比率を可変とすることで、同じ学習用データを用いる場合であっても、異なる内容の合成データを生成できるようになり、分類モデルの学習に用いるデータの多様性を増すことができる。
また、学習用データを合成する比率をランダムに選択することで、学習用データの数が限られている場合であっても、多様な合成データを生成することができ、分類モデルの出力の精度をより高めるように分類モデルを学習させることができ、分類モデルによる分類の正答率をより高めるように分類モデルを学習させることができる。
さらに、学習用データを合成する比率の決定を、合成データを生成する度に行うことで、学習の反復回数が多い場合であっても、反復を行う度に異なる内容の合成データについて学習を行うことができ、分類モデルを多様なデータで学習させることができる。
投入部14は、生成部12によって生成された1又は複数の合成データを分類モデル20に入力する。投入部14は、複数の合成データを分類モデル20に順次入力してもよいし、複数の合成データを一度に分類モデル20に入力してもよい。分類モデル20がニューラルネットワークの場合、投入部14は、合成データをニューラルネットワークの入力層に入力してよい。
もっとも、生成部12によって分類モデル20の複数の中間出力を得て、複数の中間出力を所定の比率で合成し、1つの合成データを生成した場合、投入部14は、1又は複数の合成データを、分類モデル20のうち中間出力を出力した構成の後段に入力してよい。分類モデル20がニューラルネットワークの場合、投入部14は、ニューラルネットワークに含まれる複数の層うち、中間出力を出力した層の次の層に合成データを入力してよい。分類モデル20の中間出力を得て、それらを所定の比率で合成して合成データを生成し、分類モデル20のうち中間出力を出力した構成の後段に合成データを入力することで、分類モデル20の出力の精度をより高めるように分類モデル20を学習させることができ、分類モデルによる分類の正答率をより高めるように分類モデルを学習させることができる。
更新部15は、分類モデル20の出力によって、合成データに含まれる複数の学習用データの分類が所定の比率で再現されるように、分類モデル20のパラメータを更新する。例えば、第1学習用データを0.2の比率で含み、第2学習用データを0.8の比率で含む合成データを分類モデル20に入力した場合、更新部15は、分類モデル20の出力によって、第1学習用データに対応するクラスの出力値が0.2、第2学習用データに対応するクラスの出力値が0.8となるように、分類モデル20のパラメータを更新する。
以下では、図4、5及び6を用いて、本実施形態に係る学習方法によって、分類モデル20に音データの分類を学習させる場合について説明する。
図4は、本実施形態に係る学習方法によって、分類モデル20に音データの分類を学習させる場合の概念図である。本実施形態に係る学習方法では、合成データを生成することを実行する前に、データベースDBに記憶された初期データセットのうちから、ランダムに2つのデータを選択することを実行する。本例では、データベースDBは、犬(Dog)に分類される複数の音データと、猫(Cat)に分類される複数の音データと、鳥(Bird)に分類される複数の音データと、を含み、合成データを生成する元データとして、犬に関する第1音データA1と猫に関する第2音データA2とが選択されている。
本実施形態に係る学習方法では、合成データを生成することを実行する前に、所定の数値範囲から1つの数値をランダムに選択して、所定の比率を決定する。本例では、0から1の数値範囲から1つの数値をランダムに選択した結果、0.7という数値が選択されて、所定の比率が0.7に決定されている。
その後、第1音データA1を0.7の割合で含み、第2音データA2を0.3の割合で含むように、合成音データA3が生成される。生成された合成音データA3は、分類モデル20に入力され、分類モデル20の出力によって、犬のクラスの分類が0.7、猫のクラスの分類が0.3、鳥のクラスの分類が0となるように、分類モデル20のパラメータが更新される。もっとも、分類モデル20のパラメータを一度更新しただけでは分類モデル20のパラメータは最適化されず、以上の処理を繰り返し実行することとなる。なお、本例では、2つの音データを所定の比率で合成して合成音データを生成する場合について説明したが、3つ以上の音データを所定の比率で合成して合成音データを生成することとしてもよい。
図5は、本実施形態に係る学習方法によって、分類モデル20に音データの分類を学習させる場合のフローチャートである。はじめに、学習用データ選択部11によって、データベースDBに記憶された初期データセットのうちから、ランダムに2つの音データを選択する(S10)。音データの選択は、一連の音データの中から、ランダムに選択された一部分を抜き出すことで行ってもよい。
比率決定部13は、0から1までの数値範囲からランダムに数値を選択して、学習用の音データを合成する比率rを決定する(S11)。その後、生成部12は、2つの音データの音圧レベルが同程度になるように調整する(S12)。例えば、第1音データA1の最大音圧レベルがP1であり、第2音データA2の最大音圧レベルがP2である場合、生成部12は、第2音データA2を、10(P1−P2)/20倍することで、2つの音データの音圧レベルを調整してよい。
さらに、生成部12は、−1から1までの数値範囲からランダムに数値を選択して、音圧レベルの調整係数pを決定する(S13)。そして、生成部12は、比率r、調整係数pを用いて、2つの音データを重ね合わせて合成音データを生成する(S14)。より具体的には、生成部12は、第1音データA1をr倍し、音圧調整後の第2音データA2を(1−r)倍して、両データを加算し、全体を(r+(1−r)1/2で割って、2倍することで、合成音データA3としてよい。ここで、(r+(1−r)1/2で割ることは、合成音データA3の音圧レベルを、第1音データA1及び音圧調整後の第2音データA2と同程度とするために行われる。また、ランダムに選択された調整係数pを用いて、音データを2倍することで、合成音データを生成する度に音圧レベルをばらつかせることができ、学習用データの多様性を増すことができる。なお、生成部12は、所定の比率で加算した複数の音データの速度やピッチをランダムに変更して、合成音データを生成してもよい。
投入部14は、合成音データを分類モデル20に入力する(S15)。そして、更新部15は、分類モデル20の出力によって、合成音データに含まれる2つの音データの分類が比率rで再現されるように、パラメータを更新する(S16)。例えば、第1音データA1をr倍し、音圧調整後の第2音データA2を(1−r)倍して合成データを生成した場合、更新部15は、分類モデル20の出力によって、犬のクラスの分類がrとなり、猫のクラスの分類が1−rとなるように、分類モデル20のパラメータを更新する。ここで、分類モデル20のパラメータとは、例えば分類モデル20がニューラルネットワークの場合、重み係数である。分類モデル20がニューラルネットワークであって、出力層がソフトマックス層である場合、更新部15は、分類モデル20の出力値と、学習用データについて予め定められている分類の正答値との間のクロスエントロピーやカルバック・ライブラー・ダイバージェンスを最小化するように、バックプロパゲーションの方法を用いて重み係数を更新してよい。より具体的には、第1音データA1をr倍し、音圧調整後の第2音データA2を(1−r)倍して合成データを生成し、分類モデル20によってyという出力ベクトルを得た場合、犬のクラスを表す正答ベクトルt1をrの割合で含み、猫のクラスを表す正答ベクトルt2を(1−r)の割合で含むt=r×t1+(1−r)×t2というベクトルを正答ベクトルtとして、クロスエントロピーH(t、y)やカルバック・ライブラー・ダイバージェンスDKL(t||y)を最小化するように、重み係数を更新してよい。
学習装置10は、学習終了の条件を満たすか否かを判定する(S17)。ここで、学習終了の条件は、任意に設定されてよいが、例えばクロスエントロピーやカルバック・ライブラー・ダイバージェンス等の目的関数の値が所定値以下となることや、分類モデル20のパラメータの更新回数が所定回数に達したことや、パラメータの更新前後で目的関数の値の変化が所定値以下となることであってよい。学習終了の条件を満たしていない場合(S17:No)、初期データセットの中から新たに学習用の音データをランダムに選択し、ランダムに決定した比率で合成して、分類モデル20に入力し、分類モデル20のパラメータを更新する。一方、学習終了の条件を満たす場合(S17:Yes)、学習処理を終了する。
図6は、本実施形態に係る学習方法によって分類モデル20に音データの分類を学習させた場合と、従来の学習方法によって分類モデル20に音データの分類を学習させた場合とに関する分類性能を示す図である。同図では、2種類の分類モデルについて、従来の学習方法によって学習した場合の正答率と、本実施形態に係る学習方法によって学習した場合の正答率とを示している。ここで、第2種類の分類モデルは、第1種類の分類モデルよりも複雑なモデルであり、学習させるのが比較的難しいモデルである。同図に示す正答率は、同じ初期データセットと、同じ分類モデル20を用いて、学習方法のみを変えた場合の値である。正答率は、分類モデル20の学習が十分に進み、その学習方法によって達成することのできる上限値に近い値となっている。
第1種類の分類モデルについて、従来の学習方法によって学習した場合の正答率は68.3%であり、本実施形態に係る学習方法によって学習した場合の正答率は74.3%である。本実施形態に係る学習方法を用いることによって、分類モデル20が同一であっても、正答率が6%向上するという結果が得られた。
また、第2種類の分類モデルについて、従来の学習方法によって学習した場合の正答率は71.7%であり、本実施形態に係る学習方法によって学習した場合の正答率は80.7%である。第2種類の分類モデルについても、本実施形態に係る学習方法を用いることによって、分類モデル20が同一であっても、正答率が9%向上するという結果が得られた。なお、本実験に用いた音データを人に分類させた場合の正答率は、約80%である。本実施形態に係る学習方法を用いることで、分類モデル20の分類性能を人と同等のレベルにまで向上させることができる。また、本実施形態に係る学習方法を用いると、第1種類の分類モデルの場合に従来の学習方法より6%の正答率の向上が見られ、第2種類の分類モデルの場合に従来の学習方法より9%の正答率の向上が見られたことから、本実施形態に係る学習方法は、比較的複雑なモデルの学習に用いた場合により効果的であるといえる。
本実施形態に係る学習方法によれば、合成データに含まれる複数の学習用データの分類の比率を再現するように分類モデルを学習させることで、学習用データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルの出力の精度をより高めるように分類モデルを学習させることができ、分類モデルによる分類の正答率をより高めるように分類モデルを学習させることができる。また、本実施形態に係る学習方法によれば、学習用データの数が限られており、分類モデルが複雑なモデルである場合であっても、学習用データの組合せ及び学習用データを合成する比率を様々に選択することで多様な合成データを生成することができるため、分類モデルによる分類の正答率をより高めるように、安定して分類モデルを学習させることができる。
また、重ね合わされた複数の音データの分類の比率を再現するように分類モデルを学習させることで、音データの個別の分類を再現するように分類モデルを学習させる場合よりも、分類モデルの出力の精度をより高めるように、分類モデルを学習させることができる。
以下では、図7、8、9及び10を用いて、本実施形態に係る学習方法によって、分類モデルに画像データの分類を学習させる場合について説明する。
図7は、本実施形態に係る学習方法によって、分類モデルに画像データの分類を学習させる場合の概念図である。本実施形態に係る学習方法では、合成データを生成することを実行する前に、データベースDBに記憶された初期データセットのうちから、ランダムに2つのデータを選択することを実行する。本例では、データベースDBは、車(Car)に分類される複数の画像データと、猫(Cat)に分類される複数の画像データと、鳥(Bird)に分類される複数の画像データと、を含み、合成データを生成する元データとして、車に関する第1画像データG1と猫に関する第2画像データG2とが選択されている。
本実施形態に係る学習方法では、合成データを生成することを実行する前に、所定の数値範囲から1つの数値をランダムに選択して、所定の比率を決定する。本例では、0から1の数値範囲から1つの数値をランダムに選択した結果、0.4という数値が選択されて、所定の比率が0.4に決定されている。
その後、第1画像データG1を0.4の割合で含み、第2画像データG2を0.6の割合で含むように、合成画像データG3が生成される。生成された合成画像データG3は、分類モデル20に入力され、分類モデル20の出力によって、車のクラスの分類が0.4、猫のクラスの分類が0.6、鳥のクラスの分類が0となるように、分類モデル20のパラメータが更新される。もっとも、分類モデル20のパラメータを一度更新しただけでは分類モデル20のパラメータは最適化されず、以上の処理を繰り返し実行することとなる。なお、本例では、2つの画像データを所定の比率で合成して合成画像データを生成する場合について説明したが、3つ以上の画像データを所定の比率で合成して合成画像データを生成することとしてもよい。
図8は、本実施形態に係る学習方法によって、分類モデル20に画像データの分類を学習させる第1処理のフローチャートである。分類モデル20に画像データの分類を学習させる第1処理では、はじめに、学習用データ選択部11によって、データベースDBに記憶された初期データセットのうちから、ランダムに2つの画像データを選択する(S20)。
比率決定部13は、0から1までの数値範囲からランダムに数値を選択して、学習用の画像データを合成する比率rを決定する(S21)。その後、生成部12は、学習用データ選択部11によって選択された2つの画像データについて、その大きさが同程度になるようにデータ整形を行う(S22)。ここで、生成部12は、所定の大きさの領域をランダムに選択した位置で切り出すことで、データ整形を行ってもよい。また、生成部12は、2つの画像データに対してデータオーグメンテーションを実行する(S23)。ここで、データオーグメンテーションは、ランダムな比率で画像を拡大や縮小したり、ランダムな方向に画像を回転させたり、平行移動させたり、ランダムな比率でアスペクト比の変換を行ったり、ランダムな値でRGB値の変更を行ったりすることを含む。もっとも、データ整形及びデータオーグメンテーションは、省略することのできる処理である。
その後、生成部12は、2つの画像データのピクセル毎に、ピクセル値を比率rで加算して、合成画像データG3を生成する(S24)。より具体的には、生成部12は、第1画像データG1の特定のピクセル値をr倍し、第2画像データG2に関する対応するピクセル値を(1−r)倍して、両データを加算することで、合成画像データG3の特定のピクセル値としてよい。
投入部14は、合成画像データを分類モデル20に入力する(S25)。分類モデル20がニューラルネットワークの場合、投入部14は、ニューラルネットワークの入力層に合成画像データを入力する。そして、更新部15は、分類モデル20の出力によって、合成画像データに含まれる2つの画像データの分類が比率rで再現されるように、パラメータを更新する(S26)。例えば、第1画像データG1をr倍し、第2画像データG2を(1−r)倍して合成データを生成した場合、更新部15は、分類モデル20の出力によって、車のクラスの分類がrとなり、猫のクラスの分類が1−rとなるように、分類モデル20のパラメータを更新する。
学習装置10は、学習終了の条件を満たすか否かを判定する(S27)。ここで、学習終了の条件は、任意に設定されてよいが、例えばクロスエントロピーやカルバック・ライブラー・ダイバージェンス等の目的関数の値が所定値以下となることや、分類モデル20のパラメータの更新回数が所定回数に達したことや、パラメータの更新前後で目的関数の値の変化が所定値以下となることであってよい。学習終了の条件を満たしていない場合(S27:No)、初期データセットの中から新たに学習用の画像データをランダムに選択し、ランダムに決定した比率で合成して、分類モデル20に入力し、分類モデル20のパラメータを更新する。一方、学習終了の条件を満たす場合(S27:Yes)、学習処理を終了する。
本実施形態に係る学習方法によれば、重ね合わされた複数の画像データの分類の比率を再現するように分類モデル20を学習させることで、画像データの個別の分類を再現するように分類モデル20を学習させる場合よりも、分類モデル20の出力の精度をより高めるように分類モデル20を学習させることができ、分類モデル20による分類の正答率をより高めるように分類モデル20を学習させることができる。
図9は、本実施形態に係る学習方法によって、分類モデル20に画像データの分類を学習させる第2処理のフローチャートである。分類モデル20に画像データの分類を学習させる第2処理は、分類モデル20の中間出力を所定の比率で合成して合成データを生成し、合成データに含まれる画像データの分類が所定の比率で再現されるように、分類モデル20を学習させる処理である。
はじめに、学習用データ選択部11によって、データベースDBに記憶された初期データセットのうちから、ランダムに2つの画像データを選択する(S30)。比率決定部13は、0から1までの数値範囲からランダムに数値を選択して、学習用の画像データを合成する比率rを決定する(S31)。その後、生成部12は、学習用データ選択部11によって選択された2つの画像データについて、その大きさが同程度になるようにデータ整形を行う(S32)。また、生成部12は、2つの画像データに対してデータオーグメンテーションを実行する(S33)。もっとも、データ整形及びデータオーグメンテーションは、省略することのできる処理である。
その後、学習装置10は、2つの画像データを、それぞれ分類モデル20に入力し、中間出力を取得する(S34)。ここで、分類モデル20がニューラルネットワークの場合、2つの画像データは、それぞれニューラルネットワークの入力層に入力される。また、中間出力は、ニューラルネットワークに含まれる複数の層のうち出力層以外の任意の層の出力であってよい。生成部12は、2つの画像データに対応する2つの中間出力を比率rで加算して、合成データを生成する(S35)。
投入部14は、合成データを分類モデル20のうち中間出力を出力した構成の後段に入力する(S36)。分類モデル20がニューラルネットワークの場合、投入部14は、ニューラルネットワークのうち中間出力を出力した層の次の層に合成データを入力する。そして、更新部15は、分類モデル20の出力によって、合成データに含まれる2つの画像データの分類が比率rで再現されるように、パラメータを更新する(S37)。例えば、第1画像データG1の中間出力をr倍し、第2画像データG2の中間出力を(1−r)倍して合成データを生成した場合、更新部15は、分類モデル20の出力によって、車のクラスの分類がrとなり、猫のクラスの分類が1−rとなるように、分類モデル20のパラメータを更新する。
学習装置10は、学習終了の条件を満たすか否かを判定する(S38)。ここで、学習終了の条件は、任意に設定されてよいが、例えばクロスエントロピーやカルバック・ライブラー・ダイバージェンス等の目的関数の値が所定値以下となることや、分類モデル20のパラメータの更新回数が所定回数に達したことや、パラメータの更新前後で目的関数の値の変化が所定値以下となることであってよい。学習終了の条件を満たしていない場合(S38:No)、初期データセットの中から新たに学習用の画像データをランダムに選択し、分類モデル20に入力して中間出力を取得して、ランダムに決定した比率で中間出力を合成して分類モデル20のうち中間出力を出力した構成の後段に入力し、分類モデル20のパラメータを更新する。一方、学習終了の条件を満たす場合(S38:Yes)、学習処理を終了する。
図10は、本実施形態に係る学習方法によって分類モデル20に画像データの分類を学習させた場合と、従来の学習方法によって分類モデル20に画像データの分類を学習させた場合とに関する分類性能を示す図である。同図に示す例では、分類モデル20は、入力層(input)、複数の畳み込み層(conv1〜8)、複数のプーリング層(pool1〜3)、複数の全結合層(fc1〜2)及び出力層(output)を有するCNN(Convolutional Neural Network)である。同図では、1種類のCNNを分類モデル20として、従来の学習方法によって学習した場合の正答率をBaselineとして示し、本実施形態に係る学習方法によってCNNに含まれる複数の層の中間出力を合成して学習した場合の正答率をCNNに含まれる複数の層について示している。ここで、正答率は、分類モデル20の学習が十分に進み、その学習方法によって達成することのできる上限値に近い値となっている。
本実施形態に係る学習方法によって学習した場合の正答率は、いずれの層の中間出力を合成した場合であっても、従来の学習方法によって学習した場合の正答率(93.59%)を上回っている。例えば、第1畳み込み層(conv1)から出力された中間出力を合成して、合成データを第2畳み込み層(conv2)に入力して分類モデル20を学習させた場合、正答率は94.39%である。また、第2畳み込み層(conv2)から出力された中間出力を合成して、合成データを第1プーリング層(pool1)に入力して分類モデル20を学習させた場合、正答率は94.38%である。
同様に、第3畳み込み層(conv3)から出力された中間出力を合成して、合成データを第4畳み込み層(conv4)に入力して分類モデル20を学習させた場合、正答率は94.45%である。また、第4畳み込み層(conv4)から出力された中間出力を合成して、合成データを第2プーリング層(pool2)に入力して分類モデル20を学習させた場合、正答率は94.47%である。また、第7畳み込み層(conv7)から出力された中間出力を合成して、合成データを第8畳み込み層(conv8)に入力して分類モデル20を学習させた場合、正答率は94.41%である。また、第8畳み込み層(conv8)から出力された中間出力を合成して、合成データを第3プーリング層(pool3)に入力して分類モデル20を学習させた場合、正答率は94.31%である。さらに、第1全結合層(fc1)から出力された中間出力を合成して、合成データを第2全結合層(fc2)に入力して分類モデル20を学習させた場合、正答率は94.75%であり、従来の学習方法によって学習した場合の正答率(93.59%)を1.16%上回っている。
また、中間出力を合成せずに、学習用データ又は学習用データを変換した変換データを合成して、合成データを入力層(input)に入力して分類モデル20を学習させた場合、正答率は94.71%であり、従来の学習方法によって学習した場合の正答率(93.59%)を1.12%上回っている。
これらの結果から、学習用データを分類モデル20に入力する前に合成して合成データを生成し、合成データを入力層(input)に入力して分類モデル20を学習させる場合に得られる分類性能は、分類モデル20の中間出力を合成し、中間出力を出力した構成の後段に合成データを入力して分類モデル20を学習させる場合の分類性能と比較して、同等以上であることがわかる。学習用データを分類モデル20に入力する前に合成して合成データを生成し、合成データを入力層(input)に入力して分類モデル20を学習させる方法は、中間出力の演算が不要であり、分類モデル20の中間出力を利用する方法よりも分類モデル20の学習に要する演算量を少なくすることができ、分類モデル20の中間出力を利用する方法と同等以上の分類性能が得られるため、より効果的であるといえる。
なお、ここでは、分類モデル20の中間出力を用いて画像データの分類を学習させる場合について説明したが、分類モデル20の中間出力を所定の比率で合成して合成データを生成し、中間出力を出力した構成の後段に合成データを入力して分類モデル20を学習させる方法は、任意の種類のデータの分類を分類モデル20に学習させる場合に適用することができる。また、中間出力を用いて学習される分類モデル20は、CNNに限られず、任意のモデルであってよい。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
例えば、データベースDBに記憶された初期データセットがテキストデータである場合、データベースDBに記憶された初期データセットのうちから、ランダムに2つのテキストデータを選択して、それぞれベクトルデータに変換して、ランダムに選択した所定の比率で2つのベクトルデータを加算することで、合成ベクトルデータを生成してもよい。そして、合成ベクトルデータに含まれるテキストデータの分類が所定の比率で再現されるように、分類モデル20のパラメータを更新してよい。
本実施形態に係る学習方法によれば、重ね合わされた複数のテキストデータの分類の比率を再現するように分類モデル20を学習させることで、テキストデータの個別の分類を再現するように分類モデル20を学習させる場合よりも、分類モデル20の出力の精度をより高めるように分類モデル20を学習させることができ、分類モデル20による分類の正答率をより高めるように分類モデル20を学習させることができる。
また、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率rで合成し、1つの合成データを生成して、分類モデルの出力によって、所定の比率を所定の規則で変換した値が再現されるように、分類モデルのパラメータを更新してもよい。すなわち、分類モデルの出力を正確にrに対応させず、分類モデルの出力によってrを所定の規則で変換した値を再現するようにしてもよい。
例えば、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率rで合成し、1つの合成データを生成して、分類モデルの出力がr+e(eはノイズを表す量)となるように、分類モデルのパラメータを更新してもよい。具体的には、第1画像データが車の画像であり、第2画像データが猫の画像である場合に、所定の比率を0.4として、第1画像データ40%と、第2画像データ60%とを合成して合成画像データを生成し、ノイズをランダムに生成して例えば0.01として、分類モデルによって車のクラスの分類が0.41、猫のクラスの分類が0.59となるように、分類モデルの学習処理を行ってもよい。ここで、加減算するノイズの量はランダムに変更してよい。
また、学習用データを合成する所定の比率をrと定めた場合に、分類モデルの出力によって、合成データに含まれる複数の学習用データの分類が比率a×r(aは任意の定数)で再現されるように、分類モデルのパラメータを更新してもよい。例えば、第1画像データが車の画像であり、第2画像データが猫の画像であり、合成比率が0.4である場合に、第1画像データを40%と、第2画像データを60%とを合成して合成画像データを生成し、定数をa=2として、分類モデルによって車のクラスの分類が0.8、猫のクラスの分類が0.2となるように、分類モデルの学習処理を行ってもよい。
また、それぞれ分類が定められた複数の学習用データ又は複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成して、分類モデルの出力によって、所定の比率を切り上げ又は切り捨てした値が再現されるように、分類モデルのパラメータを更新することとしてもよい。例えば、第1画像データが車の画像であり、第2画像データが猫の画像であり、所定の比率が0.4である場合に、第1画像データを40%と、第2画像データを60%とを合成して合成画像データを生成し、分類モデルによって車のクラスの分類が0(0.4を切り捨て)、猫のクラスの分類が1(0.6を切り上げ)となるように、分類モデルの学習処理を行ってもよい。すなわち、分類モデルの出力によって、所定の比率を四捨五入した値が再現されるようにしてよい。また、例えば、第1画像データが車の画像であり、第2画像データが猫の画像であり、合成比率が0.4である場合に、第1画像データを40%と、第2画像データを60%とを合成して合成画像データを生成し、分類モデルによって車のクラスの分類が1(0.4を切り上げ)、猫のクラスの分類が1(0.6を切り上げ)となるように、分類モデルの学習処理を行ってもよい。

Claims (14)

  1. 少なくとも1つのハードウェアプロセッサと、少なくとも1つのメモリとを備えるコンピュータによって、
    それぞれ分類が定められた複数の学習用データ又は前記複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成することと、
    1又は複数の前記合成データを分類モデルに入力することと、
    前記分類モデルの出力によって、前記合成データに含まれる前記複数の学習用データの分類が前記所定の比率で再現されるように、前記分類モデルのパラメータを更新することと、
    を実行する学習方法。
  2. 前記合成データを生成することを実行する前に、前記所定の比率を決定することをさらに含む、
    請求項1に記載の学習方法。
  3. 前記所定の比率を決定することは、所定の数値範囲から1つの数値をランダムに選択することと、選択された前記数値に基づいて前記所定の比率を決定することとを含む、
    請求項2に記載の学習方法。
  4. 前記所定の比率を決定することは、前記合成データを生成することを実行する度に行われる、
    請求項2又は3に記載の学習方法。
  5. 前記合成データを生成することを実行する前に、初期データセットのうちから前記複数の学習用データを選択することをさらに含む、
    請求項1から4のいずれか一項に記載の学習方法。
  6. 前記複数の学習用データを選択することは、前記初期データセットのうちからランダムにデータを選択することを含む、
    請求項5に記載の学習方法。
  7. 前記合成データを生成することを実行する前に、前記複数の学習用データを変換し、前記複数の変換データを生成することをさらに含む、
    請求項1から6のいずれか一項に記載の学習方法。
  8. 前記複数の学習用データは、複数の音データであり、
    前記合成データを生成することは、前記複数の音データを前記所定の比率で重ね合わせて、1つの合成音データを生成することを含む、
    請求項1から7のいずれか一項に記載の学習方法。
  9. 前記複数の学習用データは、複数の画像データであり、
    前記合成データを生成することは、前記複数の画像データのピクセル毎に、ピクセル値を前記所定の比率で加算して、1つの合成画像データを生成することを含む、
    請求項1から7のいずれか一項に記載の学習方法。
  10. 前記複数の学習用データは、複数のテキストデータであり、
    前記合成データを生成することは、前記複数のテキストデータを複数のベクトルデータに変換することと、前記複数のベクトルデータを、前記所定の比率で加算して、1つの合成ベクトルデータを生成することとを含む、
    請求項1から7のいずれか一項に記載の学習方法。
  11. 少なくとも1つのハードウェアプロセッサと、少なくとも1つのメモリとを備えるコンピュータによって、
    それぞれ分類が定められた複数の学習用データ又は前記複数の学習用データを変換して得られた複数の変換データを分類モデルに入力し、前記分類モデルの複数の中間出力を取得することと、
    前記複数の中間出力を所定の比率で合成し、1つの合成データを生成することと、
    1又は複数の前記合成データを、前記分類モデルのうち前記中間出力を出力した構成の後段に入力することと、
    前記分類モデルの出力によって、前記合成データに含まれる前記複数の学習用データの分類が前記所定の比率で再現されるように、前記分類モデルのパラメータを更新することと、
    を実行する学習方法。
  12. 少なくとも1つのハードウェアプロセッサと、少なくとも1つのメモリとを備えるコンピュータに、
    それぞれ分類が定められた複数の学習用データ又は前記複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成することと、
    1又は複数の前記合成データを分類モデルに入力することと、
    前記分類モデルの出力によって、前記合成データに含まれる前記複数の学習用データの分類が前記所定の比率で再現されるように、前記分類モデルのパラメータを更新することと、
    を実行させる学習プログラム。
  13. それぞれ分類が定められた複数の学習用データ又は前記複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成する生成部と、
    1又は複数の前記合成データを分類モデルに入力する投入部と、
    前記分類モデルの出力によって、前記合成データに含まれる前記複数の学習用データの分類が前記所定の比率で再現されるように、前記分類モデルのパラメータを更新する更新部と、
    を備える学習装置。
  14. それぞれ分類が定められた初期データセットを記憶するデータベースと、
    入力されたデータの分類を出力する分類モデルと、
    前記初期データセットのうちから選択された複数の学習用データ又は前記複数の学習用データを変換して得られた複数の変換データを所定の比率で合成し、1つの合成データを生成する生成部、1又は複数の前記合成データを前記分類モデルに入力する投入部及び前記分類モデルの出力によって、前記合成データに含まれる前記複数の学習用データの分類が前記所定の比率で再現されるように、前記分類モデルのパラメータを更新する更新部を有する学習装置と、
    を備える学習システム。
JP2019532833A 2017-07-25 2018-07-25 学習方法、学習プログラム、学習装置及び学習システム Active JP6859577B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017144029 2017-07-25
JP2017144029 2017-07-25
PCT/JP2018/027895 WO2019022136A1 (ja) 2017-07-25 2018-07-25 学習方法、学習プログラム、学習装置及び学習システム

Publications (2)

Publication Number Publication Date
JPWO2019022136A1 JPWO2019022136A1 (ja) 2020-09-17
JP6859577B2 true JP6859577B2 (ja) 2021-04-14

Family

ID=65040254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019532833A Active JP6859577B2 (ja) 2017-07-25 2018-07-25 学習方法、学習プログラム、学習装置及び学習システム

Country Status (4)

Country Link
US (1) US11488060B2 (ja)
EP (1) EP3660753A4 (ja)
JP (1) JP6859577B2 (ja)
WO (1) WO2019022136A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417527B2 (en) * 2017-09-06 2019-09-17 Irdeto B.V. Identifying an object within content
CN110533158B (zh) * 2018-05-25 2023-10-13 宏达国际电子股份有限公司 模型建构方法、系统及非易失性电脑可读取记录介质
CN111079813B (zh) * 2019-12-10 2023-07-07 北京百度网讯科技有限公司 基于模型并行的分类模型计算方法和装置
CN111104482A (zh) * 2019-12-18 2020-05-05 北京百度网讯科技有限公司 数据处理方法和装置
US11687780B2 (en) * 2020-07-02 2023-06-27 Samsung Electronics Co., Ltd Method and apparatus for data efficient semantic segmentation
WO2022153432A1 (ja) * 2021-01-14 2022-07-21 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、及び、記録媒体
WO2022249392A1 (ja) * 2021-05-27 2022-12-01 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
US20220405570A1 (en) * 2021-06-11 2022-12-22 International Business Machines Corporation Post-hoc loss-calibration for bayesian neural networks
CN114445805A (zh) * 2022-01-29 2022-05-06 北京百度网讯科技有限公司 属性识别模型训练、属性识别方法、装置及设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006080746A (ja) * 2004-09-08 2006-03-23 Nikon Corp 画像処理装置、電子カメラ、および画像処理プログラム
JP6118752B2 (ja) * 2014-03-28 2017-04-19 セコム株式会社 学習データ生成装置
JP6365032B2 (ja) * 2014-07-08 2018-08-01 富士通株式会社 データ分類方法、データ分類プログラム、及び、データ分類装置
WO2016125310A1 (ja) * 2015-02-06 2016-08-11 株式会社Ubic データ分析システムおよびデータ分析方法並びにデータ分析プログラム
CN105938558B (zh) 2015-03-06 2021-02-09 松下知识产权经营株式会社 学习方法
EP4009246A1 (en) * 2015-09-30 2022-06-08 Just, Inc. Systems and methods for identifying entities that have a target property
US20170147909A1 (en) * 2015-11-25 2017-05-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US10949889B2 (en) * 2016-01-04 2021-03-16 Exelate Media Ltd. Methods and apparatus for managing models for classification of online users
WO2018220700A1 (ja) * 2017-05-30 2018-12-06 株式会社日立国際電気 新規学習データセット生成方法、新規学習データセット生成装置および生成された学習データセットを用いた学習方法
US10839269B1 (en) * 2020-03-20 2020-11-17 King Abdulaziz University System for fast and accurate visual domain adaptation
KR20220085589A (ko) * 2020-12-15 2022-06-22 현대모비스 주식회사 딥러닝 기반 제품 불량 검출방법 및 시스템

Also Published As

Publication number Publication date
US20200210893A1 (en) 2020-07-02
WO2019022136A1 (ja) 2019-01-31
EP3660753A4 (en) 2021-05-12
EP3660753A1 (en) 2020-06-03
US11488060B2 (en) 2022-11-01
JPWO2019022136A1 (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6859577B2 (ja) 学習方法、学習プログラム、学習装置及び学習システム
CA3043621C (en) Method and system for color representation generation
JP6441980B2 (ja) 教師画像を生成する方法、コンピュータおよびプログラム
CN118172460A (zh) 用于使用神经网络生成基本逼真图像的语义图像合成
US11961203B2 (en) Image processing device and operation method therefor
JP7144699B2 (ja) 信号変更装置、方法、及びプログラム
McCormack et al. Deep learning of individual aesthetics
WO2018203550A1 (ja) 信号生成装置、信号生成学習装置、方法、及びプログラム
US20230268035A1 (en) Method and apparatus for generating chemical structure using neural network
JP2020098453A (ja) 学習装置、印刷制御装置及び学習済モデル
JP2008015824A (ja) フィルタ列生成装置、フィルタ列生成方法、コンピュータをフィルタ列生成装置として機能させるためのプログラム、および記録媒体
Valdez et al. A framework for interactive structural design exploration
JP2009288933A (ja) 学習装置、学習方法、及びプログラム
JP2021144461A (ja) 学習装置及び推論装置
EP1587003B1 (en) Song search system and song search method
WO2022264461A1 (ja) 情報処理システム及び情報処理方法
JP6795240B1 (ja) 制御装置、方法及びプログラム
JP2019153223A (ja) 画像生成装置、画像生成方法および画像生成プログラム
JP5076138B2 (ja) 自己組織化マップを用いたパターン生成方法、そのプログラム及び装置
JP2022045087A (ja) モデル解析装置、モデル解析方法、及びプログラム
KR102689642B1 (ko) 확산 모델과 암시적 신경망 기반의 임의의 해상도와 스케일의 이미지를 생성하는 방법 및 이를 위한 장치
KR102539746B1 (ko) 영상 변환 장치 및 이를 이용한 영상 변환 방법
US20240135201A1 (en) Automated Performative Sequence Generation
JP7402552B2 (ja) 学習装置及び推論装置
KR102127913B1 (ko) 신경망 학습 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210302

R150 Certificate of patent or registration of utility model

Ref document number: 6859577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250