JP2020024633A - 訓練データ評価装置、訓練データ評価方法、およびプログラム - Google Patents

訓練データ評価装置、訓練データ評価方法、およびプログラム Download PDF

Info

Publication number
JP2020024633A
JP2020024633A JP2018149618A JP2018149618A JP2020024633A JP 2020024633 A JP2020024633 A JP 2020024633A JP 2018149618 A JP2018149618 A JP 2018149618A JP 2018149618 A JP2018149618 A JP 2018149618A JP 2020024633 A JP2020024633 A JP 2020024633A
Authority
JP
Japan
Prior art keywords
training
data
batch
batch data
post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018149618A
Other languages
English (en)
Other versions
JP7176285B2 (ja
Inventor
宏俊 安岡
Hirotoshi Yasuoka
宏俊 安岡
洋 桑島
Hiroshi Kuwajima
洋 桑島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018149618A priority Critical patent/JP7176285B2/ja
Publication of JP2020024633A publication Critical patent/JP2020024633A/ja
Application granted granted Critical
Publication of JP7176285B2 publication Critical patent/JP7176285B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】モデルを用いた推論の良し悪しに影響する訓練データがどれかを評価する訓練データ評価装置を提供する。【解決手段】訓練データ評価装置1は、訓練データを複数のバッチデータに分けるバッチデータ生成部11と、バッチデータを用いた訓練の対象となる基準モデルを生成する基準モデル生成部10と、バッチデータを用いて基準モデルの訓練を行い、バッチデータのそれぞれに対応する複数の訓練後モデルを生成する訓練処理部12と、複数の訓練後モデルにテストデータを適用して、それぞれの訓練後モデルを評価することによって、当該訓練後モデルを生成したバッチデータを評価する評価部13と、バッチデータの評価結果を出力する出力部14とを備える。【選択図】図1

Description

本発明は、機械学習において用いられる訓練データの訓練データ評価装置、訓練データ評価方法、およびプログラムに関する。
近年、機械学習システムの研究が盛んに行われている。機械学習システムは非常に高性能化しており、例えば、セキュリティや自動運転車等へのアプリケーションが検討されている。
特許文献1は、学習モデルの予測性能を高めるために、対象のデータに対して適切な機械学習のアルゴリズムを選択する機械学習管理の発明を開示している。この発明では、同じデータに対して機械学習アルゴリズムを変えながら何度もモデルの作成と評価を繰り返すモデル探索を行う。このモデル探索を繰り返すときに、過去に実施したモデル探索の過程で生成し、キャッシュに格納されたデータを再利用する。
機械学習システムにおいては、推論の対象を特定する要件(例えば、自動運転でいえば、道路を走行する車両の検出等)を定め、予め多数の訓練データを用いて、当該推論を行うためのモデルを学習する(非特許文献1)。
特開2017−228086号公報
Laura L. Pullum Brian J. Taylor Majorie A. Darrah「Guidance for the Verification and Validation of Neural Networks」
機械学習システムにおいては、生成されたモデルに対して、モデル生成に用いた訓練データとは異なるテストデータを用いてモデルの汎化性能の検証を行うのが一般的である。この検証において、適切な推論を行えないテストデータがあった場合、モデル生成に用いた訓練データの一部が原因となっていることがあるが、どの訓練データが原因となっているかを知ることはできなかった。
本発明は、上記背景に鑑み、モデルを用いた推論の良し悪しに影響する訓練データがどれかを評価する訓練データ評価装置を提供することを目的とする。
本発明は上記課題を解決するために以下の技術的手段を採用する。特許請求の範囲及びこの項に記載した括弧内の符号は、ひとつの態様として後述する実施の形態に記載の具体的手段との対応関係を示す一例であって、本発明の技術的範囲を限定するものではない。
本発明の訓練データ評価装置(1)は、訓練データを複数のバッチデータに分けるバッチデータ生成部(11)と、前記バッチデータを用いた訓練の対象となる基準モデルを生成する基準モデル生成部(10)と、前記バッチデータを用いて前記基準モデルの訓練を行い、前記バッチデータのそれぞれに対応する複数の訓練後モデルを生成する訓練処理部(12)と、前記複数の訓練後モデルにテストデータを適用して、前記それぞれの訓練後モデルを評価することによって、当該訓練後モデルを生成したバッチデータを評価する評価部(13)と、前記バッチデータの評価結果を出力する出力部(14)とを備える。
この構成により、複数のバッチデータのそれぞれを使って基準モデルを訓練し、訓練後モデルの精度を評価することにより、訓練データが推論の要件に合っているかどうかを評価できる。
本発明の訓練データ評価方法は、訓練データを複数のバッチデータに分けるステップと、前記バッチデータを用いた訓練の対象となる基準モデルを生成するステップと、前記バッチデータを用いて前記基準モデルの訓練を行い、前記バッチデータのそれぞれに対応する複数の訓練後モデルを生成するステップと、前記複数の訓練後モデルにテストデータを適用して、前記それぞれの訓練後モデルを評価することによって、当該訓練後モデルを生成したバッチデータを評価するステップと、前記バッチデータの評価結果を出力するステップとを備える。
本発明のプログラムは、訓練データの評価を行うためのプログラムであって、コンピュータに、訓練データを複数のバッチデータに分けるステップと、前記バッチデータを用いた訓練の対象となる基準モデルを生成するステップと、前記バッチデータを用いて前記基準モデルの訓練を行い、前記バッチデータのそれぞれに対応する複数の訓練後モデルを生成するステップと、前記複数の訓練後モデルにテストデータを適用して、前記それぞれの訓練後モデルを評価することによって、当該訓練後モデルを生成したバッチデータを評価するステップと、前記バッチデータの評価結果を出力するステップとを実行させる。
本発明によれば、訓練データのうちのどの訓練データが、精度の高い又は低いモデルの生成につながっているかを評価することができる。
第1の実施の形態の訓練データ評価装置の構成を示す図である。 バッチデータを用いてモデルを訓練する過程の一例を示す図である。 (a)訓練データを示す模式図である。(b)訓練データをバッチデータに分けた例を示す図である。 複数のバッチデータを適用して複数の訓練後モデルを生成した例を示す図である。 第1の実施の形態の訓練データ評価装置の動作を示すフローチャートである。 第2の実施の形態の訓練データ評価装置の構成を示す図である。 訓練データ選定部による訓練データの選定について説明するための図である。 第2の実施の形態の訓練データ評価装置の動作を示すフローチャートである。
以下、本発明の実施の形態の訓練データ評価装置について図面を参照して説明する。以下で説明する実施の形態では、ニューラルネットワークモデルを例として説明するが、本発明は、ニューラルネットワーク以外のモデルを訓練する訓練データの評価にも用いることができる。
(第1の実施の形態)
図1は、第1の実施の形態の訓練データ評価装置1の構成を示す図である。訓練データ評価装置1は、評価の対象となる訓練データを記憶した訓練データ記憶部20を有している。訓練データによって生成するモデルの要件は、例えば、「自車線上の自動車を認識すること」であり、このための訓練データは、フロントガラスから撮影した画像に自動車を示す境界ボックスを付した大量の画像である。
本実施の形態の訓練データ評価装置1は、大量の訓練データを評価して、「自車線上の自動車を認識すること」という要件を満たすモデルを生成するのに適した訓練データを選定するものである。モデルとしては、N層畳み込みニューラルネットワークのモデルを用いる。
訓練データ評価装置1は、基準モデル生成部10と、バッチデータ生成部11と、訓練処理部12と、評価部13と、出力部14とを有している。基準モデル生成部10は、バッチデータを用いた訓練の対象となる基準モデルを生成する。本実施の形態では、基準モデル生成部10は、訓練データの一部を用いてモデルを訓練することにより、基準モデルを生成する。
図2は、バッチデータを用いてモデルを訓練する過程を示す図である。横軸は訓練進捗を示し、縦軸は要件を満たす度合いを示している。バッチデータを使った訓練が進捗すると、徐々に、モデルが要件を満たす度合いは上がっていく。基準モデル生成部10は、訓練データの一部を適用して生成されたモデルを基準モデルとする。訓練初期のモデルは、訓練による変動が大きいので基準モデルには適していない。訓練後期のモデルは要件を満たす度合いが安定してくるので、基準モデルには適していない。本実施の形態では、要件を満たす度合いが安定し始めたところ、例えば、70%の確信度が得られるモデルを基準モデルとする。
バッチデータ生成部11は、訓練データ記憶部20に記憶された大量の訓練データをバッチデータに分ける機能を有する。
図3(a)は、訓練データ記憶部20に記憶された大量の訓練データを示す模式図である。図3(a)に示す一つ一つの四角は、フロントガラスから撮影した画像に自動車を示す境界ボックスを付した画像を模したものである。バッチデータ生成部11は、図3(b)に示すように、訓練データをバッチデータに分ける。図3(b)では、9つのデータを1つのバッチとしているが、これは例であって、1つのバッチに含める訓練データの数はいくつでもよい。なお、バッチデータは、1つの訓練データで構成されていてもよい。
バッチデータ生成部11は、生成したバッチデータをバッチデータ記憶部21に記憶する。なお、バッチデータ記憶部21にはバッチに含まれる訓練データ自体を記憶してもよいし、訓練データ自体を記憶しないでバッチに含まれる訓練データのIDを記憶してもよい。後者の構成の場合には、実際に訓練を行う際には、訓練データ記憶部20から訓練データを読み出すことになる。
訓練処理部12は、複数のバッチデータを用いて基準モデルの訓練を行い、バッチデータのそれぞれに対応する複数の訓練後モデルを生成する。図4は、基準モデルに対して、複数のバッチデータを適用して複数の訓練後モデルを生成した例を示す図である。訓練処理部12は、基準モデルに対して、バッチ100の訓練データを用いて訓練後モデルM100を生成し、基準モデルに対して、バッチ101の訓練データを用いて訓練後モデルN101を生成する。このように、複数のバッチデータを個別に適用して、それぞれのバッチデータに対応する複数の訓練後モデルを生成する。
評価部13は、訓練処理部12にて生成された訓練後モデルに対してテストデータを適用して、訓練後モデルがテストデータを正しく識別できるか等を評価する。テストデータは、訓練データとは異なるデータであり、テストデータ記憶部23に記憶されている。評価部13は、各訓練後モデルに対してテストデータを適用して評価した評価結果に基づいて、バッチデータを選定する。
評価部13は、評価結果の良好な訓練後モデルに対応するバッチデータを選定する場合もあれば、評価結果の悪い訓練後モデルに対応するバッチデータを選定する場合もある。いずれの訓練後モデルに対応するバッチデータを選定するかは、訓練データ評価装置1を使用する目的による。例えば、新しいモデルを生成する際に、要件の類似する過去のモデルの生成に役立った過去の訓練データがあると便利であるので、モデルの生成に役立った訓練データを探す場合には、評価結果の良好な訓練後モデルに対応するバッチデータを選定する。逆に、例えば、生成されたモデルに対してテストデータを適用したが、うまくいかないテストデータがあったときに、どの訓練データに問題があったのかを解析する場合には、評価結果の悪い訓練後モデルに対応するバッチデータを選定する。
なお、評価部13がバッチデータを選定する手法はいろいろと考えられる。評価部13は、(i)基準モデルよりも精度が高い訓練後モデルに対応するバッチデータを選定することができる。ここで、基準モデルと訓練後モデルの精度は、テストデータの識別率(例えば、自車線上の自動車を認識する確率)によって測ることができる。あるいは、ニューラルネットワークから出力される判定の確信度(SOFTMAXの出力値等)によって、精度を規定することもできる。
また、(ii)基準モデルよりも所定の閾値以上、精度が高くなった訓練後モデルに対応するバッチデータを選定してもよい。また、(iii)精度が高い方から所定個数の訓練後モデルに対応するバッチデータを選定してもよい。ここでは、精度が高いバッチデータを選定する例を挙げて説明しているが、精度が低いバッチデータも同様の基準で選定できる。出力部14は、評価部13にて選定したバッチデータを示すデータを出力する。
図5は、第1の実施の形態の訓練データ評価装置1の動作を示す図である。訓練データ評価装置1は、訓練データの一部を用いて基準モデルを生成する(S10)。次に、訓練データ評価装置1は、訓練データ記憶部20に記憶されている大量の訓練データを分けてバッチデータを生成する(S11)。続いて、訓練データ評価装置1は、バッチデータを用いて基準モデルの訓練を行い(S12)、訓練によって生成された訓練後モデルのテストを行う(S13)。
訓練データ評価装置1は、全バッチデータの処理を終了したか否かを判定する(S14)。全バッチデータについて処理を終了していない場合には(S14でNO)、次のバッチデータを用いて、基準モデルの訓練を行い(S12)、訓練後モデルのテストを行う(S13)。
全バッチデータについて訓練を終了した場合は(S14でYES)、訓練データ評価装置1は、訓練後モデルの評価結果に基づいて、要件に適したモデルを生成したバッチデータを選定し(S15)、選定結果を出力する(S16)。
以上、本実施の形態の訓練データ評価装置1の構成について説明したが、上記した訓練データ評価装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたコンピュータである。上記した各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した訓練データ評価装置1が実現される。このようなプログラムも本発明の範囲に含まれる。
第1の実施の形態の訓練データ評価装置1は、複数のバッチデータのそれぞれを使って基準モデルを訓練し、訓練後モデルの精度を評価することにより、訓練後モデルの良し悪しによって、バッチデータに含まれる訓練データが推論の要件に合っているかどうかを評価できる。
(第2の実施の形態)
図6は、第2の実施の形態の訓練データ評価装置2の構成を示す図である。第2の実施の形態の訓練データ評価装置2は、上記した第1の実施の形態の訓練データ評価装置1と同様に訓練データの評価を行うが、基準モデルを変えてバッチデータの評価を繰り返し行う。そして、異なる試行で選定されたバッチデータに共通して含まれる訓練データを選定する。すなわち、第1の実施の形態では、バッチデータを単位として、評価の高い訓練データを選定していたのに対し、第2の実施の形態では各訓練データの単位で評価の高い訓練データを選定する。
第2の実施の形態の訓練データ評価装置2は、繰返処理部30を有している。繰返処理部30は、基準モデル生成部10、バッチデータ生成部11、訓練処理部12および評価部13を有している。基準モデル生成部10は、訓練データを用いて基準モデルを生成するが、繰り返しのたびに異なる基準モデルを生成する。
バッチデータ生成部11は、訓練データからバッチデータを生成するが、繰り返しのたびに異なるバッチデータを生成する。訓練処理部12および評価部13は、バッチデータ生成部11にて生成されたバッチデータを用いて、第1の実施の形態の訓練データ評価装置1と同様に、基準モデルの訓練を行い、その訓練後モデルを用いてバッチデータを評価する。評価部13は、選定したバッチデータを選定バッチデータ記憶部24に記憶する。続いて、訓練データ選定部14は、選定されたバッチデータに共通に含まれる訓練データを選定する。
図7は、訓練データ選定部14による訓練データの選定について説明するための図である。図7には、繰り返し処理のM回目の試行において良い結果を得たバッチデータと、N回目の試行において良い結果を得たバッチデータの例を示している。訓練データ選定部14は、異なる試行において得られたバッチデータに共通して含まれる訓練データを選定する。図7に示す例では、網掛けをしたデータAとデータBが両方のバッチデータに共に含まれているので、訓練データ選定部14は、データAとデータBを選定する。
図7では、2回の選定結果に共通して含まれるデータを選定する例を挙げたが、訓練データ選定部14は、K回(例えば、3回等)の結果に共通して含まれるデータを選定することとしてもよいし、すべての結果に共通して含まれるデータを選定することとしてもよい。
図8は、第2の実施の形態の訓練データ評価装置2の動作を示すフローチャートである。訓練データ評価装置2は、訓練データ記憶部20に記憶されている訓練データの一部を用いて基準モデルを生成する(S30)。
次に、訓練データ評価装置2は、訓練データ記憶部20に記憶されている大量の訓練データを分けてバッチデータを生成する(S31)。続いて、訓練データ評価装置2は、バッチデータを用いて基準モデルの訓練を行い(S32)、訓練によって生成された訓練後モデルのテストを行う(S33)。
訓練データ評価装置2は、全バッチデータの処理を終了したか否かを判定する(S34)。全バッチデータについて処理を終了していない場合には(S34でNO)、次のバッチデータを用いて、基準モデルの訓練を行い(S32)、訓練後モデルのテストを行う(S33)。
全バッチデータについて訓練を終了した場合は(S34でYES)、訓練データ評価装置2は、訓練後モデルの評価結果に基づいて、要件に適したモデルを生成したバッチデータを選定し(S35)、選定結果を出力する(S36)。
次に、訓練データ評価装置2は、繰返し処理を終了するか否かを判定する(S36)。繰返し処理を終了しないと判定された場合(S36でNO)、訓練データ評価装置2は、基準モデルの生成の処理(S30)に戻り、上記した処理を繰り返す(S31〜S35)。繰返し処理を終了すると判定された場合(S36でYES)、訓練データ評価装置2は、選定されたバッチデータに共通して含む訓練データを抽出し(S37)、抽出結果を出力する(S38)。
第2の実施の形態の訓練データ評価装置2は、基準モデルとバッチデータを組み直してバッチデータの評価を行い、選定されたバッチデータに共通に含まれる訓練データを選定するので、バッチの単位よりもきめ細かく、要件を満たすモデルの生成に寄与する訓練データを選定できる。
また、基準モデルを変えて生成した訓練後モデルを用いて評価を行うので、特定の基準モデルの特性に影響を受けることが少なくなり、訓練データの適切な評価を行える。
本実施の形態の訓練データ評価装置2では、基準モデルを変えて選定した複数のバッチデータに共通して含まれる訓練データを選定する例を挙げたが、複数のバッチデータから訓練データを選定する方法は他にも考えられる。例えば、(i)繰返処理部30にて選定された全てバッチデータを選定することとしてもよい。また、(ii)全てのバッチデータの中から精度の高い方から、または精度の低い方から所定の個数の訓練データ、のいずれかを選定してもよい。
上記した実施の形態の訓練データ評価装置1,2では、訓練データ記憶部20に記憶された訓練データの一部を用いて基準モデルを生成する例を挙げたが、訓練データを用いないで基準モデルの生成を行ってもよい。例えば、ニューラルネットワークモデルのノード間の重み係数をランダムに設定して基準モデルを生成してもよい。
本発明は、機械学習において用いられる訓練データの評価を行う装置として有用である。
1、2 訓練データ評価装置,11 バッチデータ生成部,12 訓練処理部,
13 評価部,14 出力部,15 訓練データ選定部,20 訓練データ記憶部,
21 バッチデータ記憶部,22 基準モデル記憶部,23 テストデータ記憶部,
24 選定バッチデータ記憶部,25 選定訓練データ記憶部,30 繰返処理部

Claims (9)

  1. 訓練データを複数のバッチデータに分けるバッチデータ生成部(11)と、
    前記バッチデータを用いた訓練の対象となる基準モデルを生成する基準モデル生成部(10)と、
    前記バッチデータを用いて前記基準モデルの訓練を行い、前記バッチデータのそれぞれに対応する複数の訓練後モデルを生成する訓練処理部(12)と、
    前記複数の訓練後モデルにテストデータを適用して、前記それぞれの訓練後モデルを評価することによって、当該訓練後モデルを生成したバッチデータを評価する評価部(13)と、
    前記バッチデータの評価結果を出力する出力部(14)と、
    を備える訓練データ評価装置(1)。
  2. 前記評価部(13)は、
    (i)前記基準モデルよりも精度が高い前記訓練後モデルに対応するバッチデータ、
    (ii)前記基準モデルよりも所定の閾値以上、精度が高くなった前記訓練後モデルに対応するバッチデータ、
    (iii)精度が高い方から所定個数の前記訓練後モデルに対応するバッチデータ、
    の少なくともいずれかのバッチデータを選択する請求項1に記載の訓練データ評価装置(1)。
  3. 前記評価部(13)は、
    (i)前記基準モデルよりも精度が低い前記訓練後モデルに対応するバッチデータ、
    (ii)前記基準モデルよりも所定の閾値以上、精度が低くなった前記訓練後モデルに対応するバッチデータ、
    (iii)精度が低い方から所定個数の前記訓練後モデルに対応するバッチデータ、
    の少なくもいずれかのバッチデータを選択する請求項1に記載の訓練データ評価装置(1)。
  4. 前記基準モデル生成部(10)は、前記訓練データのうちの一部のデータを用いてモデルを訓練することによって生成する請求項1乃至3のいずれかに記載の訓練データ評価装置(1)。
  5. 前記基準モデル生成部(10)は、ノード間にランダムな重み付けを有するモデルを基準モデルとして生成する請求項1乃至3のいずれかに記載の訓練データ評価装置(1)。
  6. 前記基準モデル生成部(10)、前記バッチデータ生成部(11)、前記訓練処理部(12)および前記評価部(13)による処理を繰り返し行い、所定の条件を満たす訓練後モデルを生成したバッチデータを選定する繰返処理部(30)と、
    前記繰返処理部(30)にて選定されたバッチデータに共通に含まれる訓練データを選定する訓練データ選定部(15)と、
    を備える請求項1乃至5のいずれかに記載の訓練データ評価装置(2)。
  7. 前記基準モデル生成部(10)、前記バッチデータ生成部(11)、前記訓練処理部(12)および前記評価部(13)による処理を繰り返し行い、所定の条件を満たす訓練後モデルを生成したバッチデータを選定する繰返処理部(30)と、
    (i)前記繰返処理部(30)にて選定された全てのバッチデータ、または、(ii)全てのバッチデータの中から精度の高い方から、または精度の低い方から所定の個数の訓練データ、のいずれかを選定する訓練データ選定部(15)と、
    を備える請求項1乃至5のいずれかに記載の訓練データ評価装置(2)。
  8. 訓練データを複数のバッチデータに分けるステップと、
    前記バッチデータを用いた訓練の対象となる基準モデルを生成するステップと、
    前記バッチデータを用いて前記基準モデルの訓練を行い、前記バッチデータのそれぞれに対応する複数の訓練後モデルを生成するステップと、
    前記複数の訓練後モデルにテストデータを適用して、前記それぞれの訓練後モデルを評価することによって、当該訓練後モデルを生成したバッチデータを評価するステップと、
    前記バッチデータの評価結果を出力するステップと、
    を備える訓練データ評価方法。
  9. 訓練データの評価を行うためのプログラムであって、コンピュータに、
    訓練データを複数のバッチデータに分けるステップと、
    前記バッチデータを用いた訓練の対象となる基準モデルを生成するステップと、
    前記バッチデータを用いて前記基準モデルの訓練を行い、前記バッチデータのそれぞれに対応する複数の訓練後モデルを生成するステップと、
    前記複数の訓練後モデルにテストデータを適用して、前記それぞれの訓練後モデルを評価することによって、当該訓練後モデルを生成したバッチデータを評価するステップと、
    前記バッチデータの評価結果を出力するステップと、
    を実行させるプログラム。
JP2018149618A 2018-08-08 2018-08-08 訓練データ評価装置、訓練データ評価方法、およびプログラム Active JP7176285B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018149618A JP7176285B2 (ja) 2018-08-08 2018-08-08 訓練データ評価装置、訓練データ評価方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018149618A JP7176285B2 (ja) 2018-08-08 2018-08-08 訓練データ評価装置、訓練データ評価方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020024633A true JP2020024633A (ja) 2020-02-13
JP7176285B2 JP7176285B2 (ja) 2022-11-22

Family

ID=69619454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018149618A Active JP7176285B2 (ja) 2018-08-08 2018-08-08 訓練データ評価装置、訓練データ評価方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7176285B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166920A1 (ja) 2020-02-17 2021-08-26 ダイキン工業株式会社 圧縮機
WO2021193931A1 (ja) * 2020-03-27 2021-09-30 Kyb株式会社 機械学習装置、学習モデルの生成方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249051A (ja) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> 音響モデル作成装置、音響モデル作成方法、そのプログラムおよびその記録媒体
JP2009128490A (ja) * 2007-11-21 2009-06-11 Nippon Telegr & Teleph Corp <Ntt> 学習データ選択装置、学習データ選択方法、プログラムおよび記録媒体、音響モデル作成装置、音響モデル作成方法、プログラムおよび記録媒体
JP2010152751A (ja) * 2008-12-25 2010-07-08 Nec Corp 統計モデル学習装置、統計モデル学習方法、およびプログラム
JP2016522459A (ja) * 2013-08-13 2016-07-28 三菱電機株式会社 パターン認識装置およびパターン認識方法
WO2018062265A1 (ja) * 2016-09-30 2018-04-05 日本電信電話株式会社 音響モデル学習装置、その方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007249051A (ja) * 2006-03-17 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> 音響モデル作成装置、音響モデル作成方法、そのプログラムおよびその記録媒体
JP2009128490A (ja) * 2007-11-21 2009-06-11 Nippon Telegr & Teleph Corp <Ntt> 学習データ選択装置、学習データ選択方法、プログラムおよび記録媒体、音響モデル作成装置、音響モデル作成方法、プログラムおよび記録媒体
JP2010152751A (ja) * 2008-12-25 2010-07-08 Nec Corp 統計モデル学習装置、統計モデル学習方法、およびプログラム
JP2016522459A (ja) * 2013-08-13 2016-07-28 三菱電機株式会社 パターン認識装置およびパターン認識方法
WO2018062265A1 (ja) * 2016-09-30 2018-04-05 日本電信電話株式会社 音響モデル学習装置、その方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166920A1 (ja) 2020-02-17 2021-08-26 ダイキン工業株式会社 圧縮機
WO2021193931A1 (ja) * 2020-03-27 2021-09-30 Kyb株式会社 機械学習装置、学習モデルの生成方法及びプログラム

Also Published As

Publication number Publication date
JP7176285B2 (ja) 2022-11-22

Similar Documents

Publication Publication Date Title
US20230252327A1 (en) Neural architecture search for convolutional neural networks
EP3718057A1 (en) Neural architecture search using a performance prediction neural network
US11501153B2 (en) Methods and apparatus for training a neural network
CN105046366B (zh) 模型训练方法及装置
KR20170052344A (ko) 신규 물질 탐색 방법 및 장치
CN103679160B (zh) 一种人脸识别方法和装置
CN109886328B (zh) 一种电动汽车充电设施故障预测方法与系统
CN109657799A (zh) 一种基于场景适配的模型调优方法和装置
JP2020024633A (ja) 訓練データ評価装置、訓練データ評価方法、およびプログラム
CN114175068A (zh) 一种通过使用自适应超参数集的多阶段学习对自动驾驶汽车的机器学习网络进行设备上学习的方法及使用其的设备上学习装置
KR102154425B1 (ko) 인공지능 학습을 위한 유사데이터 생성 방법 및 장치
JP2020021301A (ja) 訓練データ評価装置、訓練データ評価方法、およびプログラム
CN106156857A (zh) 用于混合模型选择的方法和装置
US11373285B2 (en) Image generation device, image generation method, and image generation program
Gora et al. Training neural networks to approximate traffic simulation outcomes
Wafi et al. Automatic feature selection for modified k-nearest neighbor to predict student's academic performance
EP3739515A1 (en) Determining a perturbation mask for a classification model
US9245067B2 (en) Probabilistic method and system for testing a material
US11669773B2 (en) Electronic devices generating verification vector for verifying semiconductor circuit and methods of operating the same
CN114386697A (zh) 一种基于改进随机森林的船舶主机备件预测方法
US20220207401A1 (en) Optimization device, optimization method, and program
JP2021197164A (ja) 情報処理装置、情報処理方法及びコンピュータ可読記憶媒体
WO2022015390A1 (en) Hardware-optimized neural architecture search
Choudhary et al. SiGMa-Net: Deep learning network to distinguish binary black hole signals from short-duration noise transients
CN114008638A (zh) 一种使用选择性深度生成重放模块对深度神经网络模型执行可调连续学习的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R151 Written notification of patent or utility model registration

Ref document number: 7176285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151