JP7017640B2 - データ拡張方策の学習 - Google Patents

データ拡張方策の学習 Download PDF

Info

Publication number
JP7017640B2
JP7017640B2 JP2020544457A JP2020544457A JP7017640B2 JP 7017640 B2 JP7017640 B2 JP 7017640B2 JP 2020544457 A JP2020544457 A JP 2020544457A JP 2020544457 A JP2020544457 A JP 2020544457A JP 7017640 B2 JP7017640 B2 JP 7017640B2
Authority
JP
Japan
Prior art keywords
training
policy
data
machine learning
data expansion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020544457A
Other languages
English (en)
Other versions
JP2021518939A (ja
Inventor
ヴィジェイ・ヴァスデヴァン
バレット・ゾフ
エキン・ドガス・キュブック
クォク・ヴィー・レ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2021518939A publication Critical patent/JP2021518939A/ja
Application granted granted Critical
Publication of JP7017640B2 publication Critical patent/JP7017640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/067Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Physiology (AREA)
  • Genetics & Genomics (AREA)
  • Image Analysis (AREA)

Description

本明細書は、機械学習モデルを使用したデータの処理に関する。
機械学習モデルは、入力を受け取り、受け取った入力に基づいて、出力、例えば予測された出力を生成する。一部の機械学習モデルは、パラメトリックモデルであり、受け取った入力およびモデルのパラメータの値に基づいて、出力を生成する。
一部の機械学習モデルは、受け取った入力に対する出力をモデルの複数の層を用いて生成する、深層モデルである。例えば、深層ニューラルネットワークは、出力層と、受け取った入力にそれぞれが非線形変換を適用して出力を生成する1つまたは複数の隠れ層とを含む、深層機械学習モデルである。
H. Mania、A. Guy、およびB. Recht、「Simple random search provides a competitive approach to reinforcement learning」、arXiv:1803.07055v1、2018 E. Real、A. Aggarwal、Y. Huang、およびQ. V. Le:「Regularized evolution for image classifier architecture search」、arXiv:1802.01548、2018
本明細書では、1つまたは複数の位置にある1つまたは複数のコンピュータ上にコンピュータプログラムとして実装されるトレーニングシステムについて説明する。
第1の態様によれば、特定の機械学習タスクを実施するように機械学習モデルをトレーニングするためのトレーニングデータを受け取ることを含む方法が提供される。トレーニングデータは複数のトレーニング入力を含む。機械学習モデルのトレーニングにトレーニング入力が使用される前にそのトレーニング入力を変換するための手順を定めた複数のデータ拡張方策パラメータを各データ拡張方策が有する、複数のデータ拡張方策が決定される。
複数の時間ステップのそれぞれにおいて、以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準に基づいて、現在のデータ拡張方策が生成される。データ拡張方策のクオリティ判断基準は、そのデータ拡張方策を使用して機械学習モデルをトレーニングした結果としての、特定の機械学習タスクに対するその機械学習モデルの性能を表す。機械学習モデルは、現在のデータ拡張方策を使用したトレーニングデータに対してトレーニングされる。データ拡張方策を使用して機械学習モデルをトレーニングするステップは、トレーニングデータバッチを選択するステップ、データ拡張方策に従ってトレーニングデータバッチ内のトレーニング入力を変換することによって、拡張後トレーニングデータバッチを決定するステップ、および拡張後トレーニングデータバッチに基づいて、機械学習モデルパラメータの現在の値を調整するステップを含む。現在のデータ拡張方策を使用して機械学習モデルがトレーニングされた後でその機械学習モデルを使用して、現在のデータ拡張方策のクオリティ判断基準が決定される。
決定されたデータ拡張方策のクオリティ判断基準に基づいて、最終データ拡張方策が選択される。最終データ拡張方策を使用して最終機械学習モデルをトレーニングすることによって、最終のトレーニング済み機械学習モデルが生成される。
いくつかの実装形態では、特定の機械学習タスクが、分類または回帰を含む画像処理タスクである。
いくつかの実装形態では、各データ拡張方策が、1つまたは複数の下位方策(sub-policy)を含む。各下位方策は、一連の1つまたは複数の変換タプルを含み、各変換タプルについて、データ拡張方策パラメータは、(i)変換操作、および(ii)変換操作の強度(magnitude)を定める。データ拡張方策に従ってトレーニングデータバッチ内のトレーニング入力を変換することは、各トレーニング入力について、データ拡張方策内に含まれる下位方策を特定すること、および特定された下位方策に従って、特定された下位方策内に含まれる各変換タプルをトレーニング入力に順次適用することによって、トレーニング入力を変換することを含む。
いくつかの実装形態では、トレーニング入力についてデータ拡張方策内に含まれる下位方策を特定することが、データ拡張方策内に含まれる下位方策をランダムにサンプリングすることを含む。
いくつかの実装形態では、変換タプルをトレーニング入力に適用することが、変換タプルからの変換操作および変換タプルからの変換操作強度を、トレーニング入力に適用することを含む。
いくつかの実装形態では、各変換タプルについて、データ拡張方策パラメータがさらに、変換操作を適用する確率を定め、変換タプルをトレーニング入力に適用することが、変換タプルからの変換操作および変換タプルからの変換操作強度を、変換タプルからの変換確率とともに、トレーニング入力に適用することを含む。
いくつかの実装形態では、機械学習モデルがニューラルネットワークであり、拡張後トレーニングデータバッチに基づいて、機械学習モデルパラメータの現在の値を調整するステップが、拡張後トレーニングデータバッチを使用して、損失関数の勾配を決定するステップ、およびその勾配を使用して、機械学習モデルパラメータの現在の値を調整するステップを含む。
いくつかの実装形態では、以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準に基づいて、現在のデータ拡張方策を生成するステップが、方策ニューラルネットワークを使用して、方策ニューラルネットワークパラメータの現在の値に従って、現在のデータ拡張方策を生成するステップを含み、方策ニューラルネットワークは、強化学習技法によってトレーニングされ、各時間ステップにおいて、強化学習報酬信号は、その時間ステップにおける現在のデータ拡張方策のクオリティ判断基準に基づく。
いくつかの実装形態では、各データ拡張方策パラメータについて、方策ネットワーク出力が、データ拡張方策パラメータの可能な値にわたるスコア分布を定める。
いくつかの実装形態では、方策ネットワーク出力から現在のデータ拡張方策を決定するステップが、各データ拡張方策パラメータについての値を、そのデータ拡張方策パラメータについてのスコア分布を使用してサンプリングするステップを含む。
いくつかの実装形態では、方策ニューラルネットワークが再帰型ニューラルネットワークである。
いくつかの実装形態では、以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準に基づいて、現在のデータ拡張方策を生成するステップが、遺伝的プログラミング法を使用して、現在のデータ拡張方策を生成するステップを含む。
いくつかの実装形態では、現在のデータ拡張方策を使用して機械学習モデルがトレーニングされた後でその機械学習モデルを使用して、現在のデータ拡張方策のクオリティ判断基準を決定するステップが、複数のトレーニング入力を備える検証データを使用して、特定の機械学習タスクに対する機械学習モデルの性能判断基準を決定するステップ、およびその性能判断基準に基づいて、クオリティ判断基準を決定するステップを含む。
いくつかの実装形態では、検証データ内に含まれるトレーニング入力が、トレーニングデータ内に含まれない。
いくつかの実装形態では、決定されたデータ拡張方策のクオリティ判断基準に基づいて、最終データ拡張方策を選択するステップが、決定された、最も高いクオリティスコアを有するデータ拡張方策を選択するステップを含む。
いくつかの実装形態では、トレーニング入力が画像である。
第2の態様によれば、1つまたは複数のコンピュータと、1つまたは複数のコンピュータによって実行されると第1の態様の動作を含む動作を1つまたは複数のコンピュータに実施させる命令を記憶した、1つまたは複数の記憶デバイスとを含む、システムが提供される。
第3の態様によれば、1つまたは複数のコンピュータによって実行されると第1の態様の動作を含む動作を1つまたは複数のコンピュータに実施させる命令を記憶した、1つまたは複数のコンピュータ記憶媒体が提供される。
本明細書において説明する本主題の特定の実施形態は、以下の利点のうちの1つまたは複数を実現するように実装することができる。
本明細書において説明するトレーニングシステムは、機械学習モデルを、手動で設計されたデータ拡張方策ではなく「学習済み」データ拡張方策を使用してトレーニングすることができる。本トレーニングシステムは、可能なデータ拡張方策の空間を自動的に探索して、それを使用してトレーニングされる機械学習モデルが機械学習タスクを効果的に実施できるようにする特定のデータ拡張方策を特定することによって、データ拡張方策を学習することが可能である。
学習済みデータ拡張方策を使用してトレーニングされる機械学習モデルは、手動で設計されたデータ拡張方策を使用してトレーニングされる機械学習モデルよりも(例えば高い予測精度を達成することによって)良好に機能することができる。さらに、学習済みデータ拡張方策を使用することにより、機械学習モデルが、普通なら必要とされるよりも少ないトレーニングデータを使用して許容可能な性能レベルを達成するようにトレーニングされることが可能になり、したがって、計算リソース(例えばメモリ)のより効率の良い使用が可能になり得る。
本明細書において説明するトレーニングシステムによって学習されるデータ拡張方策は、いくつかの場合には、トレーニングデータセット間で移行可能である。すなわち、第1のトレーニングデータセットに関して学習されたデータ拡張方策を使用して、機械学習モデルを第2のトレーニングデータセットに対して(すなわち、たとえデータ拡張方策が第2のトレーニングデータセットに関して学習されていなくても)効果的にトレーニングすることができる。トレーニングシステムによって学習されたデータ拡張方策が移行可能であることにより、例えば、新たなトレーニングデータセットのために新たなデータ拡張方策を学習するのではなく学習済みデータ拡張方策を新たなトレーニングデータセットに対して再使用できるようにすることによって、計算リソースの消費が減少し得る。
本明細書の本主題の1つまたは複数の実施形態の詳細は、添付の図面および下の説明中に記載されている。本主題の他の特徴、態様、および利点が、説明、図面、および特許請求の範囲から明らかとなろう。
例示的なトレーニングシステムを示す図である。 例示的な方策生成エンジンを示す図である。 例示的なデータ拡張方策の図である。 データ拡張方策のさまざまな下位方策をオリジナル画像に適用する効果を示した図である。 本トレーニングシステムを使用することによって達成することのできる性能向上の一例を示す図である。 画像に適用することのできるさまざまなタイプの変換操作について説明する図である。 データ拡張方策を自動的に選択し、そのデータ拡張方策を使用して機械学習モデルをトレーニングするための、例示的なプロセスの流れ図である。
さまざまな図面中の同様の参照番号および名称は、同様の要素を示す。
本明細書では、データ拡張方策を使用してある機械学習タスクを実施するように機械学習モデルをトレーニングする、1つまたは複数の位置にある1つまたは複数のコンピュータ上にコンピュータプログラムとして実装されるトレーニングシステムについて説明する。データ拡張方策を使用して、機械学習モデルのトレーニングの際に使用されるトレーニング入力の量および多様性を増大させ、それにより機械学習タスクをより効果的に(例えばより高い予測精度で)実施するトレーニング済み機械学習モデルをもたらすことができる。本トレーニングシステムは、可能なデータ拡張方策の空間を自動的に探索して、特定のデータ拡張方策を特定し、次いで、その特定のデータ拡張方策を使用して、機械学習モデルをトレーニングする。
図1は、例示的なトレーニングシステム100を示す。トレーニングシステム100は、1つまたは複数の位置にある1つまたは複数のコンピュータ上にコンピュータプログラムとして実装されるシステムの一例であり、下で説明するシステム、コンポーネント、および技法を実装することができる。
トレーニングシステム100は、トレーニング済み機械学習モデル102を生成するように構成され、このトレーニング済み機械学習モデル102は、機械学習モデル104を(i)トレーニングデータ106のセット、および(ii)「最終」データ拡張方策108を使用してトレーニングすることによって、ある機械学習タスクを実施するようにトレーニングされる。下でより詳細に説明するように、トレーニングシステム100は、可能なデータ拡張方策の空間を探索することによって、最終データ拡張方策108を特定する。
機械学習タスクには、画像を処理して、その画像に基づく予測値を生成することが関与し得る。すなわち、機械学習モデル104は、画像を含む入力を処理して、対応する出力、例えば分類出力、回帰出力、またはそれらの組合せを生成するように構成され得る。機械学習タスクのほんの数例が次に続く。
一例では、機械学習モデルは、画像を処理して、複数のカテゴリのそれぞれに対応するそれぞれのスコアを含む分類出力を生成するように構成される。カテゴリのスコアは、画像がそのカテゴリに属する可能性を示す。いくつかの場合には、カテゴリは、オブジェクトのクラス(例えば犬、猫、人物など)とすることができ、画像は、カテゴリに対応するオブジェクトクラス内に含まれるオブジェクトを描いたものである場合、そのカテゴリに属することができる。いくつかの場合には、カテゴリは、大域的な画像特性(例えば画像が日中のシーンを描いたものであるか、それとも夜間のシーンを描いたものであるか、または画像が夏のシーンを描いたものであるか、それとも冬のシーンを描いたものであるか)を表すことがあり、画像は、カテゴリに対応する大域的特性を有している場合、そのカテゴリに属することができる。
別の例では、機械学習モデルは、画像を処理して、各画素について複数のカテゴリのそれぞれに対応するそれぞれのスコアを含む、画素レベル分類出力を生成するように構成される。所与の画素について、カテゴリのスコアは、画素がそのカテゴリに属する可能性を示す。いくつかの場合には、カテゴリは、オブジェクトのクラスとすることができ、画素は、カテゴリに対応するオブジェクトクラス内に含まれるオブジェクト上の部分である場合、そのカテゴリに属することができる。すなわち、画素レベル分類出力は、セマンティックセグメンテーション出力とすることができる。
別の例では、機械学習モデルは、画像を処理して、その画像を特徴付ける1つまたは複数の連続変数を推定する(すなわち無限に多くの可能な数値を仮定することのできる)回帰出力を生成するように構成される。特定の例では、回帰出力は、画像内に描かれたそれぞれのオブジェクトを囲むバウンディングボックスの座標を推定することができる。バウンディングボックスの座標は、バウンディングボックスの頂点のx-y座標によって画定することができる。
便宜上、本明細書では、主として機械学習タスクを、画像を処理して、その画像に基づく予測値を生成するものとして説明している。より一般には、機械学習タスクは、入力を処理して、その入力に基づく予測値を生成することが関与する、どんなタスクとすることもできる。機械学習タスクのさらなるほんの数例について次に説明する。
一例では、機械学習タスクは音声認識タスクとすることができ、その場合、機械学習モデルは、オーディオ波形の表現物を処理して、そのオーディオ波形に対応する一連の音素、文字、または語を特徴付ける出力を生成するように構成される。
別の例では、機械学習タスクはビデオ解析タスクとすることができ、その場合、機械学習モデルは、一連のビデオフレームを処理して、例えばそのビデオフレームが特定の行動をしている人物を描いたものであるかどうかを特徴付けることによって、そのビデオフレームを特徴付ける出力を生成するように構成される。
別の例では、機械学習タスクは自然原語処理タスクとすることができ、その場合、機械学習モデルは、テキストの一部分を処理して、例えばテキストのその一部分の別の自然言語への変換を特徴付けることによって、テキストのその一部分を特徴付ける出力を生成するように構成される。
トレーニングデータ106は、各トレーニング例がトレーニング入力および対応するターゲット出力を指定する複数のトレーニング例からなる。トレーニング入力は画像を含む。ターゲット出力は、機械学習モデルがトレーニング入力を処理することによって生成すべき出力を表す。例えば、ターゲット出力は、入力画像に対応するカテゴリ(例えばオブジェクトクラス)を指定する分類出力とすることもでき、あるいは入力画像に対応する1つまたは複数の連続変数(例えばオブジェクトバウンディングボックス座標)を指定する回帰出力とすることもできる。
機械学習モデル104は、任意の適切な機械学習モデルアーキテクチャを有することができる。例えば、機械学習モデルは、ニューラルネットワークモデル、ランダムフォレストモデル、サポートベクタマシン(SVM)モデル、線形モデル、またはそれらの組合せとすることができる。
システム100は、トレーニングデータ106、および機械学習モデル104を画定するデータを、多様な方途のいずれかにおいて受け取ることができる。例えば、システム100は、トレーニングデータ106、および機械学習モデル104を画定するデータを、例えばシステム100によって提供されるアプリケーションプログラミングインターフェース(API)を使用して、データ通信ネットワークを経由したシステム100の遠隔ユーザからのアップロードとして受け取ることができる。
データ拡張方策は、機械学習モデルのトレーニングにトレーニング入力(すなわちトレーニング例内に含まれた)が使用される前にそのトレーニング入力を変換するための手順を指定する、パラメータ(本文献では「データ拡張方策パラメータ」と呼ぶ)のセットによって定められる。データ拡張方策および対応するデータ拡張方策パラメータの例については、図3を参照してより詳細に説明する。
トレーニング入力を変換するための手順は一般に、トレーニング入力内に含まれる画像に、1つまたは複数の操作(本文献では「変換操作」と呼ぶ)を適用することを含む。この操作は、任意の適切な類の画像処理操作、例えば平行移動操作、回転操作、せん断操作、色反転操作、またはそれらの組合せとすることができる。データ拡張方策パラメータは、どの変換操作をどの強度でどんな確率で適用すべきかを指定することができる。可能な変換操作の例については、図6を参照してより詳細に説明する。
システム100は、可能なデータ拡張方策の空間から「クオリティ判断基準」の高いデータ拡張方策を特定するための探索アルゴリズムを実装している。データ拡張方策のクオリティ判断基準は、そのデータ拡張方策を使用してトレーニングされた機械学習モデルの性能(例えば予測精度)を特徴付ける。便宜上、クオリティ判断基準が高いほうが、本文献では、性能がより良好である(例えば予測精度がより高い)ことを意味するものと理解される。
システム100は、データ拡張方策のクオリティ判断基準を、そのデータ拡張方策を使用してトレーニングされた機械学習モデルの性能を「検証セット」に対して評価することによって決定することができる。検証セットは、機械学習モデルをトレーニングする際に使用されなかった1つまたは複数のトレーニング例からなる。例えば、システム100はクオリティ判断基準110を、検証セットに対するトレーニング済み機械学習モデルの任意の適切な性能判断基準、例えばF1スコアもしくはマシューズ相関関数(分類タスクの場合)、または2乗誤差もしくは絶対誤差(回帰タスクの場合)に基づいて、決定することができる。値が低いほうがトレーニング済み機械学習モデルの性能がより良好であることを示す性能判断基準(例えば2乗誤差性能判断基準)の場合、データ拡張方策のクオリティ判断基準は、性能判断基準に反比例し得る(すなわち、そのためクオリティ判断基準の高いほうがやはり性能がより良好であることを意味する)。
システム100は検証セットを、例えばより大きなトレーニングデータセットをランダムにパーティショニングして、トレーニングデータ106(すなわち機械学習モデルをトレーニングする際に使用される)と検証セット(すなわちトレーニング済み機械学習モデルの性能を評価する際に使用される)を生成することによって、取得することができる。
本文献全体を通して、可能なデータ拡張方策の空間は、データ拡張方策パラメータの可能な値によってパラメータ化される空間を指す。
トレーニングシステム100は、トレーニングエンジン112および方策生成エンジン114を含む。
本明細書では「時間ステップ」と呼ぶ複数回の反復のそれぞれにおいて、方策生成エンジン114が、1つまたは複数の「現在の」データ拡張方策116を生成する。現在のデータ拡張方策116のそれぞれについて、システム100は、トレーニングエンジン112を用い現在のデータ拡張方策を使用して機械学習モデル104をトレーニングし、その後、現在のデータ拡張方策のクオリティ判断基準110を決定する。方策生成エンジン114は、現在のデータ拡張方策の116のクオリティ判断基準110を使用して、次の時間ステップ用に生成されるデータ拡張方策の期待されるクオリティ判断基準を向上させる。
機械学習モデルをトレーニングすることは、機械学習モデルのパラメータの初期値から機械学習モデルのパラメータのトレーニング後の値を確定することを意味する。トレーニングエンジン112は、機械学習モデル104を、例えば機械学習モデルパラメータのランダムに選択された初期値またはデフォルトの初期値から開始してトレーニングすることができる。
一般に、機械学習モデルは、データ拡張方策を使用して、既存のトレーニング例のトレーニング入力を変換して「新たな」トレーニング例を生成し、(既存のトレーニング例の代わりにまたはそれに加えて)その新たなトレーニング例を使用して、機械学習モデルをトレーニングすることによって、トレーニングすることができる。例えば、トレーニング例のトレーニング入力内に含まれる画像は、データ拡張方策によって指定される1つまたは複数の画像処理操作をその画像に適用することによって変換することができる。
いくつかの場合には、(例えばデータ拡張方策に従って)トレーニング例のトレーニング入力を変換するとともに、同じ対応するターゲット出力を維持することができる。例えば、トレーニング入力内に描かれたオブジェクトのタイプをターゲット出力が指定する画像分類タスクの場合、トレーニング入力内に含まれる画像に画像処理操作(例えば回転、せん断など)を適用しても、画像内に描かれたオブジェクトのタイプには影響が及ばない。したがって、この例では、変換後のトレーニング入力が、オリジナルのトレーニング入力と同じターゲット出力に対応することになる。
しかし、ある特定の状況下では、トレーニング例のトレーニング入力を変換すると、トレーニング例のターゲット出力も変更することが必要になる場合がある。一例では、トレーニング入力に対応するターゲット出力が、トレーニング入力の画像内に描かれたオブジェクトを囲むバウンディングボックスの座標を指定する場合がある。この例では、トレーニング入力の画像に平行移動操作を適用すると、ターゲット出力によって指定されるバウンディングボックス座標に同じ平行移動操作を適用することが必要になる。
データ拡張方策を使用して機械学習モデル104をトレーニングするためにトレーニングエンジン112によって実施される特定の操作は、機械学習モデル104のアーキテクチャ、例えば機械学習モデル104がニューラルネットワークモデルであるかそれともランダムフォレストモデルであるか、によって決まる。データ拡張方策を使用してニューラルネットワークモデルをトレーニングする一例については、図7を参照してより詳細に説明する。
方策生成エンジン114は、多様な技法のいずれかを使用して、可能なデータ拡張方策の空間を探索することができる。一実装形態では、方策生成エンジン114はデータ拡張方策を、本文献では「方策」ネットワークと呼ぶニューラルネットワークを使用して生成する。方策ネットワークは、強化学習技法を使用してトレーニングすることができ、その場合、報酬(すなわち方策ネットワークがそれを最大化するようにトレーニングされる)が、方策ニューラルネットワークによって生成されたデータ拡張方策に対応するクオリティ判断基準によって与えられる。強化学習技法を使用してトレーニングされる方策ネットワークを使用した方策生成エンジン114の例示的な一実装形態については、図2を参照してより詳細に説明する。
他の実装形態では、方策生成エンジン114は、可能なデータ拡張方策の空間を探索するための多様な他の技法のいずれかとすることができる。例えば、方策生成エンジン114は、例えばH. Mania、A. Guy、およびB. Recht、「Simple random search provides a competitive approach to reinforcement learning」、arXiv:1803.07055v1、2018に関して記載されているランダム探索技法を使用することができる。別の例として、方策生成エンジン114は、例えばE. Real、A. Aggarwal、Y. Huang、およびQ. V. Le:「Regularized evolution for image classifier architecture search」、arXiv:1802.01548、2018に関して記載されている進化的探索技法(すなわち「遺伝的プログラミング法」)を使用することができる。
システム100は、データ拡張方策の生成を、探索終了基準が満たされるまで続けることができる。例えば、トレーニングシステム100は、データ拡張方策が所定数の時間ステップにわたって生成された場合、探索終了基準が満たされたとの判断をすることができる。別の例として、トレーニングシステム100は、生成されたデータ拡張方策のクオリティ判断基準が所定のしきい値を満たす場合、探索終了基準が満たされたとの判断をすることができる。
探索終了基準が満たされたとの判断をした後で、システム100は、生成されたデータ拡張方策のそれぞれのクオリティ判断基準110に基づいて、最終データ拡張方策を選択する。例えば、システム100は、トレーニングシステム100によって生成された、最も高いクオリティスコアを有するデータ拡張方策を、最終データ拡張方策として選択することができる。別の例として、それについては図3を参照してより詳細に説明するが、システム100は、トレーニングシステムによって生成された、最も高いクオリティスコアを有する所定数(例えば5つ)のデータ拡張方策を組み合わせて、最終データ拡張方策108を生成することもできる。
システム100は、最終データ拡張方策108を使用したトレーニングデータ106に対して機械学習モデル104をトレーニングすることによって、トレーニング済み機械学習モデル102を生成し、その後、トレーニング済み機械学習モデル102を画定するデータを出力することができる。
いくつかの実装形態では、トレーニング済み機械学習モデル102を出力する代わりにまたはそれに加えて、システム100は、トレーニング済み機械学習モデル102を使用して、例えばシステム100によって提供されるAPIを通じてユーザが受け取った要求を処理する。すなわち、システム100は、処理すべき入力を受け取り、トレーニング済み機械学習モデル102を使用してその入力を処理し、トレーニング済み機械学習モデル102によって生成された出力、または生成された出力から抽出されたデータを、受け取った入力に応答して提供する。
トレーニングシステム100は、トレーニングデータ106の特定のセットに関して最終データ拡張方策108を決定するが、最終データ拡張方策108は(いくつかの場合には)他のトレーニングデータセットに移行可能とすることができる。すなわち、トレーニングデータ106に関して決定された最終データ拡張方策108は、他の機械学習モデルを異なるトレーニングデータセットに対して効果的にトレーニングするのに使用することができる。
図2は、例示的な方策生成エンジン114を示す。方策生成エンジン114は、方策ニューラルネットワーク202を含み、これは、方策ネットワーク202のパラメータに従って方策ネットワーク出力を生成するように構成されており、方策生成エンジン114はまた、方策ネットワークパラメータ値を調整するように構成されたパラメータ更新エンジン204を含む。方策ネットワーク202によって生成された各方策ネットワーク出力206が、それぞれに対応するデータ拡張方策116を定める。
具体的には、各方策ネットワーク出力206は、複数の出力位置のそれぞれにおけるそれぞれに対応する出力を含み、各出力位置は、異なるデータ拡張方策パラメータに対応する。したがって、各方策ネットワーク出力は、各出力位置における、対応するデータ拡張方策パラメータのそれぞれに対応する値を含む。まとめると、所与の方策ネットワーク出力によって指定されるデータ拡張方策パラメータの値が、データ拡張方策を定める。
各時間ステップにおいて、方策生成エンジン114は、方策ネットワーク202を使用して、方策ネットワークパラメータの現在の値に従って、1つまたは複数の方策ネットワーク出力206を生成し、そのそれぞれが、それぞれに対応するデータ拡張方策116を定める。
方策ネットワーク202は、1つまたは複数の再帰型ニューラルネットワーク層、例えば長短期記憶(LSTM)層またはゲート付き再帰型ユニット(GRU)層を含む、再帰型ニューラルネットワークである。方策ネットワーク202は、方策ネットワーク出力206の一連の出力位置における各出力位置に対応するそれぞれのデータ拡張方策パラメータを順次生成することによって、方策ネットワーク出力206を生成する。具体的には、各出力位置について、方策ネットワーク202は、方策ネットワーク出力206における先行する出力位置に対応するデータ拡張方策パラメータの値を入力として受け取り、その入力を処理して、方策ネットワーク202の現在の隠れ状態を更新する。方策ネットワーク出力における一番初めの出力位置の場合、先行する出力位置がないので、方策ネットワーク202は、予め定められたプレースホルダ入力を処理することができる。
方策ネットワーク202はまた、方策ネットワーク出力206における各出力位置について、それぞれに対応する出力層を含む。出力位置に対応する出力層は、方策ネットワーク202の、その出力位置に対応する更新された隠れ状態を処理して出力を生成し、その出力は、その出力位置に対応するデータ拡張方策パラメータの可能な値にわたるスコア分布を定める。例えば、出力層は最初に、方策ネットワーク202の更新された隠れ状態を、対応するデータ拡張方策パラメータの可能な値の数に適した次元に投影することができる。次いで、出力層は、投影された隠れ状態にsoftmaxを適用して、対応するデータ拡張方策パラメータの複数の可能な値のそれぞれについて、それぞれに対応するスコアを生成することができる。
各出力位置について、方策ネットワーク202は、対応するデータ拡張方策パラメータの値を、データ拡張方策パラメータの可能な値にわたるスコア分布(すなわち対応する出力層によって生成された)からサンプリングすることによって生成する。所与のデータ拡張方策パラメータが取ることのできる可能な値は、トレーニング前に決定され、データ拡張方策パラメータが異なれば、可能な値の数は異なることがある。
一般に、方策ネットワークパラメータの値は、時間ステップ内で変化しない。しかし、データ拡張方策パラメータの値を、可能な値にわたるスコア分布からサンプリングすることによって、方策ネットワーク202は、複数の別個の方策ネットワーク出力206(すなわちそれぞれが異なるデータ拡張方策116に対応する)を生成することが可能である。
時間ステップにおいて生成された各データ拡張方策116について、トレーニングシステム100は、そのデータ拡張方策116を使用して機械学習モデルをトレーニングし、その後、(先に説明したように)トレーニング済み機械学習モデルのそれぞれのクオリティ判断基準110を決定する。
次いで、パラメータ更新エンジン204が、クオリティ判断基準110を報酬信号として使用して、方策ネットワークパラメータの現在の値を、強化学習技法を使用して更新する。すなわち、パラメータ更新エンジン204は、方策ネットワークパラメータの現在の値を、強化学習技法を使用して、対応するデータ拡張方策のクオリティ判断基準の向上をもたらす方策ネットワーク出力を生成するように方策ネットワークをトレーニングすることによって、調整する。より具体的には、パラメータ更新エンジン204は、対応するデータ拡張方策のクオリティ判断基準に基づいて決まる受け取った報酬を最大化する方策ネットワーク出力を生成するように、方策ネットワークをトレーニングする。具体的には、所与の方策ネットワーク出力の報酬は、所与の方策ネットワーク出力によって定められたデータ拡張方策のクオリティ判断基準の関数である。例えば、報酬は、クオリティ判断基準、クオリティ判断基準の2乗、クオリティ判断基準の3乗、クオリティ判断基準の平方根などのうちの1つとすることができ、またはそのうちの1つに正比例することができる。
いくつかの場合には、パラメータ更新エンジン204は、方策勾配技法を使用して期待される報酬を最大化するように方策ネットワーク202をトレーニングする。例えば、方策勾配技法は、REINFORCE技法または近位方策最適化(Proximal Policy Optimization)(PPO)技法とすることができる。例えば、所与の時間ステップにおいて、パラメータ更新エンジン204は、方策ネットワークパラメータの現在の値を、
Figure 0007017640000001
によって与えられる方策ネットワークパラメータの勾配の組合せを使用して更新し、ここで、kは、その時間ステップにおいて生成された方策ネットワーク出力を示し、Kは、その時間ステップにおいて生成された方策ネットワーク出力の合計数であり、tは、方策ネットワーク出力における出力位置を示し、Tは、方策ネットワーク出力における出力位置の合計数であり、∇θは、方策ネットワークパラメータに関する勾配演算子であり、P(ak,t)は、方策ネットワーク出力kにおける出力位置tにおいて生成されたデータ拡張方策パラメータに対応するスコアであり、Rkは、方策ネットワーク出力kに関する報酬であり、bは、ベースライン関数、例えば以前の報酬の指数移動平均である。
方策ネットワークパラメータの値を繰り返し更新することによって、パラメータ更新エンジン204は、機械学習タスクに対する性能の向上したトレーニング済み機械学習モデルをもたらすデータ拡張方策を定める方策ネットワーク出力を生成するように、方策ネットワーク202をトレーニングすることができる。すなわち、方策ネットワークパラメータの値をこのようにして更新すると、方策ネットワークによって提案されたデータ拡張方策を使用してトレーニングされる機械学習モデルの、検証セットに対する期待される精度が向上し得る。
図3は、例示的なデータ拡張方策300の図である。データ拡張方策300は、1つまたは複数の「下位方策」302-A~302-Nからなる。各下位方策は、一連の変換操作(例えば304-A~304-M)、例えば画像処理操作、例えば平行移動操作、回転操作、またはせん断操作を指定する。各変換操作は、関連する強度(例えば306-A~306-M)、および関連する確率(例えば308-A~308-M)を有する。
変換操作の強度は、変換操作がトレーニング入力にどのように適用されるべきかを指定する、1つまたは複数の数値の順序付き集合である。例えば、平行移動操作の強度は、画像がx方向およびy方向に平行移動されるべき画素数を指定することができる。別の例として、回転操作の強度は、画像が回転されるべきラジアン数を指定することができる。
データ拡張方策300を使用してトレーニング入力を変換するには、データ拡張方策内に含まれる下位方策のセットから、例えば下位方策をランダムにサンプリングすることによって、下位方策が選択される。次いで、選択された下位方策によって指定される一連の変換操作のうちの各変換操作について、変換操作が変換操作に関連する確率でトレーニング入力に適用される。変換操作は、トレーニング入力に適用される場合、その変換操作に関連する強度で適用される。トレーニング入力に適用される変換操作は、下位方策によって指定される変換操作の順序付けに従って適用される。さまざまな下位方策を画像に適用する効果を示した図を、図4に示す。
例示的なデータ拡張方策300のパラメータは、各下位方策の各変換操作について、(i)変換操作のタイプ(例えば平行移動、回転、せん断など)、(ii)変換操作の強度、および(iii)変換操作を適用する確率を含む。
各データ拡張方策パラメータは、可能な値の所定のセットを有することができる。例えば、変換操作のタイプは、可能な変換タイプの所定のセットから選択することができる。変換操作の強度は、所定数の可能な値を有することができ、それらは、例えば、許容値の連続範囲全体にわたって等間隔をあけられている。例えば、回転操作の場合、許容値の連続範囲は[0, 2π]ラジアンとすることができ、回転操作の強度の可能な値は、
Figure 0007017640000002
とすることができる。変換操作を適用する確率は、所定数の可能な値を有することができ、それらは、例えば、範囲[0, 1]全体にわたって等間隔をあけられている。一例では、変換操作を適用する確率の可能な値は、{0, 0.2, 0.4, 0.6, 0.8, 1}とすることができる。
データ拡張方策は、所定数の下位方策を有することができ、各下位方策は、所定数の変換操作を指定することができる。いくつかの場合には、変換操作を適用する確率を0とすることができ、その結果、その変換操作は決してトレーニング入力に適用されないことになる。データ拡張方策の空間をこのように設計すると、見出されるデータ拡張方策の多様性を増大させることができる。
一具体例では、データ拡張方策が、2つの変換操作をそのそれぞれが指定する5つの下位方策を有することができる。各変換操作は、それぞれに対応する強度および確率のスカラー値を有し、16の異なる変換タイプのいずれかとすることができる。この例では、データ拡張方策は合計で5×2×2×16=320パラメータを有することになる。変換操作の強度が10個の可能な値を有し、かつ変換操作を適用する確率が11個の可能な値を有する場合、可能なデータ拡張方策の空間は、およそ2.9×1032個のデータ拡張方策を含むことになる。
図1を参照して説明したように、トレーニングシステム100は、トレーニングシステム100によって生成された、最も高いクオリティスコアを有する所定数のデータ拡張方策を組み合わせて、最終データ拡張方策を生成することができる。図3を参照して説明した形態を有するデータ拡張方策の場合、複数のデータ拡張方策を、それらのそれぞれに対応する下位方策を集めて単一の組み合わせたデータ拡張方策にすることによって、組み合わせることができる。組み合わせたデータ拡張方策をトレーニング入力に適用するには、下位方策の組み合わせた集合からの下位方策のうちの1つをランダムに選択することができ、トレーニング入力を、(先に説明したように)ランダムに選択された下位方策によって指定される一連の変換操作に従って変換することができる。
図4は、さまざまな下位方策をオリジナル画像400に適用する効果を示した図である。例えば、「下位方策1」は、(i)対応する確率が0.4かつ強度が4の等化操作、および(ii)対応する確率が0.8かつ強度が8度の回転操作を含む、一連の変換操作を指定している。等化操作および回転操作については、図6を参照してより詳細に説明する。下位方策1をオリジナル画像400に3回に分けて適用する効果が、402、404、および406によって示されている。図4は、「下位方策2」、「下位方策3」、「下位方策4」、および「下位方策5」をオリジナル画像400に適用する効果も示す。
図5は、本明細書において説明したトレーニングシステムを使用して達成することのできる性能向上の一例を示す。複数のトレーニングデータセット(すなわち「CIFAR-10」、「CIFAR-100」、「SVHN」、「Stanford Cars」、および「ImageNet」)のそれぞれについて、トレーニングシステム100によって選択された(すなわち対応する検証セットに対して評価された)データ拡張方策を使用してトレーニングされたニューラルネットワークモデルの誤り率が、そのトレーニングデータセットについて公表されている最良の結果のいくつかに勝っている。
図6は、画像に適用することのできるさまざまなタイプの変換操作について説明している。任意の所与の拡張方策のパラメータのうちの1つのパラメータの値が、図6に示す変換タイプのセットからのどの変換タイプがその所与の拡張方策内に含まれているかを定めることができる。
図7は、データ拡張方策を自動的に選択し、そのデータ拡張方策を使用して機械学習モデルをトレーニングするための、例示的なプロセス700の流れ図である。便宜上、プロセス700については、1つまたは複数の位置にある1つまたは複数のコンピュータのシステムによって実施されるものとして説明する。例えば、本明細書に従って適切にプログラムされたトレーニングシステム、例えば図1のトレーニングシステム100は、プロセス700を実施することができる。
システムは、特定の機械学習タスクを実施するように機械学習モデルをトレーニングするためのトレーニングデータを受け取る(702)。例えば、システムは、システムによって提供されるAPIを通じて、トレーニングデータを受け取ることができる。トレーニングデータは、そのそれぞれがトレーニング入力および対応するターゲット出力を指定する複数のトレーニング例を含む。
システムは、複数の時間ステップのそれぞれにおいて、プロセス700のステップ704~708を実施する。便宜上、ステップ704~708のそれぞれについては、「現在の」時間ステップにおいて実施されるものとして説明する。
システムは、以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準に基づいて、1つまたは複数の現在のデータ拡張方策を生成する(704)。現在の時間ステップが最初の時間ステップである場合、システムはデータ拡張方策を、多様な方途のいずれかにおいて、例えば各データ拡張方策を定めるパラメータ値をランダムに選択することによって、生成することができる。一実装形態では、システムは、現在のデータ拡張方策を、(例えば図2を参照して説明したように)以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準によって定まる報酬に基づく強化学習技法を使用してトレーニングされる方策ネットワークを使用して、生成することができる。他の実装形態では、システムは、現在のデータ拡張方策を、多様な適切な探索技法、例えばランダム探索技法または進化的探索技法、のいずれかを使用して、生成することができる。
現在のデータ拡張方策のそれぞれについて、システムは、現在のデータ拡張方策を使用したトレーニングデータに対して機械学習モデルをトレーニングする(706)。一例では、機械学習モデルはニューラルネットワークモデルであり、システムはそのニューラルネットワークモデルを複数回のトレーニング反復にわたってトレーニングする。各トレーニング反復において、システムは、現在の1つまたは複数のトレーニング例「バッチ」(すなわちセット)を選択し、次いで、現在のトレーニング例バッチ内のトレーニング入力を現在のデータ拡張方策を使用して変換することによって、「拡張後」トレーニング例バッチを確定する。オプションで、システムは、(先に説明したように)トレーニング入力に適用された変換を補償するために、現在のトレーニング例バッチ内のターゲット出力を調整することもできる。システムは、機械学習モデルの現在のパラメータ値に従って変換後のトレーニング入力を処理して、対応する出力を生成する。システムは次いで、(i)機械学習モデルによって生成された出力と(ii)トレーニング例によって指定されたターゲット出力との間の類似性を測定する目的関数の勾配を決定し、その勾配を使用して、機械学習モデルパラメータの現在の値を調整する。システムは勾配を、例えば誤差逆伝搬法を使用して決定することができ、システムはその勾配を使用して、機械学習モデルパラメータの現在の値を、任意の適切な勾配降下最適化法、例えばRMSprop法またはAdam法を使用して調整することができる。
現在のデータ拡張方策のそれぞれについて、システムは、現在のデータ拡張方策を使用して機械学習モデルがトレーニングされた後でその機械学習モデルを使用して、現在のデータ拡張方策のクオリティ判断基準を決定する(708)。例えば、システムは、機械学習モデルのトレーニングに使用されていない複数のトレーニング例からなる検証データのセットに対するトレーニング済み機械学習モデルの性能判断基準(例えばF1スコアまたは平均2乗誤差)となるべきクオリティ判断基準を決定することができる。
システムは、ステップ704~708を、探索終了基準が満たされる(例えばステップ704~708が所定の回数実施された場合)まで繰り返し実施することができる。
システムは、探索終了基準が満たされたとの判断をした後で、ステップ704~708の間に生成されたデータ拡張方策のクオリティ判断基準に基づいて、最終データ拡張方策を選択する(710)。例えば、システムは、ステップ704~708の間に生成された、最も高いクオリティスコアを有する所定数のデータ拡張方策を組み合わせることによって、最終データ拡張方策を生成することができる。
システムは、最終データ拡張方策を使用したトレーニングデータに対して機械学習モデルをトレーニングすることによって、最終のトレーニング済み機械学習モデルを生成する(712)。システムは、最終のトレーニング済み機械学習モデルを、システムのユーザに提供することができる。その代わりにまたはそれと組み合わせて、システムは、トレーニング済み機械学習モデルを使用して、ユーザから受け取った要求を処理することもできる。
いくつかの場合には、システムは、最終データ拡張方策を使用して最終機械学習モデルを、システムがステップ704において生成された「現在の」データ拡張方策を使用して機械学習モデルをトレーニングするときよりも多数のトレーニング反復にわたって、トレーニングすることができる。例えば、システムは、最終データ拡張方策を使用して最終機械学習モデルを、収束基準が満たされるまで、例えば検証セットに対して評価された最終機械学習モデルの予測精度が最小値に到達するまで、トレーニングすることができる。他方では、システムは、ステップ704において生成された現在のデータ拡張方策のそれぞれを、より少ない(例えば固定)数のトレーニング反復にわたってトレーニングすることもできる。
本明細書では、システムおよびコンピュータプログラムコンポーネントに関連して「構成される」という用語を使用している。1つまたは複数のコンピュータからなるシステムが、特定の動作またはアクションを実施するように構成されるとは、システムがその上に、動作の際にシステムにその動作またはアクションを実施させるソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せをインストールされる、ということを意味する。1つまたは複数のコンピュータプログラムが、特定の動作またはアクションを実施するように構成されるとは、1つまたは複数のプログラムが、データ処理装置によって実行されると装置にその動作またはアクションを実施させる命令を含む、ということを意味する。
本明細書において説明した本主題および機能的動作の実施形態は、デジタル電子回路として、有形に具現化されたコンピュータソフトウェアもしくはファームウェアとして、本明細書において開示した構造およびそれらの構造的等価物を含むコンピュータハードウェアとして、またはそれらのうちの1つもしくは複数の組合せとして、実装することができる。本明細書において説明した本主題の実施形態は、データ処理装置によって実行できるように、またはデータ処理装置の動作を制御するために、有形の非一時的記憶媒体上に符号化された、1つまたは複数のコンピュータプログラム、すなわちコンピュータプログラム命令の1つまたは複数のモジュールとして、実装することができる。コンピュータ記憶媒体は、機械可読記憶デバイス、機械可読記憶基板、ランダムもしくはシリアルアクセスメモリデバイス、またはそれらのうちの1つもしくは複数の組合せとすることができる。その代わりにまたはそれに加えて、プログラム命令は、情報をデータ処理装置によって実行する目的で適切なレシーバ装置に送信できるように符号化するために生成される、人工的に生成された伝搬信号、例えば機械により生成された電気信号、光信号、または電磁信号上に、符号化することもできる。
「データ処理装置」という用語は、データ処理ハードウェアを指し、例としてプログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するためのあらゆる種類の装置、デバイス、および機械を包含する。装置は、専用論理回路、例えばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)とすることもでき、あるいはそれをさらに含むこともできる。装置はオプションで、ハードウェアに加えて、コンピュータプログラムのための実行環境を作り出すコード、例えばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つもしくは複数の組合せを構成するコードを含むこともできる。
プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリ、モジュール、ソフトウェアモジュール、スクリプト、またはコードとも呼ばれ、または説明されることのあるコンピュータプログラムは、コンパイル型言語もしくはインタープリタ型言語、または宣言型言語もしくは手続き型言語を含む、任意の形態のプログラミング言語で記述することができ、またそれは、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境において使用するのに適した他のユニットとして、を含む、任意の形態でデプロイすることができる。プログラムは、その必要はないが、ファイルシステム内のファイルに対応してよい。プログラムは、他のプログラムもしくはデータを保持するファイルの一部分、例えばマークアップ言語ドキュメント内に格納された1つもしくは複数のスクリプト内に、当該のプログラムに専用の単一のファイル内に、または複数の連係されたファイル、例えばコードの1つもしくは複数のモジュール、サブプログラム、もしくは部分を格納するファイル内に、格納することができる。コンピュータプログラムは、1つのコンピュータ上で、または1つのサイトに位置するかもしくは複数のサイトにわたって分散され、データ通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように、デプロイすることができる。
本明細書では、「エンジン」という用語は、1つまたは複数の特定の機能を実施するようにプログラムされるソフトウェアベースのシステム、サブシステム、またはプロセスを指すために広義に使用される。一般に、エンジンは、1つまたは複数の位置にある1つまたは複数のコンピュータ上にインストールされた1つまたは複数のソフトウェアモジュールまたはソフトウェアコンポーネントとして実装される。いくつかの場合には、1つまたは複数のコンピュータが、特定のエンジンに専用であり、他の場合には、複数のエンジンが、同じ1つまたは複数のコンピュータ上にインストールされ、その上で実行されていてよい。
本明細書において説明したプロセスおよび論理フローは、機能を実施するための1つまたは複数のコンピュータプログラムを入力データに作用し出力を生成することにより実行する、1つまたは複数のプログラマブルコンピュータによって実施することができる。プロセスおよび論理フローは、専用論理回路、例えばFPGAもしくはASICによって、または専用論理回路と1つもしくは複数のプログラムされたコンピュータとの組合せによって、実施することもできる。
コンピュータプログラムの実行に適したコンピュータは、汎用マイクロプロセッサ、もしくは専用マイクロプロセッサ、もしくはその両方、または他の任意の種類の中央処理装置に基づいていてよい。一般に、中央処理装置は、読出し専用メモリ、またはランダムアクセスメモリ、またはその両方から、命令およびデータを受け取る。コンピュータの必須要素は、命令を実施または実行するための中央処理装置、ならびに命令およびデータを記憶するための1つまたは複数のメモリデバイスである。中央処理装置およびメモリは、専用論理回路によって補完するか、またはそれに組み込むことができる。一般に、コンピュータはまた、データを記憶するための1つまたは複数の大容量記憶デバイス、例えば磁気ディスク、光磁気ディスク、または光ディスクを含むか、またはそこからデータを受け取り、もしくはそこにデータを転送し、もしくはその両方を行うために動作可能に結合される。しかし、コンピュータは、そのようなデバイスを有している必要はない。さらに、コンピュータは、別のデバイス、例えば、ほんの数例を挙げると、モバイル電話、パーソナルデジタルアシスタント(PDA)、モバイルオーディオプレーヤもしくはモバイルビデオプレーヤ、ゲームコンソール、グローバルポジショニングシステム(GPS)レシーバ、またはポータブル記憶デバイス、例えばユニバーサルシリアルバス(USB)フラッシュドライブに埋め込むことができる。
コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体としては、例として半導体メモリデバイス、例えばEPROM、EEPROM、およびフラッシュメモリデバイス、磁気ディスク、例えば内蔵ハードディスクまたはリムーバブルディスク、光磁気ディスク、ならびにCD-ROMディスクおよびDVD-ROMディスクを含む、あらゆる形態の不揮発性のメモリ、媒体、およびメモリデバイスがある。
ユーザとの対話を可能にするために、本明細書において説明した本主題の実施形態は、ユーザに情報を表示するためのディスプレイデバイス、例えばCRT(陰極線管)またはLCD(液晶ディスプレイ)モニタと、ユーザがそれによってコンピュータに入力することのできるキーボードおよびポインティングデバイス、例えばマウスまたはトラックボールとを有するコンピュータ上に実装することができる。他の種類のデバイスを使用して、ユーザとの対話を可能にすることもでき、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、例えば視覚フィードバック、聴覚フィードバック、または触覚フィードバックとすることができ、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む、任意の形態で受け取ることができる。加えて、コンピュータはユーザと、ユーザが使用するデバイスにドキュメントを送り、そこからドキュメントを受信することによって、例えば、ユーザのデバイス上のウェブブラウザに、そのウェブブラウザから受信した要求に応答してウェブページを送ることによって、対話することができる。また、コンピュータはユーザと、パーソナルデバイス、例えばメッセージングアプリケーションを実行しているスマートフォンに、テキストメッセージまたは他の形態のメッセージを送り、ユーザから返信として応答メッセージを受信することによって、対話することもできる。
機械学習モデルを実装するためのデータ処理装置は、例えば、機械学習のトレーニングまたは実稼働の共通の計算集約的部分、すなわち推論、作業負荷を処理するための、専用ハードウェアアクセラレータユニットを含むこともできる。
機械学習モデルは、機械学習フレームワーク、例えばTensorFlowフレームワーク、Microsoft Cognitive Toolkitフレームワーク、Apache Singaフレームワーク、またはApache MXNetフレームワークを使用して実装し、デプロイすることができる。
本明細書において説明した本主題の実施形態は、例えばデータサーバとしてのバックエンドコンポーネントを含むか、またはミドルウェアコンポーネント、例えばアプリケーションサーバを含むか、またはフロントエンドコンポーネント、例えば本明細書において説明した本主題の実装形態とそれを通じてユーザが対話することのできるグラフィカルユーザインターフェース、ウェブブラウザ、もしくはアプリを有するクライアントコンピュータを含むか、または1つもしくは複数のそのようなバックエンドコンポーネント、ミドルウェアコンポーネント、もしくはフロントエンドコンポーネントの任意の組合せを含む、コンピューティングシステム内に実装することができる。システムのコンポーネント同士は、任意の形態または媒体のデジタルデータ通信、例えば通信ネットワークによって、相互接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、および広域ネットワーク(WAN)、例えばインターネットがある。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントとサーバは一般に、互いに遠隔にあり、典型的には通信ネットワークを通じて対話する。クライアントとサーバの関係は、それぞれに対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有する、コンピュータプログラムによって生じる。いくつかの実施形態では、サーバは、データ、例えばHTMLページをユーザデバイスに、例えばクライアントとしての役割を果たすデバイスと対話しているユーザにデータを表示し、そのユーザからユーザ入力を受け取る目的で、送信する。ユーザデバイスにおいて生成されたデータ、例えばユーザ対話の結果は、デバイスからサーバにおいて受信され得る。
本明細書は、実装形態の多くの具体的な詳細を含んでいるが、これらは、任意の発明の範囲に対する、または特許請求され得るものの範囲に対する限定と解釈するのではなく、特定の発明の特定の実施形態に固有であり得る特徴についての説明と解釈すべきである。本明細書において別々の実施形態の文脈の中で説明されるいくつかの特徴は、単一の実施形態において組み合わせて実施することもできる。反対に、単一の実施形態の文脈の中で説明されるさまざまな特徴は、複数の実施形態において別々に、または任意の適切な部分組合せで、実施することもできる。さらに、特徴については上で、ある特定の組合せで作用するものとして説明されていることがあり、最初にそのようなものとして特許請求されていることすらあるが、特許請求された組合せからの1つまたは複数の特徴を、場合によっては、その組合せから削除することができ、特許請求された組合せが、部分組合せまたは部分組合せの変形を対象としていてよい。
同様に、動作は、特定の順序で図面中に描かれ、特許請求の範囲において記載されているが、これは、望ましい結果を達成するために、そのような動作が図示の特定の順序で、もしくは順番に実施されること、または示された全ての動作が実施されることを要求するものと理解すべきではない。ある特定の状況下では、マルチタスキングおよび並列処理が有利となることがある。さらに、上で説明した実施形態におけるさまざまなシステムモジュールおよびシステムコンポーネントの分離は、そのような分離を全ての実施形態において要求するものと理解すべきではなく、説明したプログラムコンポーネントとシステムとは一般に、単一のソフトウェア製品に一緒に統合するか、または複数のソフトウェア製品にパッケージ化できる、ということを理解されたい。
以上、本主題の特定の実施形態について説明してきた。他の実施形態が、添付の特許請求の範囲に記載の範囲に含まれる。例えば、特許請求の範囲において記載されたアクションを、異なる順序で実施し、それでもなお望ましい結果を達成することができる。一例として、添付の図中に描いたプロセスは、望ましい結果を達成するために、図示の特定の順序、または順番を必ずしも要求するとは限らない。場合によっては、マルチタスキングおよび並列処理が有利となることがある。
100 トレーニングシステム
102 トレーニング済み機械学習モデル
104 機械学習モデル
106 トレーニングデータ
108 最終データ拡張方策
110 クオリティ判断基準
112 トレーニングエンジン
114 方策生成エンジン
116 現在のデータ拡張方策
202 方策ニューラルネットワーク、方策ネットワーク
204 パラメータ更新エンジン
206 方策ネットワーク出力
300 データ拡張方策
302-A 下位方策
302-N 下位方策
304-A 変換操作
304-M 変換操作
306-A 強度
306-M 強度
308-A 確率
308-M 確率
700 プロセス

Claims (18)

  1. 特定の機械学習タスクを実行するように機械学習モデルをトレーニングするためのトレーニングデータを受け取るステップであって、前記トレーニングデータが複数のトレーニング入力を備える、ステップと、
    複数のデータ拡張方策を決定するステップであって、各データ拡張方策が複数のデータ拡張方策パラメータを有し、前記複数のデータ拡張方策パラメータは、トレーニング入力が機械学習モデルのトレーニングに使用される前に前記トレーニング入力を変換するための手順を定め、前記決定するステップが、複数の時間ステップのそれぞれにおいて、
    以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準に基づいて、現在のデータ拡張方策を生成するステップであって、データ拡張方策のクオリティ判断基準が、前記データ拡張方策を使用して機械学習モデルをトレーニングした結果としての、特定の機械学習タスクに対する前記機械学習モデルの性能を表す、生成するステップと、
    前記現在のデータ拡張方策を使用して前記トレーニングデータに対して機械学習モデルをトレーニングするステップであって、データ拡張方策を使用して機械学習モデルをトレーニングするステップが、
    トレーニングデータバッチを選択するステップ、
    前記データ拡張方策に従って前記トレーニングデータバッチ内のトレーニング入力を変換することによって、拡張後トレーニングデータバッチを決定するステップ、および
    前記拡張後トレーニングデータバッチに基づいて、機械学習モデルパラメータの現在の値を調整するステップ
    を含む、トレーニングするステップと、
    前記現在のデータ拡張方策を使用して前記機械学習モデルがトレーニングされた後でその機械学習モデルを使用して、前記現在のデータ拡張方策のクオリティ判断基準を決定するステップと
    を含む、前記複数のデータ拡張方策を決定するステップと、
    前記決定されたデータ拡張方策の前記クオリティ判断基準に基づいて、最終データ拡張方策を選択するステップと、
    前記最終データ拡張方策を使用して最終機械学習モデルをトレーニングすることによって、最終のトレーニング済み機械学習モデルを生成するステップと
    を含む、コンピュータ実装方法。
  2. 前記特定の機械学習タスクが、分類または回帰を含む画像処理タスクである、請求項1に記載のコンピュータ実装方法。
  3. 各データ拡張方策が、1つまたは複数の下位方策を備え、
    各下位方策が、一連の1つまたは複数の変換タプルを備え、各変換タプルについて、前記データ拡張方策パラメータが、(i)変換操作、および(ii)前記変換操作の強度を定め、
    前記データ拡張方策に従って前記トレーニングデータバッチ内のトレーニング入力を変換することが、各トレーニング入力について、
    前記データ拡張方策内に含まれる下位方策を特定すること、および
    前記特定された下位方策に従って、前記特定された下位方策内に含まれる各変換タプルを前記トレーニング入力に順次適用することによって、前記トレーニング入力を変換すること
    を含む、請求項1または2に記載のコンピュータ実装方法。
  4. 前記トレーニング入力について前記データ拡張方策内に含まれる下位方策を特定することが、前記データ拡張方策内に含まれる下位方策をランダムにサンプリングすることを含む、請求項3に記載のコンピュータ実装方法。
  5. 変換タプルを前記トレーニング入力に適用することが、
    前記変換タプルからの前記変換操作および前記変換タプルからの前記変換操作の強度を、前記トレーニング入力に適用すること
    を含む、請求項3または4に記載のコンピュータ実装方法。
  6. 各変換タプルについて、前記データ拡張方策パラメータがさらに、前記変換操作を適用する確率を定め、
    変換タプルを前記トレーニング入力に適用することが、
    前記変換タプルからの前記変換操作および前記変換タプルからの前記変換操作の強度を、前記変換タプルからの前記変換確率とともに、前記トレーニング入力に適用すること
    を含む、請求項3または4に記載のコンピュータ実装方法。
  7. 前記機械学習モデルがニューラルネットワークであり、前記拡張後トレーニングデータバッチに基づいて、機械学習モデルパラメータの前記現在の値を調整するステップが、
    前記拡張後トレーニングデータバッチを使用して、損失関数の勾配を決定するステップ、および
    前記勾配を使用して、機械学習モデルパラメータの前記現在の値を調整するステップ
    を含む、請求項1から6のいずれか一項に記載のコンピュータ実装方法。
  8. 以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準に基づいて、前記現在のデータ拡張方策を生成するステップが、方策ニューラルネットワークを使用して、方策ニューラルネットワークパラメータの現在の値に従って、前記現在のデータ拡張方策を生成するステップを含み、
    前記方策ニューラルネットワークが、強化学習技法によってトレーニングされ、各時間ステップにおいて、強化学習報酬信号が、前記時間ステップにおける現在のデータ拡張方策のクオリティ判断基準に基づく、
    請求項1から7のいずれか一項に記載のコンピュータ実装方法。
  9. 各データ拡張方策パラメータについて、方策ネットワーク出力が、前記データ拡張方策パラメータの可能な値にわたるスコア分布を定める、請求項8に記載のコンピュータ実装方法。
  10. 前記方策ネットワーク出力から前記現在のデータ拡張方策を決定するステップが、各データ拡張方策パラメータについての値を、前記データ拡張方策パラメータについての前記スコア分布を使用してサンプリングするステップを含む、請求項9に記載のコンピュータ実装方法。
  11. 前記方策ニューラルネットワークが再帰型ニューラルネットワークである、請求項8から10のいずれか一項に記載のコンピュータ実装方法。
  12. 以前の時間ステップにおいて生成されたデータ拡張方策のクオリティ判断基準に基づいて、現在のデータ拡張方策を生成するステップが、
    遺伝的プログラミング法を使用して、前記現在のデータ拡張方策を生成するステップ
    を含む、請求項1から7のいずれか一項に記載のコンピュータ実装方法。
  13. 前記現在のデータ拡張方策を使用して機械学習モデルがトレーニングされた後でその機械学習モデルを使用して、前記現在のデータ拡張方策の前記クオリティ判断基準を決定するステップが、
    複数のトレーニング入力を備える検証データを使用して、特定の機械学習タスクに対する前記機械学習モデルの性能判断基準を決定するステップ、および
    前記性能判断基準に基づいて、前記クオリティ判断基準を決定するステップ
    を含む、請求項1から12のいずれか一項に記載のコンピュータ実装方法。
  14. 前記検証データ内に含まれる前記トレーニング入力が、前記トレーニングデータ内に含まれない、請求項13に記載のコンピュータ実装方法。
  15. 前記決定されたデータ拡張方策の前記クオリティ判断基準に基づいて、前記最終データ拡張方策を選択するステップが、
    決定された、最も高いクオリティスコアを有するデータ拡張方策を選択するステップ
    を含む、請求項1から14のいずれか一項に記載のコンピュータ実装方法。
  16. 前記トレーニング入力が画像である、請求項1から15のいずれか一項に記載のコンピュータ実装方法。
  17. 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実行されると請求項1から16のいずれか一項に記載の方法を前記1つまたは複数のコンピュータに実行させる命令を記憶した、1つまたは複数の記憶デバイスとを備える、システム。
  18. 1つまたは複数のコンピュータによって実行されると請求項1から16のいずれか一項に記載の方法を前記1つまたは複数のコンピュータに実行させる命令を記憶した、1つまたは複数のコンピュータ記憶媒体。
JP2020544457A 2018-05-18 2019-05-20 データ拡張方策の学習 Active JP7017640B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862673777P 2018-05-18 2018-05-18
US62/673,777 2018-05-18
PCT/US2019/033091 WO2019222734A1 (en) 2018-05-18 2019-05-20 Learning data augmentation policies

Publications (2)

Publication Number Publication Date
JP2021518939A JP2021518939A (ja) 2021-08-05
JP7017640B2 true JP7017640B2 (ja) 2022-02-08

Family

ID=66691084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020544457A Active JP7017640B2 (ja) 2018-05-18 2019-05-20 データ拡張方策の学習

Country Status (6)

Country Link
US (3) US10817805B2 (ja)
EP (1) EP3732628A1 (ja)
JP (1) JP7017640B2 (ja)
KR (1) KR102422729B1 (ja)
CN (1) CN111758105A (ja)
WO (1) WO2019222734A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11803765B2 (en) * 2019-05-31 2023-10-31 At&T Intellectual Property I, L.P. Public policy rule enhancement of machine learning/artificial intelligence solutions
JP6929322B2 (ja) * 2019-05-31 2021-09-01 楽天グループ株式会社 データ拡張システム、データ拡張方法、及びプログラム
EP3789924A1 (en) * 2019-09-09 2021-03-10 Robert Bosch GmbH Stochastic data augmentation for machine learning
JP7353940B2 (ja) * 2019-11-26 2023-10-02 株式会社日立製作所 転移可能性判定装置、転移可能性判定方法、及び転移可能性判定プログラム
CN114981820A (zh) * 2019-12-20 2022-08-30 谷歌有限责任公司 用于在边缘设备上评估和选择性蒸馏机器学习模型的系统和方法
CN111176564B (zh) * 2019-12-25 2024-02-27 三星(中国)半导体有限公司 确定ssd内数据摆放策略的方法及装置
CN111339866A (zh) * 2020-02-18 2020-06-26 济南浪潮高新科技投资发展有限公司 一种基于DPN与Faster RCNN的火车票图像生成方法
CN113379045B (zh) * 2020-02-25 2022-08-09 华为技术有限公司 数据增强方法和装置
US20210284184A1 (en) * 2020-03-05 2021-09-16 Waymo Llc Learning point cloud augmentation policies
US11551088B2 (en) 2020-03-13 2023-01-10 International Business Machines Corporation Determining optimal augmentations for a training data set
JP7484318B2 (ja) * 2020-03-27 2024-05-16 富士フイルムビジネスイノベーション株式会社 学習装置及び学習プログラム
CN111582371B (zh) * 2020-05-07 2024-02-02 广州视源电子科技股份有限公司 一种图像分类网络的训练方法、装置、设备及存储介质
CN111695624B (zh) * 2020-06-09 2024-04-16 北京市商汤科技开发有限公司 数据增强策略的更新方法、装置、设备及存储介质
US20210406682A1 (en) * 2020-06-26 2021-12-30 Advanced Micro Devices, Inc. Quantization of neural network models using data augmentation
KR102496030B1 (ko) * 2020-08-13 2023-02-07 주식회사 아이오코드 데이터 분류를 위한 강화 학습 장치 및 방법
US12086208B2 (en) * 2020-09-21 2024-09-10 Nvidia Corporation Measuring the effects of augmentation artifacts on a machine learning network
KR20220049421A (ko) * 2020-10-14 2022-04-21 삼성에스디에스 주식회사 데이터 증강 기법 스케줄링 장치 및 방법
KR102617753B1 (ko) 2020-10-26 2023-12-27 삼성에스디에스 주식회사 텍스트 데이터 증강 장치 및 방법
JP7566589B2 (ja) 2020-11-05 2024-10-15 株式会社東芝 情報処理装置、情報処理方法およびプログラム
CN114462628A (zh) * 2020-11-09 2022-05-10 华为技术有限公司 数据增强方法、装置、计算设备以及计算机可读存储介质
US20220155263A1 (en) * 2020-11-19 2022-05-19 International Business Machines Corporation Sound anomaly detection using data augmentation
CN112506483B (zh) * 2020-12-04 2024-04-05 北京五八信息技术有限公司 数据增广方法、装置、电子设备及存储介质
CN112651892A (zh) * 2020-12-22 2021-04-13 中国科学技术大学 一种基于图像样本的自动数据增强策略选择方法
CN114282581B (zh) * 2021-01-29 2023-10-13 北京有竹居网络技术有限公司 基于数据增强的训练样本获取方法、装置和电子设备
US20220277195A1 (en) * 2021-02-26 2022-09-01 GE Precision Healthcare LLC Automated data augmentation in deep learning
CN113010762B (zh) * 2021-03-01 2024-05-31 北京嘀嘀无限科技发展有限公司 数据增强方法、装置、存储介质和电子设备
JP7549736B2 (ja) 2021-03-22 2024-09-11 株式会社日立製作所 外観検査方法および外観検査システム
CN113139578B (zh) * 2021-03-23 2022-12-06 广东省科学院智能制造研究所 一种基于最优训练集的深度学习图像分类方法及系统
CN113221979B (zh) * 2021-04-27 2023-05-23 北京市商汤科技开发有限公司 样本的生成方法、神经网络的训练方法以及装置
DE102021204343A1 (de) 2021-04-30 2022-11-03 Albert-Ludwigs-Universität Freiburg, Körperschaft des öffentlichen Rechts Steuergerät zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens
CN112991346B (zh) * 2021-05-13 2022-04-26 深圳科亚医疗科技有限公司 用于医学图像分析的学习网络的训练方法和训练系统
CN113657742B (zh) * 2021-08-09 2024-04-19 武汉科技大学 车间调度方法、装置、电子设备及存储介质
CN113642667B (zh) * 2021-08-30 2024-02-02 重庆紫光华山智安科技有限公司 一种图片增强策略确定方法、装置、电子设备及存储介质
JP7201270B1 (ja) 2021-10-28 2023-01-10 望 窪田 情報処理方法、プログラム及び情報処理装置
DE102021212727A1 (de) 2021-11-11 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens
DE102021212728A1 (de) 2021-11-11 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens
KR102679943B1 (ko) * 2021-12-06 2024-07-02 대한민국 돼지 임신 진단 장치, 이를 포함하는 돼지 임신 진단 시스템 및 돼지 임신 진단 방법
KR102456513B1 (ko) 2022-03-04 2022-10-20 주식회사 테스트웍스 생성 모델을 이용한 데이터 증강 처리 시스템 및 그 방법
CN114723010B (zh) * 2022-04-12 2023-05-26 重庆大学 一种异步事件数据的自动学习增强方法及系统
CN114492215A (zh) * 2022-04-18 2022-05-13 南湖实验室 利用策略模型辅助训练的gp世界模型及其训练方法
WO2023212804A1 (en) * 2022-05-01 2023-11-09 Zetane Systems Inc. Producing an augmented dataset to improve performance of a machine learning model
CN115031363B (zh) * 2022-05-27 2023-11-28 约克广州空调冷冻设备有限公司 预测空调性能的方法和装置
WO2024058319A1 (ko) * 2022-09-16 2024-03-21 주식회사 켈스 영상 정보를 기반으로 감염 상태 정보를 생성하는 장치 및 방법
CN115757273B (zh) * 2022-10-24 2023-09-15 江苏中科西北星信息科技有限公司 基于云平台的养老政策资料管理方法及系统
WO2024128489A1 (ko) * 2022-12-12 2024-06-20 대한민국(농촌진흥청장) 딥러닝 알고리즘을 이용한 돼지의 초음파 기반 임신 진단 장치 및 방법
CN116452621B (zh) * 2023-03-10 2023-12-15 广州市易鸿智能装备有限公司 一种基于强化学习的理想轮廓生成算法、装置及存储介质
CN116957917B (zh) * 2023-06-19 2024-03-15 广州极点三维信息科技有限公司 一种基于近端策略优化的图像美化方法及装置
KR102647511B1 (ko) * 2023-08-23 2024-03-14 주식회사 액션파워 대규모 언어 모델의 강화 학습 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120288186A1 (en) 2011-05-12 2012-11-15 Microsoft Corporation Synthesizing training samples for object recognition

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697789B2 (en) 2006-04-28 2010-04-13 Xerox Corporation System and method for enhancing stored binary images
CN103984959B (zh) * 2014-05-26 2017-07-21 中国科学院自动化研究所 一种基于数据与任务驱动的图像分类方法
US10289962B2 (en) * 2014-06-06 2019-05-14 Google Llc Training distilled machine learning models
US9721559B2 (en) * 2015-04-17 2017-08-01 International Business Machines Corporation Data augmentation method based on stochastic feature mapping for automatic speech recognition
US20170337486A1 (en) * 2016-05-17 2017-11-23 Futurewei Technologies, Inc. Feature-set augmentation using knowledge engine
DE202016004627U1 (de) * 2016-07-27 2016-09-23 Google Inc. Training eines neuronalen Wertnetzwerks
CN106529598B (zh) * 2016-11-11 2020-05-08 北京工业大学 一种基于不均衡医疗图像数据集的分类方法与系统
CN107368787B (zh) * 2017-06-16 2020-11-10 长安大学 一种面向深度智驾应用的交通标志识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120288186A1 (en) 2011-05-12 2012-11-15 Microsoft Corporation Synthesizing training samples for object recognition

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Alexander J. Ratner, et al.,"Learning to Compose Domain-Specific Transformations for Data Augmentation",arXiv:1709.01643v3,version v3,[online], arXiv (Cornell University),2017年09月30日,Pages 1-18,[令和3年12月16日検索], インターネット, <URL: https://arxiv.org/abs/1709.01643v3>.
Jason Wang, et al.,"The Effectiveness of Data Augmentation in Image Classification using Deep Learning",arXiv:1712.04621v1,version v1,[online], arXiv (Cornell University),2017年12月13日,Pages 1-8,[令和3年12月21日検索], インターネット, <URL: https://arxiv.org/abs/1712.04621v1>.
クジラ飛行机,「Pythonによるスクレイピング&機械学習 開発テクニック」,初版,日本,ソシム株式会社,2016年12月19日,第348~352頁,ISBN: 978-4-8026-1079-7.
木村 宇任(外2名),「Fully Convolutional Networkを用いたインフラ点検におけるひび割れの自動検出」,情報処理学会論文誌 数理モデル化と応用(TOM),日本,[online], 情報処理学会,2018年03月14日,Vol.11, No.1,第12~20頁,[平成30年3月14日検索], インターネット, <URL: http://id.nii.ac.jp/1001/00186619/>,ISSN: 1882-7780.
榎堀 優(外1名),「Data Augmentationを用いた少数寝姿体圧データからの高精度姿勢識別DNN構築」,情報処理学会研究報告,日本,[online], 情報処理学会,2017年08月17日,Vol.2017-ASD-9, No.11,第1~8頁,[平成29年8月17日検索], インターネット, <URL: http://id.nii.ac.jp/1001/00183011/>,ISSN: 2188-8698.
比戸 将平(外9名),「Software Design plusシリーズ データサイエンティスト養成読本 機械学習入門編」,初版,日本,株式会社技術評論社,2015年10月10日,第168頁,ISBN: 978-4-7741-7631-4.

Also Published As

Publication number Publication date
KR102422729B1 (ko) 2022-07-19
US20190354895A1 (en) 2019-11-21
WO2019222734A1 (en) 2019-11-21
JP2021518939A (ja) 2021-08-05
US20240242125A1 (en) 2024-07-18
CN111758105A (zh) 2020-10-09
EP3732628A1 (en) 2020-11-04
US12033038B2 (en) 2024-07-09
US10817805B2 (en) 2020-10-27
KR20200110400A (ko) 2020-09-23
US20210019658A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
JP7017640B2 (ja) データ拡張方策の学習
JP7423828B2 (ja) アテンションベースのシーケンス変換ニューラルネットワーク
JP7157154B2 (ja) 性能予測ニューラルネットワークを使用したニューラルアーキテクチャ探索
JP6854921B2 (ja) タスク固有のポリシーおよび共有ポリシーをもつマルチタスクニューラルネットワークシステム
JP6790286B2 (ja) 強化学習を用いたデバイス配置最適化
CN111602148B (zh) 正则化神经网络架构搜索
JP7439151B2 (ja) ニューラルアーキテクチャ検索
US20200279134A1 (en) Using simulation and domain adaptation for robotic control
US20210097348A1 (en) Training neural networks using data augmentation policies
JP6876814B2 (ja) バッチ再正規化層
CN111386536A (zh) 语义一致的图像样式转换
JP7483751B2 (ja) 教師なしデータ拡張を使用した機械学習モデルのトレーニング
US11951622B2 (en) Domain adaptation using simulation to simulation transfer
US20200234117A1 (en) Batched reinforcement learning
US11416760B2 (en) Machine learning based user interface controller
KR20210033235A (ko) 데이터 증강 방법 및 장치, 그리고 컴퓨터 프로그램
CN110447041A (zh) 噪声神经网络层
WO2020154373A1 (en) Neural network training using the soft nearest neighbor loss
CN115398446A (zh) 使用符号编程的机器学习算法搜索
US20240152809A1 (en) Efficient machine learning model architecture selection
US20240046070A1 (en) Controlling agents using auxiliary prediction neural networks that generate state value estimates
CN117540073A (zh) 互动行为预测模型的训练方法、装置、设备及存储介质
CN116957017A (zh) 面向计算机设备中的神经网络模型的加速方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220127

R150 Certificate of patent or registration of utility model

Ref document number: 7017640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150