JP2020184311A - 自動データ水増しにおけるトレーニング時間の短縮 - Google Patents
自動データ水増しにおけるトレーニング時間の短縮 Download PDFInfo
- Publication number
- JP2020184311A JP2020184311A JP2020027425A JP2020027425A JP2020184311A JP 2020184311 A JP2020184311 A JP 2020184311A JP 2020027425 A JP2020027425 A JP 2020027425A JP 2020027425 A JP2020027425 A JP 2020027425A JP 2020184311 A JP2020184311 A JP 2020184311A
- Authority
- JP
- Japan
- Prior art keywords
- training data
- data point
- training
- class
- mutations
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 692
- 230000009467 reduction Effects 0.000 title description 4
- 238000013434 data augmentation Methods 0.000 title 1
- 238000003062 neural network model Methods 0.000 claims abstract description 118
- 238000000034 method Methods 0.000 claims abstract description 107
- 230000004044 response Effects 0.000 claims abstract description 66
- 230000035772 mutation Effects 0.000 claims description 236
- 230000000007 visual effect Effects 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 10
- 238000010008 shearing Methods 0.000 claims description 8
- 230000003094 perturbing effect Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 abstract description 11
- 230000003190 augmentative effect Effects 0.000 abstract description 3
- 230000003416 augmentation Effects 0.000 abstract 1
- 230000009471 action Effects 0.000 description 19
- 238000007792 addition Methods 0.000 description 16
- 238000013500 data storage Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004904 shortening Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 241000272534 Struthio camelus Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 238000007876 drug discovery Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 231100000027 toxicology Toxicity 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
(付記1) 深層ニューラルネットワークモデルを取得するステップと、
第1トレーニングエポックの間に前記深層ニューラルネットワークモデルのためのトレーニングデータ点の母集団から、第1トレーニングデータ点及び第2トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第1精度に基づき、前記第1トレーニングデータ点の第1ロバストネス値を決定するステップと、
前記第2トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第2精度に基づき、前記第2トレーニングデータ点の第2ロバストネス値を決定するステップと、
前記第1ロバストネス値がロバストネス閾を満たすことに応答して、前記第1トレーニングエポックの間に前記第1トレーニングデータ点の変異による前記第1トレーニングデータ点の水増しを省略するステップと、
前記第2ロバストネス値が前記ロバストネス閾を満たさないことに応答して、前記第1トレーニングエポックの間に前記第2トレーニングデータ点の1つ以上の変異により前記第2トレーニングデータ点を水増しするステップと、
前記第1トレーニングエポックの間に、前記第1トレーニングデータ点及び前記水増しした第2トレーニングデータ点で、前記深層ニューラルネットワークモデルをトレーニングするステップと、
を含む方法。
(付記2) 前記第1ロバストネス値を決定するステップは、
前記第1トレーニングデータ点のクラスを取得するステップであって、前記クラスは、前記第1トレーニングデータ点のカテゴリである、ステップと、
前記ロバストネス閾として、予測クラス閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、予測クラス決定を実行するステップであって、前記予測クラス決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれのクラス予測を決定し、その結果、前記複数の変異に関して複数のクラス予測が取得される、ステップと、
前記第1ロバストネス値として、前記第1トレーニングデータ点についての前記取得したクラスと一致する、前記複数のクラス予測のうちの一致するクラスの数を決定するステップと、
前記一致するクラスの数が前記予測クラス閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記一致するクラスの数が前記予測クラス閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、付記1に記載の方法。
(付記3) 前記第1トレーニングデータ点の前記複数の変異を取得するステップは、前記第1トレーニングデータ点の1つ以上のランダム変異を取得するステップを含む、付記2に記載の方法。
(付記4) 前記第1ロバストネス値を決定するステップは、
前記ロバストネス閾として、損失閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、損失決定を実行するステップであって、前記損失決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれの損失を決定し、その結果、前記複数の変異に関して複数の損失が取得され、前記複数の損失のうちの各損失は、前記それぞれの変異の予測クラスが前記第1トレーニングデータ点のクラスと一致する予測確率に基づき決定される、ステップと、
前記第1ロバストネス値として、前記1つ以上の損失のうちの最大損失を識別するステップと、
前記最大損失が前記損失閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記最大損失が前記損失閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、付記1に記載の方法。
(付記5) 前記第1ロバストネス値を決定するステップは、前記第1トレーニングデータ点の複数の変異に基づく、付記1に記載の方法。
(付記6) 前記第1トレーニングデータ点の前記複数の変異は、複数の視覚的変異種類のうちの1つ以上の視覚的変異種類を含み、前記複数の視覚的変異種類は、前記第1トレーニングデータ点の回転、前記第1トレーニングデータ点の平行移動、前記第1トレーニングデータ点のせん断、前記第1トレーニングデータ点のズーム、前記第1トレーニングデータ点の輝度の変化、前記第1トレーニングデータ点のコントラストの変化、を含む、付記5に記載の方法。
(付記7) 前記第1トレーニングデータ点の前記複数の変異は、複数の聴覚的変異種類のうちの1つ以上の聴覚的変異種類を含み、前記複数の聴覚的変異種類は、前記第1トレーニングデータ点の速度に基づく会話の摂動、前記第1トレーニングデータ点への背景雑音の追加、及び前記第1トレーニングデータ点のテンポに基づく摂動、を含む、付記5に記載の方法。
(付記8) 1つ以上の命令を記憶し、該命令は、少なくとも1つのシステムにより実行されることに応答して、前記少なくとも1つのシステムに付記1に記載の方法を実行させる、少なくとも1つの非一時的コンピュータ可読媒体。
(付記9) 深層ニューラルネットワークモデルを取得するステップと、
第1トレーニングエポックの間に、前記深層ニューラルネットワークモデルのためのトレーニングデータ点の母集団から、第1トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第1精度に基づき、前記第1トレーニングデータ点の第1ロバストネス値を決定するステップと、
前記第1ロバストネス値がロバストネス閾を満たすことに応答して、前記第1トレーニングエポックの間、及び前記第1トレーニングエポックの後の1つ以上の第2トレーニングエポックの間に、前記第1トレーニングデータ点の変異による前記第1トレーニングデータ点の水増しを省略するステップと、
前記第1トレーニングエポックの間に前記第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
前記1つ以上の第2トレーニングエポックの間に前記第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
前記1つ以上の第2トレーニングエポックの後の第3トレーニングエポックの間に、前記トレーニングデータ点の母集団から、前記第1トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第2精度に基づき、前記第1トレーニングデータ点の第2ロバストネス値を決定するステップと、
前記第2ロバストネス値が前記ロバストネス閾を満たさないことに応答して、前記第3トレーニングエポックの間に、前記第1トレーニングデータ点の1つ以上の変異により前記第1トレーニングデータ点を水増しするステップと、
前記第3トレーニングエポックの間に、前記水増しした第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
を含む方法。
(付記10) 前記第1ロバストネス値を決定するステップは、
前記第1トレーニングデータ点のクラスを取得するステップであって、前記クラスは、前記第1トレーニングデータ点のカテゴリである、ステップと、
前記ロバストネス閾として、予測クラス閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、予測クラス決定を実行するステップであって、前記予測クラス決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれのクラス予測を決定し、その結果、前記複数の変異に関して複数のクラス予測が取得される、ステップと、
前記第1ロバストネス値として、前記第1トレーニングデータ点についての前記取得したクラスと一致する、前記複数のクラス予測のうちの一致するクラスの数を決定するステップと、
前記一致するクラスの数が前記予測クラス閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記一致するクラスの数が前記予測クラス閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、付記9に記載の方法。
(付記11) 前記第1トレーニングデータ点の前記複数の変異を取得するステップは、前記第1トレーニングデータ点の1つ以上のランダム変異を取得するステップを含む、付記10に記載の方法。
(付記12) 前記第1ロバストネス値を決定するステップは、
前記ロバストネス閾として、損失閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、損失決定を実行するステップであって、前記損失決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれの損失を決定し、その結果、前記複数の変異に関して複数の損失が取得され、前記複数の損失のうちの各損失は、前記それぞれの変異の予測クラスが前記第1トレーニングデータ点のクラスと一致する予測確率に基づき決定される、ステップと、
前記第1ロバストネス値として、前記1つ以上の損失のうちの最大損失を識別するステップと、
前記最大損失が前記損失閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記最大損失が前記損失閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、付記9に記載の方法。
(付記13) 前記第1ロバストネス値を決定するステップは、前記第1トレーニングデータ点の複数の変異に基づく、付記9に記載の方法。
(付記14) 前記第1トレーニングデータ点の前記複数の変異は、複数の視覚的変異種類のうちの1つ以上の視覚的変異種類を含み、前記複数の視覚的変異種類は、前記第1トレーニングデータ点の回転、前記第1トレーニングデータ点の平行移動、前記第1トレーニングデータ点のせん断、前記第1トレーニングデータ点のズーム、前記第1トレーニングデータ点の輝度の変化、前記第1トレーニングデータ点のコントラストの変化、を含む、付記13に記載の方法。
(付記15) 前記第1トレーニングデータ点の前記複数の変異は、複数の聴覚的変異種類のうちの1つ以上の聴覚的変異種類を含み、前記複数の聴覚的変異種類は、前記第1トレーニングデータ点の速度に基づく会話の摂動、前記第1トレーニングデータ点への背景雑音の追加、及び前記第1トレーニングデータ点のテンポに基づく摂動、を含む、付記13に記載の方法。
(付記16) 1つ以上の命令を記憶し、該命令は、少なくとも1つのシステムにより実行されることに応答して、前記少なくとも1つのシステムに付記9に記載の方法を実行させる、少なくとも1つの非一時的コンピュータ可読媒体。
(付記17) 深層ニューラルネットワークモデルを取得するステップと、
第1トレーニングエポックの間に前記深層ニューラルネットワークモデルのためのトレーニングデータ点の母集団から第1トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点に関する前記深層ニューラルネットワークモデルの第1精度に基づき、前記第1トレーニングデータ点の第1ロバストネス値を決定するステップと、
前記第1ロバストネス値がロバストネス閾を満たすことに応答して、前記第1トレーニングエポックの間に前記第1トレーニングデータ点の変異による前記第1トレーニングデータ点の水増しを省略するステップと、
前記第1トレーニングエポックの間に前記第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
を含む方法。
(付記18) 前記第1ロバストネス値を決定するステップは、
前記第1トレーニングデータ点のクラスを取得するステップであって、前記クラスは、前記第1トレーニングデータ点のカテゴリである、ステップと、
前記ロバストネス閾として、予測クラス閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、予測クラス決定を実行するステップであって、前記予測クラス決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれのクラス予測を決定し、その結果、前記複数の変異に関して複数のクラス予測が取得される、ステップと、
前記第1ロバストネス値として、前記第1トレーニングデータ点についての前記取得したクラスと一致する、前記複数のクラス予測のうちの一致するクラスの数を決定するステップと、
前記一致するクラスの数が前記予測クラス閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記一致するクラスの数が前記予測クラス閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、付記17に記載の方法。
(付記19) 前記第1ロバストネス値を決定するステップは、
前記ロバストネス閾として、損失閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、損失決定を実行するステップであって、前記損失決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれの損失を決定し、その結果、前記複数の変異に関して複数の損失が取得され、前記複数の損失のうちの各損失は、前記それぞれの変異の予測クラスが前記第1トレーニングデータ点のクラスと一致する予測確率に基づき決定される、ステップと、
前記第1ロバストネス値として、前記1つ以上の損失のうちの最大損失を識別するステップと、
前記最大損失が前記損失閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記最大損失が前記損失閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、付記17に記載の方法。
(付記20) 1つ以上の命令を記憶し、該命令は、少なくとも1つのシステムにより実行されることに応答して、前記少なくとも1つのシステムに付記17に記載の方法を実行させる、少なくとも1つの非一時的コンピュータ可読媒体。
110 DNN構成モジュール
120 深層ニューラルネットワークモデル
130 トレーニングデータ
140 トレーニングモジュール
150 変異モジュール
160 ロバストネスモジュール
170 水増しモジュール
180 トレーニング済みDNNモデル
Claims (20)
- 深層ニューラルネットワークモデルを取得するステップと、
第1トレーニングエポックの間に前記深層ニューラルネットワークモデルのためのトレーニングデータ点の母集団から、第1トレーニングデータ点及び第2トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第1精度に基づき、前記第1トレーニングデータ点の第1ロバストネス値を決定するステップと、
前記第2トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第2精度に基づき、前記第2トレーニングデータ点の第2ロバストネス値を決定するステップと、
前記第1ロバストネス値がロバストネス閾を満たすことに応答して、前記第1トレーニングエポックの間に前記第1トレーニングデータ点の変異による前記第1トレーニングデータ点の水増しを省略するステップと、
前記第2ロバストネス値が前記ロバストネス閾を満たさないことに応答して、前記第1トレーニングエポックの間に前記第2トレーニングデータ点の1つ以上の変異により前記第2トレーニングデータ点を水増しするステップと、
前記第1トレーニングエポックの間に、前記第1トレーニングデータ点及び前記水増しした第2トレーニングデータ点で、前記深層ニューラルネットワークモデルをトレーニングするステップと、
を含む方法。 - 前記第1ロバストネス値を決定するステップは、
前記第1トレーニングデータ点のクラスを取得するステップであって、前記クラスは、前記第1トレーニングデータ点のカテゴリである、ステップと、
前記ロバストネス閾として、予測クラス閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、予測クラス決定を実行するステップであって、前記予測クラス決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれのクラス予測を決定し、その結果、前記複数の変異に関して複数のクラス予測が取得される、ステップと、
前記第1ロバストネス値として、前記第1トレーニングデータ点についての前記取得したクラスと一致する、前記複数のクラス予測のうちの一致するクラスの数を決定するステップと、
前記一致するクラスの数が前記予測クラス閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記一致するクラスの数が前記予測クラス閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、請求項1に記載の方法。 - 前記第1トレーニングデータ点の前記複数の変異を取得するステップは、前記第1トレーニングデータ点の1つ以上のランダム変異を取得するステップを含む、請求項2に記載の方法。
- 前記第1ロバストネス値を決定するステップは、
前記ロバストネス閾として、損失閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、損失決定を実行するステップであって、前記損失決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれの損失を決定し、その結果、前記複数の変異に関して複数の損失が取得され、前記複数の損失のうちの各損失は、前記それぞれの変異の予測クラスが前記第1トレーニングデータ点のクラスと一致する予測確率に基づき決定される、ステップと、
前記第1ロバストネス値として、前記1つ以上の損失のうちの最大損失を識別するステップと、
前記最大損失が前記損失閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記最大損失が前記損失閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、請求項1に記載の方法。 - 前記第1ロバストネス値を決定するステップは、前記第1トレーニングデータ点の複数の変異に基づく、請求項1に記載の方法。
- 前記第1トレーニングデータ点の前記複数の変異は、複数の視覚的変異種類のうちの1つ以上の視覚的変異種類を含み、前記複数の視覚的変異種類は、前記第1トレーニングデータ点の回転、前記第1トレーニングデータ点の平行移動、前記第1トレーニングデータ点のせん断、前記第1トレーニングデータ点のズーム、前記第1トレーニングデータ点の輝度の変化、前記第1トレーニングデータ点のコントラストの変化、を含む、請求項5に記載の方法。
- 前記第1トレーニングデータ点の前記複数の変異は、複数の聴覚的変異種類のうちの1つ以上の聴覚的変異種類を含み、前記複数の聴覚的変異種類は、前記第1トレーニングデータ点の速度に基づく会話の摂動、前記第1トレーニングデータ点への背景雑音の追加、及び前記第1トレーニングデータ点のテンポに基づく摂動、を含む、請求項5に記載の方法。
- 1つ以上の命令を記憶し、該命令は、少なくとも1つのシステムにより実行されることに応答して、前記少なくとも1つのシステムに請求項1に記載の方法を実行させる、少なくとも1つの非一時的コンピュータ可読媒体。
- 深層ニューラルネットワークモデルを取得するステップと、
第1トレーニングエポックの間に、前記深層ニューラルネットワークモデルのためのトレーニングデータ点の母集団から、第1トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第1精度に基づき、前記第1トレーニングデータ点の第1ロバストネス値を決定するステップと、
前記第1ロバストネス値がロバストネス閾を満たすことに応答して、前記第1トレーニングエポックの間、及び前記第1トレーニングエポックの後の1つ以上の第2トレーニングエポックの間に、前記第1トレーニングデータ点の変異による前記第1トレーニングデータ点の水増しを省略するステップと、
前記第1トレーニングエポックの間に前記第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
前記1つ以上の第2トレーニングエポックの間に前記第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
前記1つ以上の第2トレーニングエポックの後の第3トレーニングエポックの間に、前記トレーニングデータ点の母集団から、前記第1トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点の変異に関する前記深層ニューラルネットワークモデルの第2精度に基づき、前記第1トレーニングデータ点の第2ロバストネス値を決定するステップと、
前記第2ロバストネス値が前記ロバストネス閾を満たさないことに応答して、前記第3トレーニングエポックの間に、前記第1トレーニングデータ点の1つ以上の変異により前記第1トレーニングデータ点を水増しするステップと、
前記第3トレーニングエポックの間に、前記水増しした第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
を含む方法。 - 前記第1ロバストネス値を決定するステップは、
前記第1トレーニングデータ点のクラスを取得するステップであって、前記クラスは、前記第1トレーニングデータ点のカテゴリである、ステップと、
前記ロバストネス閾として、予測クラス閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、予測クラス決定を実行するステップであって、前記予測クラス決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれのクラス予測を決定し、その結果、前記複数の変異に関して複数のクラス予測が取得される、ステップと、
前記第1ロバストネス値として、前記第1トレーニングデータ点についての前記取得したクラスと一致する、前記複数のクラス予測のうちの一致するクラスの数を決定するステップと、
前記一致するクラスの数が前記予測クラス閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記一致するクラスの数が前記予測クラス閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、請求項9に記載の方法。 - 前記第1トレーニングデータ点の前記複数の変異を取得するステップは、前記第1トレーニングデータ点の1つ以上のランダム変異を取得するステップを含む、請求項10に記載の方法。
- 前記第1ロバストネス値を決定するステップは、
前記ロバストネス閾として、損失閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、損失決定を実行するステップであって、前記損失決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれの損失を決定し、その結果、前記複数の変異に関して複数の損失が取得され、前記複数の損失のうちの各損失は、前記それぞれの変異の予測クラスが前記第1トレーニングデータ点のクラスと一致する予測確率に基づき決定される、ステップと、
前記第1ロバストネス値として、前記1つ以上の損失のうちの最大損失を識別するステップと、
前記最大損失が前記損失閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記最大損失が前記損失閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、請求項9に記載の方法。 - 前記第1ロバストネス値を決定するステップは、前記第1トレーニングデータ点の複数の変異に基づく、請求項9に記載の方法。
- 前記第1トレーニングデータ点の前記複数の変異は、複数の視覚的変異種類のうちの1つ以上の視覚的変異種類を含み、前記複数の視覚的変異種類は、前記第1トレーニングデータ点の回転、前記第1トレーニングデータ点の平行移動、前記第1トレーニングデータ点のせん断、前記第1トレーニングデータ点のズーム、前記第1トレーニングデータ点の輝度の変化、前記第1トレーニングデータ点のコントラストの変化、を含む、請求項13に記載の方法。
- 前記第1トレーニングデータ点の前記複数の変異は、複数の聴覚的変異種類のうちの1つ以上の聴覚的変異種類を含み、前記複数の聴覚的変異種類は、前記第1トレーニングデータ点の速度に基づく会話の摂動、前記第1トレーニングデータ点への背景雑音の追加、及び前記第1トレーニングデータ点のテンポに基づく摂動、を含む、請求項13に記載の方法。
- 1つ以上の命令を記憶し、該命令は、少なくとも1つのシステムにより実行されることに応答して、前記少なくとも1つのシステムに請求項9に記載の方法を実行させる、少なくとも1つの非一時的コンピュータ可読媒体。
- 深層ニューラルネットワークモデルを取得するステップと、
第1トレーニングエポックの間に前記深層ニューラルネットワークモデルのためのトレーニングデータ点の母集団から第1トレーニングデータ点を取得するステップと、
前記第1トレーニングデータ点に関する前記深層ニューラルネットワークモデルの第1精度に基づき、前記第1トレーニングデータ点の第1ロバストネス値を決定するステップと、
前記第1ロバストネス値がロバストネス閾を満たすことに応答して、前記第1トレーニングエポックの間に前記第1トレーニングデータ点の変異による前記第1トレーニングデータ点の水増しを省略するステップと、
前記第1トレーニングエポックの間に前記第1トレーニングデータ点で前記深層ニューラルネットワークモデルをトレーニングするステップと、
を含む方法。 - 前記第1ロバストネス値を決定するステップは、
前記第1トレーニングデータ点のクラスを取得するステップであって、前記クラスは、前記第1トレーニングデータ点のカテゴリである、ステップと、
前記ロバストネス閾として、予測クラス閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、予測クラス決定を実行するステップであって、前記予測クラス決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれのクラス予測を決定し、その結果、前記複数の変異に関して複数のクラス予測が取得される、ステップと、
前記第1ロバストネス値として、前記第1トレーニングデータ点についての前記取得したクラスと一致する、前記複数のクラス予測のうちの一致するクラスの数を決定するステップと、
前記一致するクラスの数が前記予測クラス閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記一致するクラスの数が前記予測クラス閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、請求項17に記載の方法。 - 前記第1ロバストネス値を決定するステップは、
前記ロバストネス閾として、損失閾を取得するステップと、
前記第1トレーニングデータ点の複数の変異を取得するステップと、
前記複数の変異のうちのそれぞれの変異に関し、損失決定を実行するステップであって、前記損失決定は、それぞれの変異が提供されると、前記深層ニューラルネットワークモデルのそれぞれの損失を決定し、その結果、前記複数の変異に関して複数の損失が取得され、前記複数の損失のうちの各損失は、前記それぞれの変異の予測クラスが前記第1トレーニングデータ点のクラスと一致する予測確率に基づき決定される、ステップと、
前記第1ロバストネス値として、前記1つ以上の損失のうちの最大損失を識別するステップと、
前記最大損失が前記損失閾を満たすことに応答して、前記第1トレーニングデータ点がロバストであると決定するステップであって、前記第1トレーニングデータ点の水増しを省略するステップは、前記最大損失が前記損失閾を満たすことに応答して前記第1トレーニングデータ点がロバストであると決定することに応答する、ステップと、
を含む、請求項17に記載の方法。 - 1つ以上の命令を記憶し、該命令は、少なくとも1つのシステムにより実行されることに応答して、前記少なくとも1つのシステムに請求項17に記載の方法を実行させる、少なくとも1つの非一時的コンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/399,399 US20200349425A1 (en) | 2019-04-30 | 2019-04-30 | Training time reduction in automatic data augmentation |
US16/399399 | 2019-04-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020184311A true JP2020184311A (ja) | 2020-11-12 |
JP7404924B2 JP7404924B2 (ja) | 2023-12-26 |
Family
ID=73015962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020027425A Active JP7404924B2 (ja) | 2019-04-30 | 2020-02-20 | 自動データ水増しにおけるトレーニング時間の短縮 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200349425A1 (ja) |
JP (1) | JP7404924B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11281227B2 (en) * | 2019-08-20 | 2022-03-22 | Volkswagen Ag | Method of pedestrian activity recognition using limited data and meta-learning |
US11423264B2 (en) | 2019-10-21 | 2022-08-23 | Adobe Inc. | Entropy based synthetic data generation for augmenting classification system training data |
GB2602630A (en) * | 2021-01-05 | 2022-07-13 | Nissan Motor Mfg Uk Limited | Traffic light detection |
US20230098315A1 (en) * | 2021-09-30 | 2023-03-30 | Sap Se | Training dataset generation for speech-to-text service |
US20240087300A1 (en) * | 2022-09-08 | 2024-03-14 | Fraunhofer Usa, Inc. | Systematic testing of ai image recognition |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0683795A (ja) * | 1992-08-31 | 1994-03-25 | Hitachi Ltd | 認識又は診断方法 |
JP2016161823A (ja) * | 2015-03-03 | 2016-09-05 | 株式会社日立製作所 | 音響モデル学習支援装置、音響モデル学習支援方法 |
JP2018513399A (ja) * | 2015-11-25 | 2018-05-24 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 配置されたエンドツーエンド音声認識 |
US20190266418A1 (en) * | 2018-02-27 | 2019-08-29 | Nvidia Corporation | Real-time detection of lanes and boundaries by autonomous vehicles |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015009620A1 (en) * | 2013-07-17 | 2015-01-22 | President And Fellows Of Harvard College | Systems and methods for keyword determination and document classification from unstructured text |
US10210861B1 (en) * | 2018-09-28 | 2019-02-19 | Apprente, Inc. | Conversational agent pipeline trained on synthetic data |
-
2019
- 2019-04-30 US US16/399,399 patent/US20200349425A1/en active Pending
-
2020
- 2020-02-20 JP JP2020027425A patent/JP7404924B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0683795A (ja) * | 1992-08-31 | 1994-03-25 | Hitachi Ltd | 認識又は診断方法 |
JP2016161823A (ja) * | 2015-03-03 | 2016-09-05 | 株式会社日立製作所 | 音響モデル学習支援装置、音響モデル学習支援方法 |
JP2018513399A (ja) * | 2015-11-25 | 2018-05-24 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 配置されたエンドツーエンド音声認識 |
US20190266418A1 (en) * | 2018-02-27 | 2019-08-29 | Nvidia Corporation | Real-time detection of lanes and boundaries by autonomous vehicles |
Also Published As
Publication number | Publication date |
---|---|
US20200349425A1 (en) | 2020-11-05 |
JP7404924B2 (ja) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7404924B2 (ja) | 自動データ水増しにおけるトレーニング時間の短縮 | |
US11568240B2 (en) | Method and apparatus for classifying class, to which sentence belongs, using deep neural network | |
CN105654946B (zh) | 用于语音识别的设备和方法 | |
CN105679317B (zh) | 用于训练语言模型并识别语音的方法和设备 | |
US9818409B2 (en) | Context-dependent modeling of phonemes | |
US20160035344A1 (en) | Identifying the language of a spoken utterance | |
US11282524B2 (en) | Text-to-speech modeling | |
KR20200052444A (ko) | 신경망을 이용하여 예측 결과를 출력하는 방법, 신경망을 생성하는 방법 및 그 장치들 | |
US11749264B2 (en) | System and methods for training task-oriented dialogue (TOD) language models | |
US20200312324A1 (en) | Hybrid arbitration System | |
KR20200128938A (ko) | 모델 학습 방법 및 장치 | |
CN112700778B (zh) | 语音识别方法和语音识别设备 | |
CN112528637A (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
US11954202B2 (en) | Deep learning based detection of malicious shell scripts | |
JP2021157792A (ja) | 事前トレーニングされた分類器に基づく深層ニューラル・ネットワーク(dnn)予測の検証 | |
Chi et al. | Speaker role contextual modeling for language understanding and dialogue policy learning | |
KR20220130565A (ko) | 키워드 검출 방법 및 장치 | |
US11682400B1 (en) | Speech processing | |
Kim et al. | Sequential labeling for tracking dynamic dialog states | |
CN105677636A (zh) | 智能问答系统的信息处理方法及信息处理装置 | |
US11996119B2 (en) | End-of-talk prediction device, end-of-talk prediction method, and non-transitory computer readable recording medium | |
EP3267438B1 (en) | Speaker authentication with artificial neural networks | |
US20230130662A1 (en) | Method and apparatus for analyzing multimodal data | |
KR102548519B1 (ko) | 준합성 데이터 생성 장치 및 데이터 생성 방법 | |
EP3373208A1 (en) | Method and system for facilitating reliable pattern detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7404924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |